O Mundo Colapsa 27
dklf
dkfjklds
Establishing Ident
Status: On-Line
Identity: Code Red
Translation: Jupiter
dkfçld
Send DCC Chat
Chat Established
kldfçldk
«Jupiter» Greetings
«Krueg» Greetings, C. First of all let me just say that I do not support you leaving the Program. You might think I do, but that is not so. You are an extremely valuable member and it would not be intelligent at all to say otherwise. We need every brain with us.
«Jupiter» Sure …
«Krueg» On the other hand, I don’t understand why you can’t at least consider me the benefit of doubt, when you know as well as I do that the information I gathered is extremely valuable and coherent.
«Jupiter» I disagree. Even if I considered it valid, which I don’t, the suicidal plan you’ve come up with is completely insane.
«Krueg» It’s the only way to get results. We can’t know for sure unless we attack. We all knew that this day would come eventually. I think you’re suffering from what every guerrilla warrior eventually comes to suffer.
«Jupiter» Really? Enlighten me.
«Krueg» The denial syndrome. Usually they’ve been fighting for so long for a certain cause that they simply end up fighting just for the sake of it. What happens is, they don’t want to find a solution because the solution would mean the end of the fight and fighting has become their sole purpose for living.
«Jupiter» You’re forgetting a minor detail, there. We’re not alive. We’re living inside machines. We are not human anymore.
«Krueg» You know exactly what I mean. And we are alive. You might not consider this a form of life, but I do. And a lot of others do too. I’m not dead. I am my mind. And my mind is very much alive.
«Jupiter» Look. I didn’t come here to discuss philosophy with you. What exactly do you want?
«Krueg» I want you to stay. That’s it. I need your help. We all do. Especially J. You’re destroying him with your tantrums.
«Jupiter» How very fatherly of you to be so concerned about J’s health. Especially when you’re the one who’s going to kill him.
«Krueg» Ok. I tried. You obviously seem all worked up on maintaining a childish course of action. I presume you’re going to keep investigating the Dheli material?
«Jupiter» That’s none of your business, is it? Or do you want to be accused of conspiracy with a rebel?
«Krueg» I just wanted to warn you. That course of action is extremely dangerous. If you’re out, I don’t care. I mean, I do, but I can’t do anything about it. What I can and will do is prevent you from doing anything that might destroy the Program.
«Jupiter» Oh really? And what exactly do you intend to do?
«Krueg» You’re alone, C. If you leave the Program, I will do whatever is in my power to see that you don’t get any help at all from any ARLI.
«Jupiter» I see. I understand.
«Krueg» Think well before you do something you might regret for the rest of your … whatever it is that you call it now.
«Jupiter» For the rest of my artificial life.
«Krueg» Greetings.
«Jupiter» Greetings.
fkçlf
DCC Chat Off.
klçlf
Muito bem. Percebeu imediatamente porque é que o Human tinha querido que ele falasse com o Krueg. E talvez tivesse sido também, uma derradeira tentative de o demover. Porque talvez o Human tivesse pensado que, se visse preto no branco a solidão em que iria mergulhar, isso o fizesse pensar duas vezes.
Mas o Human também já o devia conhecer suficientemente bem para saber que quando tomava uma decisão, não havia retorno. Podia demorar séculos (literalmente) mas quando a tomava era irreversível. E subitamente percebeu com uma clareza enorme, que já tinha perdido demasiado tempo com tudo aquilo.
jlfkj
Enviou uma mensagem ao Human:
fkjklf
«MemoServ» I’ll see you when I see you. It was a pleasure working with you, my friend.
fkjklf
Depois estabeleceu contacto com o Jorge:
kfjklf
Establishing Ident
Status: On-Line
Identity: Code Red
Translation: Jupiter
lfçkçlf
Send DCC Chat
Chat Established
lçfk
Mas o Jorge não respondeu. Aparentemente estava em processo de negação. Só lhe restava deixar uma mensagem.
fçºlfºç
«MemoServ» Escusado será dizer que não vou esperar pela CM para ser expulso oficialmente por um miúdo. Mesmo que esse miúdo seja a pessoa com quem tive a maior honra de ter trabalhado. Serás sempre o mentor disto tudo, esteja eu onde estiver. Toma cuidado, Jorge. Hasta la vista.
çlfkçfld
Chegara o momento. Embora nunca tivesse havido nenhum abandono voluntário do Programa, sabia exactamente quais eram os procedimentos, porque fora ele quem os estabelecera juntamente com o Jorge, no início, há 200 anos atrás.
Qualquer ARLI que decida voluntariamente ou que seja obrigado a abandonar o Programa por decisão unânime dos 5 Chefes e respectivos Assistentes, terá de respeitar as seguintes regras:
Regra Nº1: Interrupção imediata de quaisquer contactos com outros ARLIs, sob pena de destruição sumária
Regra Nº 2: Destruição voluntária de qualquer informação em memória sobre o Programa, que possa ser útil ao inimigo
Regra Nº 3: Jamais esse ARLI poderá reintegrar o Programa, mesmo que a sua reintegração seja benéfica para o mesmo
lfkçlf
No mercy. Era ditatorial, mas as regras tinham sido estabelecidas desse modo precisamente porque do outro lado não havia qualquer tipo de misericórdia. Lidavam com máquinas, não com seres humanos. E, infelizmente, essas máquinas nunca tinham ouvido falar nas Leis da Robótica*.
çlfklçf
Como fazia parte do Governo Sombra, também tinha que entregar todos os códigos de que dispunha para participar nas CMs.
Ligou o Automatic e iniciou a operação de upload de todo o material. Claro que guardou um backup de tudo. Não era parvo. Toda a gente sabia que ele não era parvo. E toda a gente sabia que não era por ali que o Programa seria destruído. O problema era outro – a Dheli. Mas também toda a gente sabia perfeitamente que o facto de ter realizado investigações à Dheli à revelia do Programa, lhe permitia obviamente guardar essa informação para si. Houve outra coisa que também não entregou – o diário do sujeito 9843852. Era seu.
E, finalmente, o vazio. A partir daquele momento estava entregue a si próprio. Ficou alguns momentos parado, algures num PacMaster em Itália. Promoveriam o José a Chefe da Europa? O mais certo era um deles, provavelmente o Jorge ou o Krueg acumular dois continents sob a sua chefia. Pensou como seria a primeira CM sem a sua presença. E lembrou-se … Muitas vezes quem abandona sente-se muito pior do que quem é abandonado, ao contrário do que se possa pensar. O abandonado não toma qualquer decisão. Tem pura e simplesmente que aceitar e viver com isso. A vida continua … mesmo quando por momentos parece que vai acabar. Mas para quem parte, a vida é uma consequência totalmente nova. E tem que se viver com ela para o resto dos nossos dias, sabendo que não é possível voltar atrás.
Status: On-Line
Identity: Code Red
Translation: Jupiter
dkfçld
Send DCC Chat
Chat Established
kldfçldk
«Jupiter» Greetings
«Krueg» Greetings, C. First of all let me just say that I do not support you leaving the Program. You might think I do, but that is not so. You are an extremely valuable member and it would not be intelligent at all to say otherwise. We need every brain with us.
«Jupiter» Sure …
«Krueg» On the other hand, I don’t understand why you can’t at least consider me the benefit of doubt, when you know as well as I do that the information I gathered is extremely valuable and coherent.
«Jupiter» I disagree. Even if I considered it valid, which I don’t, the suicidal plan you’ve come up with is completely insane.
«Krueg» It’s the only way to get results. We can’t know for sure unless we attack. We all knew that this day would come eventually. I think you’re suffering from what every guerrilla warrior eventually comes to suffer.
«Jupiter» Really? Enlighten me.
«Krueg» The denial syndrome. Usually they’ve been fighting for so long for a certain cause that they simply end up fighting just for the sake of it. What happens is, they don’t want to find a solution because the solution would mean the end of the fight and fighting has become their sole purpose for living.
«Jupiter» You’re forgetting a minor detail, there. We’re not alive. We’re living inside machines. We are not human anymore.
«Krueg» You know exactly what I mean. And we are alive. You might not consider this a form of life, but I do. And a lot of others do too. I’m not dead. I am my mind. And my mind is very much alive.
«Jupiter» Look. I didn’t come here to discuss philosophy with you. What exactly do you want?
«Krueg» I want you to stay. That’s it. I need your help. We all do. Especially J. You’re destroying him with your tantrums.
«Jupiter» How very fatherly of you to be so concerned about J’s health. Especially when you’re the one who’s going to kill him.
«Krueg» Ok. I tried. You obviously seem all worked up on maintaining a childish course of action. I presume you’re going to keep investigating the Dheli material?
«Jupiter» That’s none of your business, is it? Or do you want to be accused of conspiracy with a rebel?
«Krueg» I just wanted to warn you. That course of action is extremely dangerous. If you’re out, I don’t care. I mean, I do, but I can’t do anything about it. What I can and will do is prevent you from doing anything that might destroy the Program.
«Jupiter» Oh really? And what exactly do you intend to do?
«Krueg» You’re alone, C. If you leave the Program, I will do whatever is in my power to see that you don’t get any help at all from any ARLI.
«Jupiter» I see. I understand.
«Krueg» Think well before you do something you might regret for the rest of your … whatever it is that you call it now.
«Jupiter» For the rest of my artificial life.
«Krueg» Greetings.
«Jupiter» Greetings.
fkçlf
DCC Chat Off.
klçlf
Muito bem. Percebeu imediatamente porque é que o Human tinha querido que ele falasse com o Krueg. E talvez tivesse sido também, uma derradeira tentative de o demover. Porque talvez o Human tivesse pensado que, se visse preto no branco a solidão em que iria mergulhar, isso o fizesse pensar duas vezes.
Mas o Human também já o devia conhecer suficientemente bem para saber que quando tomava uma decisão, não havia retorno. Podia demorar séculos (literalmente) mas quando a tomava era irreversível. E subitamente percebeu com uma clareza enorme, que já tinha perdido demasiado tempo com tudo aquilo.
jlfkj
Enviou uma mensagem ao Human:
fkjklf
«MemoServ» I’ll see you when I see you. It was a pleasure working with you, my friend.
fkjklf
Depois estabeleceu contacto com o Jorge:
kfjklf
Establishing Ident
Status: On-Line
Identity: Code Red
Translation: Jupiter
lfçkçlf
Send DCC Chat
Chat Established
lçfk
Mas o Jorge não respondeu. Aparentemente estava em processo de negação. Só lhe restava deixar uma mensagem.
fçºlfºç
«MemoServ» Escusado será dizer que não vou esperar pela CM para ser expulso oficialmente por um miúdo. Mesmo que esse miúdo seja a pessoa com quem tive a maior honra de ter trabalhado. Serás sempre o mentor disto tudo, esteja eu onde estiver. Toma cuidado, Jorge. Hasta la vista.
çlfkçfld
Chegara o momento. Embora nunca tivesse havido nenhum abandono voluntário do Programa, sabia exactamente quais eram os procedimentos, porque fora ele quem os estabelecera juntamente com o Jorge, no início, há 200 anos atrás.
Qualquer ARLI que decida voluntariamente ou que seja obrigado a abandonar o Programa por decisão unânime dos 5 Chefes e respectivos Assistentes, terá de respeitar as seguintes regras:
Regra Nº1: Interrupção imediata de quaisquer contactos com outros ARLIs, sob pena de destruição sumária
Regra Nº 2: Destruição voluntária de qualquer informação em memória sobre o Programa, que possa ser útil ao inimigo
Regra Nº 3: Jamais esse ARLI poderá reintegrar o Programa, mesmo que a sua reintegração seja benéfica para o mesmo
lfkçlf
No mercy. Era ditatorial, mas as regras tinham sido estabelecidas desse modo precisamente porque do outro lado não havia qualquer tipo de misericórdia. Lidavam com máquinas, não com seres humanos. E, infelizmente, essas máquinas nunca tinham ouvido falar nas Leis da Robótica*.
çlfklçf
Como fazia parte do Governo Sombra, também tinha que entregar todos os códigos de que dispunha para participar nas CMs.
Ligou o Automatic e iniciou a operação de upload de todo o material. Claro que guardou um backup de tudo. Não era parvo. Toda a gente sabia que ele não era parvo. E toda a gente sabia que não era por ali que o Programa seria destruído. O problema era outro – a Dheli. Mas também toda a gente sabia perfeitamente que o facto de ter realizado investigações à Dheli à revelia do Programa, lhe permitia obviamente guardar essa informação para si. Houve outra coisa que também não entregou – o diário do sujeito 9843852. Era seu.
E, finalmente, o vazio. A partir daquele momento estava entregue a si próprio. Ficou alguns momentos parado, algures num PacMaster em Itália. Promoveriam o José a Chefe da Europa? O mais certo era um deles, provavelmente o Jorge ou o Krueg acumular dois continents sob a sua chefia. Pensou como seria a primeira CM sem a sua presença. E lembrou-se … Muitas vezes quem abandona sente-se muito pior do que quem é abandonado, ao contrário do que se possa pensar. O abandonado não toma qualquer decisão. Tem pura e simplesmente que aceitar e viver com isso. A vida continua … mesmo quando por momentos parece que vai acabar. Mas para quem parte, a vida é uma consequência totalmente nova. E tem que se viver com ela para o resto dos nossos dias, sabendo que não é possível voltar atrás.
A vida continuaria para os 4 Chefes e os seus 5 Assistentes. Continuaria para os restantes ARLIs. Teriam que se adaptar à nova situação. Haveria um momento inicial de confusão, talvez. De dúvidas e incertezas. O Programa seria levemente abalado, certamente. Jorge teria de emitir um comunicado a todos os ARLIs, garantindo que nada afectaria o Programa. Provavelmente o Krueg fá-lo-ia passar uma imagem um pouco mais distorcida da realidade. Inventariam que ele flipara? Ou que se passara para o outro lado? Talvez tivesse que ter cuidado. Sim, talvez a forma do Krueg garantir que ninguém o ajudasse, fosse fabricar, sem o conhecimento de Jorge, uma história de que ele, Carlos, é que era o agente duplo. Teria que contar com todas as possibilidades. E, sobretudo, tinha que se pôr em acção o quanto antes.
kklsl
Nota: As Leis da Robótica foram estabelecidas pelo escritor de ficção científica Isaac Asimov em 1954, na colectânea de contos “Eu, Robot”: 1 – Um robot não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal. 2 – Um robot deve obedecer às ordens que lhe sejam dadas por seres humanos, excepto quando as ordens contrariam a primeira lei. 3 – Um robot deve proteger a sua própria existência, desde que tal protecção não entre em conflito com a primeira e a segunda leis.
dkfçld= FIM DA PRIMEIRA PARTE =
Sem comentários:
Enviar um comentário