“Tudo desde sempre. Nunca outra coisa. Nunca ter tentado.
Nunca ter falhado. Não importa. Tentar outra vez. Falhar outra vez.
Falhar melhor.” Samuel Beckett
As vulnerabilidades de que somos feitos são camadas, não são rótulos que se colam à pele. Às vezes temos mais, outras vezes menos, mas há sempre fragilidades várias que habitam a nossa humanitude, começando pela mortalidade transversal a todos os seres vivos. Em nós, a mortalidade faz-se presente pela nossa consciência: sabemos o que somos, quem somos (?), onde estamos, para onde caminhamos e que o caminho tem um fim. Nascemos com as nossas idiossincrasias e vamos todos morrer, um dia.
Habitamos um corpo e somos corpo, frágeis, inscritos no tempo e no espaço, capazes de pensar, agir, deliberar e decidir. Arrependemo-nos de más decisões, que cortaram caminhos impossíveis de resgatar, sem a possibilidade de varrer a estrada às avessas, como acontece no romance de Mia Couto «Jesusalém» (1), no qual Mwanito, o seu irmão Ntunzi e o serviçal Zakaria Kalash varrem os atalhos às avessas: em vez de limpar os caminhos, espalham sobre eles poeiras, galhos, pedras, sementes, impedindo que tais atalhos se transformem em estradas. E assim anulam o embrião de um qualquer destino. (p. 39)
Assumimos ou descartamos a responsabilidade pelo que decidimos e fazemos; aprendemos a desenvolver a nossa autonomia e a fazer uso dela ao longo da vida, acometidos por falhas morais, resíduos tóxicos, sementes de burn-out na sociedade do cansaço (Byung Chul-Hahn).
Somos seres únicos, singulares, imperfeitos, num mundo de informação, de tecnologia replicável e capaz de resolver pontos de interrogação, equações, problemas e dilemas através das correlações entre biliões e biliões de dados. Assoberbados com o que é possível fazer, sem tempo para pensar sobre se o devemos fazer, caminhamos como Philippe Petit num fino arame farpado entre arranha céus, confrontados com a nossa essência: „the high wire is an art of solitude, a way of coming to grips with one’s life in the darkest, most secret corner of the self“(2); caminhamos entre o mundo real, vulnerável, sujeito a falhas, mortal, e o mundo virtual, tendencialmente invulnerado e invulnerável e com grande potencialidade de ser imune a falhas. Espaço aberto a melhores versões 4.0 de cada um de nós, encapsulado em camadas de informação sobre camadas de informação, a uma distância cada vez maior do centro de nós mesmos: quem somos, afinal?
Os algoritmos, capazes de ler (big) data num espaço de tempo (muito) curto e produzir resultados eficazes no campo da ciência, da saúde, da tecnologia que nos habita e com a qual convivemos diariamente, podem fazer desaparecer duas dimensões presentes no texto que escrevi até agora: a via longa da reflexão e do pensamento crítico (sem a qual as intertextualidades acima inscritas neste meu texto não seriam as mesmas) e a autenticidade do Eu que se forma na relação com o Outro.
Ter consciência do risco associado à perda destas duas dimensões deverá permitir-nos enquadrar o pensamento ético sobre a Inteligência Artificial (IA) numa perspetiva diferente daquela que tem servido a ética das tecnologias: em vez de uma ética aplicada como um conjunto de conhecimentos técnicos para evitar falhas apesar dos fatores humanos e garantir a preservação da Privacidade, da Segurança e da Justiça, seria importante resgatar um outro sentido da ética.
Vale a pena ler, parar, reler e refletir sobre o artigo de Boenig-Liptsin “Aiming at the good life in the datafied world: A co-productionist framework of ethics”, no qual é apresentada uma proposta de aplicação da abordagem da ética relacional no contexto da computação e da ciência dos dados, convidando-nos a analisar o modo como estas tecnologias medeiam e reconfiguram a relação entre o Eu e o Outro (3). A pergunta que devemos fazer não é apenas se podemos remediar consequências negativas para a nossa sociedade e para o indivíduo através da Ética (ou seja, se podemos falhar menos na minimização do Mal); a pergunta será também e sobretudo que Bem procuramos realizar através da tecnologia dos dados e da computação, tendo em conta o que nos define como Pessoa: identidade co-construída na relação com o Outro e com o nosso próprio Eu.
A análise ética da IA permitirá assim pensar sobre o modo com os algoritmos modelam a relação entre cada um e os outros seres humanos; revisitar a noção de normalidade, de bem e de mal, prevendo o modo como estes conceitos são espelhados pelos sistemas de IA. Em vez de focarmos a nossa análise ética sobre o funcionamento das tecnologias, será importante que atentemos sobre o processo dinâmico da ação ética em contextos tecnológicos: como preservamos a confiança entre o médico e o doente num contexto de cuidados de saúde mediados por IA? Como promovemos o pensamento crítico no contexto pedagógico mediado pelo ChatGPT e, eventualmente, por laboratórios de realidade virtual nas escolas e nas universidades? O Bem a que podemos aspirar através da aplicação destas tecnologias implica o desenvolvimento da identidade de cada um dos envolvidos e não apenas um escudo protetor contra falhas de privacidade, segurança ou justiça. A tecnologia que permite realizarmo-nos como pessoas, com os outros e para os outros, em instituições justas (parafraseando a definição de ética de Paul Ricoeur) é a tecnologia que não nos impede de regressarmos sempre ao nosso Eu, com as nossas fragilidades, vulnerabilidades, falhas. Pensar a ética da tecnologia neste enquadramento mais lato da relação entre o Eu e o Outro e entre estes dois e a comunidade onde estão inseridos permite-nos compreender que o Bem não reside na eliminação da Falha, mas sim no modo como aprendemos a integrá-la na nossa vida de relação: tentamos outra vez, falhamos outra vez, falhamos melhor, preservando a nossa essência humana, cujo sentido será sempre co-construído.
Notas:
(1) Mia Couto. (2009). Jesusalém. Editorial Caminho.
(2) Philippe Petit. (2019). On the High Wire (trans. by Paul Auster). Orion Publishing Co.
(3) Convido os leitores a lerem o texto que se segue escrito pelo ChatGPT 3.5 (em menos de um minuto) sobre o tópico Inteligência Artificial e Falhas:
“A ascensão da inteligência artificial (IA) trouxe consigo uma promessa notável de avanços tecnológicos e transformações em diversas esferas da sociedade. No entanto, é crucial reconhecer que, mesmo diante de todo seu potencial, a IA não está isenta de falhas. A interação complexa entre algoritmos, dados e o ambiente no qual operam pode resultar em consequências inesperadas e, por vezes, prejudiciais.
A natureza da IA envolve a aprendizagem a partir de dados e a adaptação a padrões identificados. No entanto, quando essa adaptação ocorre em um ambiente dinâmico e em constante mudança, a IA pode encontrar situações não previstas ou mal compreendidas pelos seus algoritmos. Essas falhas podem variar desde decisões incorretas em sistemas autônomos até preconceitos indesejados em algoritmos de tomada de decisão.
Um dos desafios enfrentados pela IA é a sua dependência dos dados de treinamento. Se esses dados contiverem preconceitos ou se não forem representativos o suficiente, a IA pode perpetuar e até amplificar essas disparidades. Isso é particularmente preocupante quando a IA é aplicada em áreas sensíveis, como saúde, justiça criminal e recursos humanos, onde a equidade e a imparcialidade são essenciais.
Outro aspecto crítico é a falta de compreensão completa dos processos internos de alguns modelos de IA. Em muitos casos, os algoritmos de aprendizado profundo operam como "caixas-pretas", tornando-se desafiador entender como determinadas decisões são alcançadas. Isso dificulta a identificação e a correção de falhas quando surgem, comprometendo a transparência e a responsabilidade.
Diante dessas questões, torna-se imperativo desenvolver estratégias robustas para mitigar falhas na IA. Isso inclui a implementação de práticas éticas desde a concepção até a implementação dos sistemas, a realização de auditorias regulares para avaliar a equidade e a segurança dos algoritmos, e a promoção de uma abordagem interdisciplinar que envolva especialistas em ética, sociologia e direito.
A inteligência artificial é uma ferramenta poderosa, mas sua aplicação responsável requer uma abordagem cuidadosa e constante. A compreensão de que falhas podem ocorrer e a disposição para corrigi-las são passos fundamentais para garantir que a IA contribua positivamente para a sociedade, respeitando princípios éticos e promovendo a confiança do público.”Top of Form
(4) Boenig-Liptsin, M. (2022). Aiming at the good life in the datafied world: A co-productionist framework of ethics. Big Data & Society, 9(2). https://doi.org/10.1177/20539517221139782, p. 3.
(5) Paul Ricoeur. (1992). Oneself as Another. Chicago: University of Chicago Press, p. 172.