Como conversar com adolescentes sobre desenvolvimento e uso desta tecnologia revolucionária.
(esse texto foi escrito 100% por um humano chamado Marcelo Michelsohn em 28 de agosto de 2023)
Este texto traz algumas reflexões sobre Inteligência Artificial (IA) que pretendo discutir com crianças e adolescentes. Primeiro eu conto um pouco sobre a comunidade de aprendizagem chamada Kubrio, depois falo um pouco sobre a diferença entre moral e ética e sobre a minha perspectiva ética, em consonância com Espinosa. Após isso, explico porque 2023 é um marco para a IA e falo sobre as três dinâmicas que surgem com a criação de novas tecnologias (Responsabilidades que não existiam antes, Corrida para vencer a guerra e ser o líder, Necessidade de coordenação para evitar desastre). Então trago três dimensões da IA: desenvolvimento e disponibilização dos Large Language Models (LLMs) como ChatGPT, criação de apps que usam os LLMs e utilização destes apps. Termino com algumas questões que pretendo discutir com as crianças e adolescente.
Espero que essas reflexões sejam úteis para pais, educadores e estudantes que estão começando a lidar com as consequências da IA. Estou aberto para ouvir seus comentários, perguntas e para facilitar conversas em empresas, escolas ou grupos de pais. Basta escrever para marcelo@marcelomichelsohn.com.
O que é o Kubrio?
Meu filho de 12 anos participa de uma comunidade de aprendizado internacional chamada Kubrio. Lá, eles aprendem tópicos como Animação, Programação, Debate, Produção de Cinema, História Mundial entre outras coisas. Parte da aprendizagem é baseada em desafios. Estudantes, pais e tutores têm acesso a uma ferramenta que usa Inteligência Artificial para criar os desafios que ficam acessíveis para toda a comunidade de aprendizado. Na medida em que resolvem os desafios, as crianças e adolescentes aprendem e ganham pontos de experiência que servem para que a comunidade visualize quais as áreas de maior interesse e expertise deles.
Além dos desafios, os aprendizes participam de encontros diários de 30 minutos com sua turma e um tutor. As turmas têm, no máximo, 7 participantes e servem para cada um dizer o que está planejando para o dia, se estão com alguma dificuldade, se precisam de ajuda para decidir o que querem aprender. Além disso, eles usam este tempo para conversar, jogar, resolver quizzes entre outras coisas.
Os participantes que querem se especializar em algo podem pagar um valor extra para ter aulas específicas de uma ou duas horas por semana, incluindo o acompanhamento por um profissional da área escolhida: programação, design, música, história, literatura, matemática, etc. Uma das especializações é em Inteligência Artificial e é oferecida pelo fundador e CEO do Kubrio, o Vlad Stan que me pediu para facilitar uma discussão mensal sobre AI e Ética com os estudantes.
Ética? Que Ética?
Antes de entrar no tema da Inteligência Artificial acho importante definir melhor o que eu entendo por ética.
A primeira distinção que a maioria das pessoas faz é entre Ética e Moral, na qual moral se refere à capacidade de seguir regras externas criadas por instituições como religiões ou estados, enquanto ética seria a capacidade de fazer o que é correto, baseado em valores internos. A pessoa moral não rouba pois há um mandamento religioso que proíbe esta prática e a consequência de descumprir esse mandamento é ir para um lugar muito ruim. A pessoa Ética parte de uma referência pessoal: eu não gostaria que me roubassem, portanto acredito que outros não querem ser roubados, então independente de uma regra ou punição externa ela decide não roubar.
No entanto, gostaria de oferecer uma outra forma de pensar a Ética, baseada no filósofo Espinosa. Para ele, uma vida Ética não é aquela que escolhe o certo ao invés do errado, ou bem ao invés do mal, independente da pessoa escolher agir a partir de regras extrínsecas ou intrínsecas a ela. Espinosa vai propor (e aqui estou simplificando bastante) que o ser Ético é aquele que age de forma a aumentar sua potência e consequentemente a de todos a sua volta. Potência é diferente de poder. Quem busca poder, são pessoas que já se sentem impotentes e querem dominar os outros. O ser Ético segundo Espinosa não quer dominar ninguém, quer apenas aumentar sua capacidade de afetar e ser afetado, quer aumentar sua capacidade de agir, pensar e desejar.
É a partir desta Ética que pretendo conversar com os estudantes do Kubrio sobre o uso da Inteligência Artificial.
Inteligência Artificial
O ano de 2023 será um grande marco da Inteligência Artificial por conta do lançamento ChatGPT e especialmente do seu modelo mais sofisticado, o GPT-4, um chatbot criado pela OpenAI.
O ChatGPT gratuito utiliza a versão 3.5, enquanto o GPT-4 é pago e custa aproximadamente R$110 (cento e dez reais) por mês. A versão gratuita foi treinada com 175 bilhões de parâmetros, enquanto a versão paga usou 100 trilhões e isso fez uma diferença brutal. Por exemplo, o GPT 3.5 não conseguia passar nos exames da ordem de advogados dos EUA, ficando entre os piores alunos. Já o GPT 4 consegue passar com notas melhores que 90% dos humanos. O importante aqui é entender que o GPT 4 não foi treinado para passar no exame da ordem. O fato dele ter sido treinado com mais parâmetros fez com que ele melhorasse incrivelmente.
É importante saber que antes de 2017, o campo da IA era disperso, com cada grupo trabalhando em coisas específicas como robótica, textos, imagens, sons, etc. Então, o campo foi unificado devido a compreensão de que tudo poderia ser visto como linguagem e ser treinado como Modelos Grandes de Linguagem ou Large Language Models em inglês. O treinamento, de forma simplificada, consiste e retirar elementos de uma frase e deixar o sistema adivinhar a palavra mais provável. Por exemplo, damos a frase “Bom ____, tudo bem?” e o sistema vai buscar em toda sua base de dados, qual a palavra mais provável de encaixar no espaço em branco. Esse exemplo é bem simples, mas imagine o IA treinando isso bom trilhões de parâmetros, várias e várias vezes. Isso vale também para imagens. É dada uma imagem com alguns pixels faltando, e o modelo deve prever qual o pixel mais provável de ir naquele lugar. E então, como tudo virou linguagem, agora é possível escrever uma frase pedindo para uma IA como Midjourney ou DALL-E criarem uma imagem, ou jogar uma imagem e pedir uma descrição da mesma.
O mundo não é mais o mesmo depois de 2023 e enquanto a possibilidade de previsão da IA aumenta, a possibilidade humana de prever o que vai acontecer com nossa sociedade nos próximos anos, diminuiu significativamente.
Três dinâmicas que ocorrem quando uma nova tecnologia é lançada:
Uma nova classe de responsabilidades é criada:
Por exemplo, antes da criação de câmeras baratas não havia a necessidade de se criar leis de privacidade de imagem. Quais novas classes de responsabilidade essas novas tecnologias baseadas em IA criarão e como podemos nos antecipar a elas?
Se essa tecnologia confere poder a alguém, ela inicia uma corrida, como as corridas armamentistas:
No caso das Redes Sociais, as empresas entraram em uma corrida para gerar engajamento. Quando uma inventou o botão de like, as outras correram para usar. Quando o TikTok apareceu com os videos, o Instagram correu atrás e lançou o Reels, enquanto o Youtube lançou os Shorts. Tudo para prender a atenção, sem se preocuparem com os riscos aos usuários. Mas se uma empresa não faz, as outras pulam na frente e deixam a outra obsoleta. Isso é uma dinâmica sistêmica chamada Race to the Bottom.
Se não há coordenação, a corrida leva a uma tragédia:
Durante a guerra fria houve uma corrida armamentista feroz especialmente relacionada a armas nucleares. Para evitar uma tragédia, foram criados instituições de coordenação como a ONU e tratados nucleares e isso nos manteve vivos até o momento. Mas como fazer isso para IA que é muito mais fácil de difundir e utilizar do que armas nucleares?
Se parece difícil criar leis para as empresas que desenvolvem os LLMs como Google, Meta, OpenAI, etc, imagine o pesadelo que seria tentar coordenar com as milhares de empresas de softwares que estão usando os LLMs para criarem os seus próprios apps?
Nesta segunda camada, os estudantes do Kubrio tem responsabilidade pois alguns já estão pensando em programar seus próprios apps utilizando IA. E, portanto, as questões Éticas são de extrema importância: Esse app vai ser bom para a Vida como um todo? Vai aumentar a potência de todos que entrarem em contato com este app, lembrando que potência não é poder pois não visa dominar ninguém, nem nada?
Três Dimensões Éticas da Inteligência Artificial
Em ordem de importância, as 3 dimensões são: Desenvolvimento e Disponibilização de LLMs, Desenvolvimento de Aplicativos Que Usam LLMs e Uso destes Aplicativos
Desenvolvimento e Disponibilização de LLMs
Se você estivesse na fila para entrar em um avião e antes de embarcar recebesse o seguinte aviso: Metade dos maiores pesquisadores e engenheiros aeronáuticos analisaram esse avião no qual você vai embarcar e acreditam que há 10% de chance dele cair, matando todo mundo a bordo. Você embarcaria?
Eu com certeza não. Tristan Harris e Aza Raskin, os criadores do documentário O Dilema das Redes (Netflix) criaram uma apresentação sobre IA onde falam que metade dos pesquisadores da área acreditam que há 10% de chance da IA levar a aniquilação da raça humana. Veja a apresentação aqui: The A.I. Dilemma - March 9, 2023
Grandes nomes da IA mundial pediram para que haja uma pausa de 6 meses na disponibilização de novos LLMs para o público para que haja tempo de entender os perigos dessa nova ferramenta e o que fazer para minimizar seus riscos.
Essa é a dimensão ética mais importante para discutirmos IA porém é a que está mais longe do nosso alcance de atuação, a não ser que você seja o dono da OpenAI, da Microsoft, do Google ou da Meta.
Desenvolvimento de Aplicativos Que Usam LLMs
Com o lançamento do ChatGPT, houve uma corrida para outras empresas disponibilizarem não apenas seus LLMs em formato de chatbots, mas também APis para que desenvolvedores pudessem criar aplicativos que usassem a capacidade desses modelos.
Estamos vivendo uma explosão de aplicativos maior do que durante o nascimento dos Smartphones. São dezenas de aplicativos criados e lançados todos os dias com diversos tipos de aplicação. Já existem dezenas, se não centenas de diretórios tentando organizar os aplicativos de IA lançados, como o https://opentools.ai/ , por exemplo, que só hoje recebeu mais 34 apps em sua base de dados.
Há apps que criam músicas a partir de um prompt criado por você. É claro que não é uma música tão boa quanto a criada por um artista, porém é muito melhor do que o que a maioria das pessoas que não estudaram música, conseguem fazer.
É possível criar sites inteiros oferecendo algumas frases para a IA. É possível enviar áudios com a sua voz e treinar uma IA para ler textos com a sua voz. E isso é só o começo.
Uso destes Aplicativos
Essa é a dimensão que está mais perto de nós pois de uma forma ou de outra todos já somos usuários de IA.
Por exemplo, já é possível simular a voz de uma pessoa utilizando alguns segundos de uma gravação que você tenha dela e um aplicativo de IA. O aplicativo pergunta se você tem direito de usar essa voz. Basta clicar que sim, como todo mundo faz com os termos de uso de todos os apps e sair usando. Não existe e não será possível criar formas de controle do mal uso deste tipo de tecnologia. Já há noticias de tentativas de extorsão ocorrendo com base neste tipo de aplicativo. Que mãe ou pai não ficarão assustados ao ouvir a voz da filha ou filho pedindo dinheiro rápido pois está numa emergência?
É possível usar o chatgpt para fazer as lições de casa. Com o gpt 3.5 ainda era possível saber que era um texto de IA, porém com o gpt-4 e a melhoria dos prompts é impossível detectar que o texto foi feito por IA. A própria OpenAI desistiu de criar um sistema de detecção de IA para sua própria IA pois disse ser impossível.
Usar o chatgpt para criar sua lição de casa sem que você precise pensar no que está fazendo não me parece que aumenta sua potência. Mas também entendo que a forma de educação tradicional que pede um texto sobre as capitanias hereditárias sem contextualização alguma também não é potencializadora.
Reflexões Provisórias
Acredito que veremos uma tentativa de legislar a primeira dimensão da IA, as grandes empresas de LLMs. Elas mesmas estão pedindo para serem legisladas pois sozinhas não podem, por lei, interromperem seus processos de desenvolvimento, já que elas são obrigadas pelo sistema capitalista a oferecerem o maior retorno possível aos seus acionistas.
A segunda e a terceira dimensões são terra de ninguém. Vale tudo. É uma corrida louca para ver quem vai criar os apps mais lucrativos usando LLMs na segunda dimensão. E um uso desenfreado desses apps visando a comodidade e a facilitação da vida, pelos usuários.
Já estamos muito distraídos com as Redes Sociais que passaram os últimos 15 anos lutando para nos manter colados nas telas através da suas estratégias de engajamento. E agora, a Inteligência Artificial vem com tudo para criar intimidade conosco. Precisaremos de muita força para interrompermos essas distrações para entrarmos em contato com nossos corpos, mentes e desejos e nos perguntar: isso aumenta ou diminui minha capacidade de ser afetado e de afetar? Isso me distrai de mim ou me reconecta comigo? Isso me diferencia ou me padroniza?
Essas são algumas das questões éticas que precisaremos acessar neste encontro com a Inteligência Artificial, pois ela não é capaz de fazer essas questões nem para nós, nem para ela própria.
댓글