Por que Precisamos Urgentemente de Sistemas de Controle de IA

Uma abordagem perpendicular ao alarmismo sobre IGA (Inteligência Geral Artificial)

Cassie Kozyrkov
5 min readMay 22, 2024

Traduzido por Andre Belem do original de Cassie Kozyrkov.

Abordar a questão dos sistemas de controle de IA a partir da perspectiva do medo é sensacionalismo. Falar sobre “mais inteligentes do que nós” sem definir “inteligentes” é sensacionalismo. As máquinas têm uma memória melhor do que a nossa e podem operar em uma escala surpreendente. Já. Hoje.

E a tecnologia está se tornando mais complexa rapidamente.

Então, que tal abordarmos a questão do controle a partir da perspectiva de como tornar a tecnologia complexa útil e quem deve estar qualificado para orientá-la?

Os sistemas de controle que precisamos ajudariam com a IGA (um dia), mas isso é um subproduto. Há uma razão muito melhor para construí-los.

Imagem de IA criada pela autora.

Contexto

Recentemente, as redes sociais de tecnologia explodiram com uma discussão sobre se precisamos de sistemas de controle de IA (ou como você queira chamá-los). De novo.

As opiniões sensacionalistas podem ser aproximadamente resumidas como:

“É melhor fazermos algo urgentemente para que a IGA não nos supere!

versus

“A IA ainda é bastante burra, relaxe.”

Gostaria de oferecer uma perspectiva perpendicular. (Na qual nós relaxamos e construímos algo.)

Uma Palavra para a “Patrulha da Linguagem”

Alerta de Semântica! Antes de prosseguir, vamos reconhecer que é muito fácil ficar preso nas semânticas. Vou definir como estou usando meus termos e espero que você tenha paciência comigo. Sistema de controle não é exatamente a palavra que precisamos, mas você entenderá a essência do meu ponto. Se você é realmente um purista, aproveite este glossário que fiz para torturá-lo: 57 termos todos relacionados ao conceito neste post do blog. Em termos de cores, estou falando sobre a necessidade de aproximadamente 50–50 das cores frias naquela lista codificada por cores.

Uma Perspectiva Perpendicular

Precisamos de sistemas projetados para ajudar a direcionar tecnologias complexas (IA e feitas pelo homem) de uma maneira que seja útil, segura e eficaz… e que não exija que as pessoas que lideram e executam projetos tenham diplomas de pós-graduação em IA ou em campos adjacentes à IA.

A tecnologia está se tornando mais complexa rapidamente.

Então, quando eu digo sistemas de controle neste post, aqui está o que quero dizer: uma maneira de direcionar efetivamente coisas complexas em um mundo que está se tornando cada vez mais complexo. Ferramentas do lado do usuário que lhes dêem a capacidade cognitiva para entender qualquer complexidade que surja.

O fato de que elas ajudariam com a IGA (um dia) é um subproduto. Há muitas outras coisas que precisam de direcionamento e parece que coletivamente esquecemos que não há dirigir isso.

Parece que coletivamente esquecemos que não há como dirigir isso.

Não deveríamos nos envergonhar de construir sistemas que já são de grande alcance por natureza sem também construir as ferramentas que permitem que eles sejam moldados e direcionados pelas pessoas mais qualificadas para liderar e pelos especialistas mais qualificados para entender as nuances do contexto em que os estamos lançando? A liderança aplicada em IA não deveria exigir um diploma de pós-graduação em um campo adjacente à IA. Certamente isso é um sinal de que nossas ferramentas de controle ainda não são boas o suficiente. Certamente deveríamos nos envergonhar de não termos eliminado a barreira entre o técnico e o não técnico ainda. Claramente precisamos de melhores ferramentas para formar um sistema de controle sólido. Um sistema que garanta que a tecnologia ofereça o que os responsáveis realmente queriam, não o que eles disseram que queriam, enquanto também representa as leis e necessidades da sociedade.

Ferramentas, Não Conversa

Hoje, muitas das soluções são baseadas em conversa — política, educação, diretrizes. Precisamos de ferramentas que nos tornem melhores para que possamos direcionar a IA de forma responsável, independentemente da educação.

Você já notou que as pessoas responsáveis nunca são o “humano no loop”? Há um loop no qual elas precisam estar… e não estão.

E eu não vejo um sistema de controle que permita a um executivo sênior padrão (não técnico, mas com conhecimento do domínio) participar bem no design, desenvolvimento e teste de IA. Para obter sua perspectiva sobre as necessidades, preferências, prioridades e tolerâncias ao risco de sua organização representadas e executadas de forma eficaz. Francamente, não vejo muitas soluções nem mesmo para testar sistemas complexos, então não é de se admirar que todas essas tentativas de “GenAI, ou Inteligência Artificial Generativa, em escala empresarial sem um humano no loop” continuem morrendo, não com um estrondo, mas com um gemido. Como vamos confiar em algo importante se não podemos testá-lo?

Como vamos confiar na IA com algo importante se não temos a capacidade de testá-la?

Acredito que o caminho para a liderança no mundo de amanhã não deve exigir uma formação em STEM (ou seja, formação em Ciência, Tecnologia, Engenharia e Matemática). Deve, sim, exigir uma formação em liderança e as ferramentas certas para que esses líderes construam/comprem a tecnologia de que precisam e a controlem para que funcione conforme eles precisam. Eu chamo isso de sistema de controle. E ainda não temos um.

Não está na hora de construirmos um?

Deixe-me saber o que você pensa nos comentários do LinkedIn aqui.

Notas de rodapé

* E estou bem ciente de que esse não é o significado formal de sistema de controle de IA, que você pode encontrar neste glossário que fiz para você. Então, talvez devêssemos chamá-lo de inteligência de decisão (definida como “transformar informações em ações melhores em qualquer escala e em qualquer ambiente”) já que o sistema de controle ao qual me refiro seria voltado para aumentar as habilidades do tomador de decisão e de sua organização para direcionar a IA de forma responsável. Mas, como a explosão nas redes sociais o chama de sistemas de controle, vou manter esse termo por enquanto. Sei que você entende o que quero dizer.

** Para colocar de outra forma, imagine um carro de ficção científica que vai à velocidade da luz. Se você tentasse dirigi-lo, provavelmente morreria. Então, quais são as opções (de ficção científica) para mantê-lo seguro?

Opção ruim 1 (Regulamentação): Simplificar o carro para que todos possam dirigi-lo. Proibir que ele atinja a velocidade da luz.

Opção ruim 2 (Software, Lado do Produto): Permitir que o fabricante do carro tenha dados sobre sua biologia, seus reflexos e outros dados sensíveis para que eles possam personalizar o carro para você, permitindo que ele funcione com você de forma segura. Essa é uma opção ruim, pois os incentivos do fabricante não são os seus incentivos. Você não quer que eles tenham esses dados, confie em mim.

Opção melhor 3 (Software, Lado do Usuário): Usar ferramentas de aprimoramento que lhe deem as capacidades necessárias para dirigir o carro. Uma “super armadura” pessoal, se preferir. Seus dados são compartilhados apenas com um sistema que é pessoal para você e representa seus melhores interesses, onde o incentivo é uma assinatura para melhorar você, não vender o máximo de carros possível.

***Glossário: Sistemas de Controle de IA

Imagem de IA criada pelo autor.

Obrigado por ler!

Interessado em aprender inteligência de decisão comigo? Aqui está um link para o meu curso gratuito: https://bit.ly/decisioncourse

Aprenda mais sobre ciência de dados e inteligência artificial em português.

--

--

Cassie Kozyrkov

Head of Decision Intelligence, Google. Hello (multilingual) world! This account is for translated versions of my English language articles. twitter.com/quaesita