O A a Z da Inteligência Artificial
LarLar > blog > O A a Z da Inteligência Artificial

O A a Z da Inteligência Artificial

Jan 17, 2024

À medida que a inteligência artificial se torna uma parte cada vez maior do nosso mundo, é fácil perder-se no seu mar de jargões. Mas nunca foi tão importante orientar-se como hoje.

A IA está preparada para ter um grande impacto no mercado de trabalho nos próximos anos (ver: Automação). As discussões sobre como geri-lo estão a desempenhar um papel mais importante na nossa conversa política (ver: Regulamentação). E alguns de seus conceitos mais cruciais são coisas que você não aprendeu na escola (veja: Pressão Competitiva).

Tentar se atualizar pode ser difícil. A pesquisa em IA é complicada e grande parte da linguagem é nova até mesmo para os próprios pesquisadores. Mas não há razão para que o público não consiga lidar com as grandes questões em jogo, como aprendemos a fazer com as alterações climáticas e a Internet. Para ajudar todos a envolverem-se mais plenamente no debate sobre IA, a TIME elaborou um prático glossário da sua terminologia mais comum.

Quer você seja um iniciante ou já conheça seus AGIs de seus GPTs, este A a Z foi projetado para ser um recurso público para todos que lutam com o poder, a promessa e os perigos da inteligência artificial.

AGI significa Inteligência Geral Artificial – uma tecnologia hipotética do futuro que pode realizar as tarefas economicamente mais produtivas de forma mais eficaz do que um ser humano. Tal tecnologia também poderá ser capaz de revelar novas descobertas científicas, acreditam os seus proponentes. Os pesquisadores tendem a discordar sobre se a AGI é mesmo possível ou, se for, a que distância ela permanece. Mas a OpenAI e a DeepMind – as duas principais organizações de pesquisa em IA do mundo – estão expressamente comprometidas com a construção da AGI. Alguns críticos dizem que AGI é pouco mais que um termo de marketing. (Veja: Hype.)

O “problema de alinhamento” é um dos mais profundos desafios de segurança a longo prazo na IA. A IA de hoje não é capaz de dominar os seus designers. Mas um dia, esperam muitos pesquisadores, poderá ser. Nesse mundo, as formas actuais de treinar IAs podem resultar em danos à humanidade, seja na prossecução de objectivos arbitrários, seja como parte de uma estratégia explícita para procurar o poder às nossas custas. Para reduzir o risco, alguns investigadores estão a trabalhar no “alinhamento” da IA ​​com os valores humanos. Mas este problema é difícil, não resolvido e nem mesmo totalmente compreendido. Muitos críticos dizem que o trabalho para resolvê-lo está ficando em segundo plano, à medida que os incentivos comerciais atraem os principais laboratórios de IA a direcionar o foco e o poder computacional para tornar suas IAs mais capazes. (Veja: Pressão competitiva.)

Automação é o processo histórico de substituição ou assistência do trabalho humano por máquinas. As novas tecnologias – ou melhor, as pessoas responsáveis ​​pela sua implementação – já substituíram muitos trabalhadores humanos por máquinas que não exigem salário, desde trabalhadores na linha de montagem de automóveis até balconistas de mercearias. A última geração de avanços em IA pode fazer com que muito mais trabalhadores de colarinho branco percam seus empregos, de acordo com um artigo recente da OpenAI e uma pesquisa da Goldman Sachs. Quase um quinto dos trabalhadores dos EUA poderia ter mais de metade das suas tarefas diárias de trabalho automatizadas por um grande modelo de linguagem, previram os investigadores da OpenAI. Globalmente, 300 milhões de empregos poderão ser automatizados na próxima década, prevêem os investigadores da Goldman Sachs. Se os ganhos de produtividade resultantes desta convulsão conduzirão a um crescimento económico generalizado ou simplesmente a um novo aumento da desigualdade de riqueza, dependerá da forma como a IA é tributada e regulamentada. (Ver: Regulamento.)

Os sistemas de aprendizagem automática são descritos como “tendenciosos” quando as decisões que tomam são consistentemente preconceituosas ou discriminatórias. Descobriu-se que o software de sentenças aumentadas por IA recomenda penas de prisão mais altas para infratores negros em comparação com os brancos, mesmo para crimes iguais. E alguns softwares de reconhecimento facial funcionam melhor para rostos brancos do que para negros. Estas falhas acontecem frequentemente porque os dados sobre os quais esses sistemas foram treinados refletem as desigualdades sociais. (Ver: Dados.) As IA modernas são essencialmente replicadores de padrões: ingerem grandes quantidades de dados através de uma rede neural, que aprende a detectar padrões nesses dados. (Veja: Rede Neural). Se houver mais rostos brancos do que negros num conjunto de dados de reconhecimento facial, ou se os dados de sentenças anteriores indicarem que os infratores negros são condenados a penas de prisão mais longas do que os brancos, então os sistemas de aprendizagem automática podem aprender as lições erradas e começar a automatizar essas injustiças.