INTELIGÊNCIA ARTIFICIAL
As ferramentas de inteligência artificial ainda não são tão confiáveis quanto o software convencional e não há padrão ou certificação. Este é um problema para aplicativos críticos.
A inteligência artificial está a chegar em todos os sectores. Cidades ou aeroportos estão equipados com ferramentas de reconhecimento facial. Os assistentes baseados no reconhecimento de voz são instalados em nossos telefones e residências. A análise automática de imagens faz proezas na classificação de fotos ou no diagnóstico médico. Mas os sistemas baseados em IA têm um calcanhar de Aquiles: eles não são confiáveis o suficiente.
Num livro publicado recentemente nos Estados Unidos, dois pesquisadores da Universidade de NY, Gary Marcus e Ernest Davis, afirmam isso. Segundo eles, o espectacular progresso da "aprendizagem profundo" e a enorme paixão por eles, escondem uma realidade importante: "Não podemos confiar na IA como ela existe hoje".
Erros mais ou menos graves O ensaio é cheio de exemplos, mais ou menos conhecidos, dos erros que essas ferramentas podem cometer. Aplicações de reconhecimento de imagens faciais podem ser enganados por pequenos adesivos quase imperceptíveis aos seres humanos, a tradução automática às vezes faz contradições óbvias, o entendimento dos textos ainda é muito imperfeito. A forma negativa, por exemplo, é incompreensível para uma IA - se você duvida, basta perguntar à Siri, assistente de voz do seu iPhone: "Encontre um restaurante que não faça pizza".
Há mais graves, por exemplo, troca nos conjuntos de dados , o que pode levar à discriminação no software usado por juízes ou recrutadores. Ou o acidente fatal de um veículo autónomo do Uber em março de 2018, porque o software não conseguiu identificar correctamente a vítima, uma mulher que estava atravessando a estrada empurrando sua bicicleta à noite.
Ferramentas muito restritas Muitos desses erros estão relacionados ao fato de que as ferramentas de inteligência artificial agora são "restritas". Elas são capazes de executar ou optimizar uma tarefa para a qual foram treinadas, mas não entendem mais do que isso. eles fazem ou o mundo em que vivem - os pesquisadores costumam falar sobre a ausência de "senso comum". Um outro problema diz respeito à explicabilidade. Ao contrário do software clássico, as ferramentas de aprendizagem de máquina evoluem a partir dos dados nos quais são treinados, tornando suas decisões mais opacas. Por todas essas razões, a questão da confiança na inteligência artificial está mobilizando um número crescente de pessoas. Em abril de 2019, um grupo de 52 especialistas reunidos pela Comissão Europeia publicou suas "regras éticas para uma IA confiável". O relatório fornece vários critérios para estimar essa confiança (supervisão humana, transparência, robustez, não discriminação etc.). No mesmo espírito, oito grupos industriais franceses (Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total e Valeo) assinaram no início de julho em Bercy um "Manifesto de inteligência artificial" que propõe "a confiança, a explicabilidade e até a certificação da IA". As soluções técnicas para alcançar essa "IA confiável" ainda precisam ser inventadas. Isso se aplica igualmente às regras de desenvolvimento (como garantir que a margem de erro seja aceitável; nesse caso, o sistema de IA deve ser redundante etc.) do que a possibilidade de testá-las ou auditá-las. As ferramentas de teste e certificação de software, existentes hoje em áreas críticas como segurança ou aeronáutica, ainda não existem para a IA.
Um desafio para 30 milhões de euros Este será o desafio de um dos "grandes desafios" lançados pelo governo francês por meio de seu Conselho de Inovação , co-presidido por Bruno Le Maire e Frédérique Vidal. Entre os cinco principais desafios franceses, financiados pelo Fundo de Inovação e Indústria, dois focam especificamente na IA: um visa usá-lo para melhorar o diagnóstico médico e o outro intitulado "Como garantir , certificar e tornar confiáveis os sistemas que usam inteligência artificial. Com um orçamento de 30 milhões de euros, este último tem três objectivos. Primeiro, estabelecer as bases tecnológicas para projectar sistemas de IA mais seguros. Em seguida, trabalhar em protocolos e plataformas de validação, chamadas "certificadores", em áreas estratégicas, como veículos autónomos. Finalmente, para atingir os padrões que garantam confiança.
Para isso, o Conselho de Inovação planeia associar laboratórios de pesquisa e industriais, cuja lista deve ser conhecida no primeiro trimestre de 2020. "As empresas de automóveis, aeronáutica, segurança ou energia entendem que esse é um problema real , acredita Julien Chiaroni, diretor desse grande desafio . No nível social, porque a confiança é um pré-requisito para a adopção desses produtos futuros pelos utilizadores, mas também do ponto de vista económico, porque as empresas que dominam essas tecnologias de confiança terão uma vantagem competitiva".
A França está longe de ser a única a embarcar nessa corrida. No ano passado, o Darpa, a agência de pesquisa avançada das Forças Armadas dos EUA, anunciou um programa de 2 biliões USD, "Next AI" , que visa melhorar a robustez e a confiança das ferramentas de inteligência. artificial. Mais modestamente, o CEO da Tesla, Elon Musk, patrocinou no ano passado, através do Instituto Futuro da Vida, uma doação de US $ 2 milhões a 10 pesquisadores de Stanford, MIT, Oxford ou Yale para trabalhar na segurança. "A ideia é alcançar resultados nos próximos três ou quatro anos"
Comentários