Como resolver o problema atual dos dados da Inteligência Artificial

Advertisements

Por mais inteligente que o colega de trabalho algorítmico possa ser, ainda vai precisar de ajuda humana de vez em quando. E se isso soa ou não como uma relação de trabalho natural, o conceito de um problema de dados humanos parece certamente um passo em frente, e potencialmente uma solução para o grande problema de dados da IA.

O novo nível de interação entre humanos e IA é suscetível de jogar a favor do algoritmo: Yilmaz argumentou que o método poderia superar o medo de que alguns trabalhadores podem sentir-se na perspetiva de implantar a tecnologia no local de trabalho. A IA ativa, neste contexto, poderia fornecer uma opção mais suave pela qual o algoritmo atua como um colega de trabalho, e não como um substituto.

A IA tem um grande problema de dados. Aqui está como consertá-lo
Algoritmos supervisionados requerem muitos dados, e muitas vezes resultam em previsões tremidas. Está na hora da próxima fase da IA? A inteligência artificial tem, literalmente, um grande problema de dados – e que a crise covid-19 tornou agora impossível ignorar por mais tempo. Para empresas, governos e indivíduos, a pandemia global redefiniu efetivamente a vida “normal”; mas enquanto a maioria de nós já se ajustou à mudança, o mesmo não se pode dizer dos sistemas de IA, que baseiam as suas previsões no que o passado costumava parecer.

Falando na conferência CogX 2020, o matemático britânico David Barber afirmou: “A implementação de sistemas de IA é atualmente desajeitada. Normalmente, incia-se o processo, recolhe-se o conjunto de dados, rotula-se, treina-se o sistema e, em seguida, implemante-se. E é isso – não se revisita o sistema implementado. Mas isto não é feito da melhor forma se o ambiente está a mudar.” Barber referia-se ao machine learning supervisionado, a que chamou “paradigma clássico” de hoje em IA, e que consiste em ensinar algoritmos com exemplos. Num modelo supervisionado, um sistema de IA é alimentado por um grande conjunto de dados que já foi rotulado por humanos, e que é usado para treinar a tecnologia para reconhecer padrões e fazer previsões.

Acrescentou que um uso de alto perfil da tecnologia está nos automóveis sem condutor, onde os vídeos ainda precisam de ser segmentados e rotulados em “pedestre”, “carro”, “árvore” e noutros objetos que o carro precisa de reconhecer. Anotar milhões destes vídeos é moroso e dispendioso; por outro lado, deixar os algoritmos aprenderem e fazerem perguntas pode acelerar significativamente o processo. E, quando uma pandemia global ataca, os sistemas de IA “ativos”, deverão ser capazes de integrar novos dados em tempo real, juntamente com algumas entradas humanas, e depois adaptar-se suas previsões – em vez de esperar que grandes conjuntos de dados sejam anotados manualmente para a aprendisagem.

“Se está a desenvolver IA usando a abordagem tradicional de recolher grandes quantidades de dados e, em seguida, treinar um modelo de deep-learning, há apenas uma forma rápida a ir”, disse Barber à ZDNet. “Com o modelo tradicional, terias a sorte de ter um novo modelo a viver em produção em menos de alguns meses. Mas com aprendizagem ativa, isto pode levar apenas alguns dias no máximo.” Poderíamos treinar um algoritmo para automatizar a decisão de empréstimo num banco, por exemplo, com base em rendimentos de particulares ou pontuações de crédito. Propondo integrar o COVID-19, junto com um novo conjunto de padrões bancários, e o sistema de IA provavelmente irá baralhar-se para decidir quem recebe o dinheiro. Da mesma forma, alguns meses após a crise do covid-19, um investigador dos EUA salientou que os algoritmos, apesar de todos os dados de treino que foram alimentados, ainda assim não conseguiria “compreender” a natureza do surto ou da sua propagação por todo o mundo. Devido à falta de dados de treino sobre coronavírus passados, explica a pesquisa, a maioria das previsões geradas por ferramentas de IA foram encontrando falta de fiabilidade, e resultados muitas vezes longe da gravidade da crise.

Enquanto isso, na ´healthtech´, os fabricantes de ferramentas de saúde de IA lutaram para atualizar os seus algoritmos devido à falta de dados relevantes sobre o vírus, resultando em muitos chatbots de “symptom finder” fora das referências. Com os dados de um ambiente pré-COVID não correspondendo ao mundo real, os algoritmos supervisionados estão a ficar sem exemplos para basear as suas previsões. E para piorar as coisas, os sistemas de IA não sinalizam as suas incertezas para o seu operador humano. “A IA não lhe dirá quando na verdade não está confiante sobre a precisão da sua previsão e precisa da envolvência de um humano” disse Barber. “Há muitas incertezas nestes sistemas. Por isso, é importante que a IA possa alertar o ser humano quando não está confiante na sua decisão.”

Isto é o que Barber descreveu como uma situação de “colega de trabalho da IA”, onde humanos e máquinas interagiriam para garantir que as lacunas não ficassem por preencher. Na verdade, é um método dentro da inteligência artificial que está lentamente a emergir como um método particularmente eficiente. Apelidada de “aprendizagem ativa”, consiste em estabelecer uma relação professor-aprendizagem entre sistemas de IA e operadores humanos. Em vez de alimentar o algoritmo com um enorme conjunto de dados rotulado, e permitindo-lhe tirar conclusões – muitas vezes de forma menos transparente – a aprendizagem ativa permite que o sistema de IA faça a maior parte da rotulagem de dados por si só, e crucialmente, fazer perguntas quando tem dúvidas.

O processo envolve um pequeno conjunto de dados com rótulo humano, chamado ´a semente´, que é usado para treinar o algoritmo. O sistema de IA é então apresentado com um maior conjunto de dados não rotulados, que o algoritmo anota por si só, com base na sua aprendisagem – antes de integrar os dados recentemente rotulados de volta à semente. Quando a ferramenta não está confiante sobre um rótulo específico, pode pedir ajuda a um operador humano sob a forma de uma consulta. As escolhas feitas por especialistas humanos são então alimentados de volta ao sistema, para melhorar o processo de aprendizagem geral. O apelo imediato da aprendizagem ativa reside no volume muito menor de dados rotulados que são necessários para formar o sistema. Algoritmos supervisionados, porque eles não aprendem por si mesmos, requerem um conjunto extenso de exemplos rotulados para serem fornecidos por humanos. Isto traduz-se em processos longos e dispendiosos para rotular manualmente até milhares de milhões de pontos de dados para qualquer conjunto de dados.

Algumas plataformas, como a Amazon’s Mechanical Turk, até se especializaram em conectar organizações com um grande conjunto de mão de obra de baixo custo espalhadas pelo globo. “Turkers”, como são chamados, clicam em milhares de imagens por dia, anotando pontos de dados como solicitado, que irão para a formação de futuros algoritmos. A aprendizagem ativa, por outro lado, só requer a rotulagem de um pequeno conjunto de dados de sementes. Barber, na verdade, estima que o processo envolve anotar até dez vezes menos dados. Ele não é o único a ter apanhado esta regalia específica do método. As grandes empresas tecnológicas, especialmente, têm um forte interesse em reduzir o volume de dados rotulados que precisam para alimentar os seus algoritmos.

A unidade de IA do Facebook está fortemente assente no desenvolvimento de um modelo para uma IA que aprende, e para várias aplicações, incluindo a identificação de conteúdos nocivos. A gigante tecnológica publicou recentemente resultados que mostram que a sua equipa de IA, utilizando um método professor-aluno, tinha treinado com sucesso um algoritmo de classificação de imagem baseado numa coleção de um recorde de mil milhões de imagens não etiquetadas, usando um “conjunto relativamente menor”, de dados rotulados. Mas não se trata apenas de reduzir o processo de rotulagem de dados: a aprendizagem ativa também é mais eficiente, em comparação com a aprendizagem supervisionada. Ser capaz de perguntar ao humano acerca de dicas sobre onde se concentrar quando é confrontado com um pedaço de dados sobre os quais não tem certeza, significa que um sistema de IA “ativo” não só pode responder ao desconhecido, mas também aprender com ele.

Fonte: ZDNet

Subscribe to get access

Read moreNo caso de moderação de conteúdo, um algoritmo “ativo” tomará decisões mais informadas, uma vez que cada vez mais aprende a captar cada vez mais subtilmente formas de violação de conteúdo. Um sistema de IA “ativo” também seria muito eficiente no processamento de linguagem natural ou na imagem médica. O matemático co-fundou a Re:infer – uma empresa que aproveita a aprendizagem ativa para ajudar as empresas a entenderem melhor e automatizarem o processamento de e-mails, chamadas e conversas que recebem todos os dias de fornecedores. Tradicionalmente, a criação de um algoritmo para esta tarefa específica teria exigido a rotulagem manual de cada frase a partir dos milhares de mensagens de clientes recebido por uma determinada empresa, antes de alimentá-lo como formação para um sistema de IA. of this content when you subscribe today.

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.