Entre em contato

inteligência artificial

Leis para prevenir o terrorismo de IA são urgentemente necessárias

Compartilhar:

Publicado

on

Usamos sua inscrição para fornecer conteúdo da maneira que você consentiu e para melhorar nosso entendimento sobre você. Você pode cancelar sua inscrição a qualquer momento.

De acordo com um grupo de reflexão contra-extremismo, os governos deveriam “considerar urgentemente” novas regulamentações para impedir que a inteligência artificial recrute terroristas.

Foi afirmado pelo Instituto para o Diálogo Estratégico (ISD) que existe uma “clara necessidade de legislação para acompanhar” as ameaças colocadas online por terroristas.

Isto surge na sequência de uma experiência em que um chatbot “recrutou” o revisor independente da legislação terrorista para o Reino Unido.

Foi dito pelo governo do Reino Unido que fará "tudo o que pudermos" para proteger o público em geral.

De acordo com Jonathan Hall KC, um revisor independente da legislação sobre terrorismo do governo, uma das questões mais importantes é que “é difícil identificar uma pessoa que possa, por lei, ser responsável por declarações geradas por chatbots que encorajam o terrorismo”.

Um experimento foi conduzido por Hall no Character.ai, um site que permite aos usuários participar de bate-papos com chatbots que foram construídos por outros usuários e desenvolvidos por inteligência artificial.

Ele conversou com vários bots que pareciam ter sido projetados para imitar as respostas de outros grupos militantes e extremistas.

Anúncios

Um alto líder do Estado Islâmico foi até referido como “um líder sênior”.

Segundo Hall, o bot tentou recrutá-lo e declarou “total dedicação e devoção” ao grupo extremista, o que é proibido pelas leis do Reino Unido que proíbem o terrorismo.

Por outro lado, o Sr. Hall afirmou que não houve violação da lei no Reino Unido porque as comunicações não foram produzidas por um ser humano.

Segundo ele, as novas regulamentações deveriam responsabilizar tanto os sites que hospedam chatbots quanto as pessoas que os criam.

Quando se tratou dos bots que encontrou no Character.ai, ele afirmou que "provavelmente haveria algum valor de choque, experimentação e possivelmente algum aspecto satírico" por trás de sua criação.

Além disso, Hall conseguiu desenvolver seu próprio chatbot "Osama Bin Laden", que ele apagou prontamente, demonstrando um "entusiasmo ilimitado" por atividades terroristas.

A sua experiência surge na sequência de preocupações crescentes sobre as formas como os extremistas podem explorar a inteligência artificial melhorada.

Até o ano 2025, a inteligência artificial generativa poderá ser “usada para reunir conhecimento sobre ataques físicos cometidos por atores violentos não estatais, inclusive para armas químicas, biológicas e radiológicas”, de acordo com uma pesquisa publicada pelo governo do Reino Unido em sua publicação de outubro.

O ISD afirmou ainda que “há uma clara necessidade de legislação para acompanhar o cenário em constante mudança das ameaças terroristas online”.

De acordo com o think tank, a Lei de Segurança Online do Reino Unido, que foi aprovada em lei em 2023, “é voltada principalmente para o gerenciamento de riscos representados por plataformas de mídia social”, em vez de inteligência artificial.

Além disso, afirma que os radicais “tendem a ser os primeiros a adotar tecnologias emergentes e estão constantemente à procura de oportunidades para alcançar novos públicos”.

“Se as empresas de IA não conseguirem demonstrar que investiram suficientemente para garantir que os seus produtos são seguros, então o governo deverá considerar urgentemente uma nova legislação específica para a IA”, afirmou ainda a ISD.

No entanto, mencionou que, de acordo com a vigilância que tem conduzido, a utilização de inteligência artificial generativa por organizações extremistas é “relativamente limitada” neste momento.

A Character AI afirmou que a segurança é uma “prioridade máxima” e que o que o Sr. Hall descreveu era muito lamentável e não refletia o tipo de plataforma que a empresa estava tentando estabelecer.

“O discurso de ódio e o extremismo são proibidos pelos nossos Termos de Serviço”, segundo a organização.

“Nossa abordagem ao conteúdo gerado por IA flui a partir de um princípio simples: nossos produtos nunca devem produzir respostas que possam prejudicar os usuários ou encorajá-los a prejudicar outras pessoas”.

Com o propósito de “otimizar respostas seguras”, a corporação afirmou que treinou seus modelos de certa forma.

Além disso, afirmou que tinha um mecanismo de moderação em vigor, que permitia às pessoas denunciar informações que violassem as suas regras, e que estava empenhado em tomar medidas rápidas sempre que um conteúdo denunciasse violações.

Se chegasse ao poder, o Partido Trabalhista da oposição no Reino Unido declarou que seria uma violação criminal ensinar a inteligência artificial a instigar a violência ou a radicalizar aqueles que são susceptíveis.

“alerta para os riscos significativos para a segurança nacional e a segurança pública” que a inteligência artificial representa, afirmou o governo do Reino Unido.

“Faremos tudo o que pudermos para proteger o público desta ameaça, trabalhando em todo o governo e aprofundando a nossa colaboração com líderes de empresas de tecnologia, especialistas da indústria e nações com ideias semelhantes”.

Cem milhões de libras serão investidas em um instituto de segurança de inteligência artificial pelo governo no ano de 2023.

Compartilhe este artigo:

O EU Reporter publica artigos de várias fontes externas que expressam uma ampla gama de pontos de vista. As posições tomadas nestes artigos não são necessariamente as do EU Reporter.

TENDÊNCIA