A avaliação de riscos e impactos da IA (ARIA) visa ajudar organizações e indivíduos a determinar se uma determinada tecnologia de IA será válida, confiável, segura, privada e justa depois de implantada. O programa ocorre logo após vários anúncios recentes do NIST em torno da marca de 180 dias da Ordem Executiva sobre IA confiável e da revelação pelo US AI Safety Institute de sua visão estratégica e rede de segurança internacional.
“Para compreender totalmente os impactos que a IA está a ter e terá na nossa sociedade, precisamos de testar como a IA funciona em cenários realistas – e é exatamente isso que estamos a fazer com este programa”, disse a Secretária do Comércio dos EUA, Gina Raimondo .
“Com o programa ARIA e outros esforços para apoiar as responsabilidades do Comércio sob a Ordem Executiva do Presidente Biden sobre IA, o NIST e o Instituto de Segurança de IA dos EUA estão puxando todas as alavancas quando se trata de mitigar os riscos e maximizar os benefícios da IA”, continuou Raimondo.
“O programa ARIA foi projetado para atender às necessidades do mundo real à medida que o uso da tecnologia de IA cresce”, disse o subsecretário de Comércio para Padrões e Tecnologia e diretor do NIST, Laurie E. Locascio . “Este novo esforço apoiará o Instituto de Segurança de IA dos EUA, expandirá o já amplo envolvimento do NIST com a comunidade de pesquisa e ajudará a estabelecer métodos confiáveis para testar e avaliar a funcionalidade da IA no mundo real.”
ARIA expande a Estrutura de Gestão de Risco de IA, lançada pelo NIST em janeiro de 2023, e ajuda a operacionalizar a função de medição de risco da estrutura, que recomenda o uso de técnicas quantitativas e qualitativas para analisar e monitorar riscos e impactos de IA. A ARIA ajudará a avaliar esses riscos e impactos, desenvolvendo um novo conjunto de metodologias e métricas para quantificar até que ponto um sistema mantém a funcionalidade segura em contextos sociais.
“Medir impactos envolve mais do que quão bem um modelo funciona em um ambiente de laboratório”, disse Reva Schwartz , líder do programa ARIA do Laboratório de Tecnologia da Informação do NIST. “A ARIA considerará a IA além do modelo e avaliará os sistemas no contexto, incluindo o que acontece quando as pessoas interagem com a tecnologia de IA em ambientes realistas e sob uso regular. Isto dá uma visão mais ampla e holística dos efeitos líquidos destas tecnologias.”
Os resultados do ARIA apoiarão e informarão os esforços coletivos do NIST, inclusive por meio do US AI Safety Institute, para construir a base para sistemas de IA seguros e confiáveis .
Uma cidade na Carolina do Norte e um escritório de advogados distritais cobrindo quatro condados…
O surgimento da Nytheon AI marca uma escalada significativa no cenário das plataformas (LLM) de…
Um pesquisador de segurança revelou uma vulnerabilidade crítica de injeção de SOQL no controlador interno…
Falha permite que invasores manipulem o agente de um usuário por meio de um problema…
Um exploit de dia zero, dirigido aos firewalls FortiGate da Fortinet, foi descoberto à venda…
A família SHELBY mostra um exemplo preocupante de malware moderno com design modular, sofisticado e…