A Microsoft reforçou nos últimos dias o pedido por uma regulamentação robusta da inteligência artificial (IA), destacando a urgência de medidas que minimizem os riscos decorrentes desta tecnologia de evolução acelerada. O objetivo da empresa seria o de garantir a segurança da humanidade. Para tanto, a gigante de tecnologia sugere que sistemas de IA usados em infraestruturas críticas possam ser totalmente desligados ou desacelerados, tal como um sistema de frenagem de emergência.
A companhia também defende leis que estabeleçam claramente as obrigações legais relacionadas à inteligência artificial, assim como etiquetas indicando quando um conteúdo foi produzido por um computador.
Brad Smith, presidente da Microsoft, já havia salientado a necessidade de ação governamental durante um evento realizado em Washington, na última quinta-feira. A onda de interesse em IA, iniciada com o lançamento do ChatGPT em novembro, levou empresas como Microsoft e Alphabet, controladora do Google, a incorporarem rapidamente a tecnologia em seus produtos. Entretanto, há crescentes preocupações de que, na busca pela inovação, a segurança possa estar sendo comprometida.
Legisladores expressaram, por exemplo, apreensão com o possível uso mal-intencionado da inteligência artificial, que poderia fomentar a disseminação de desinformação, facilitar atividades criminosas e até mesmo levar à perda de empregos.
Em resposta às preocupações, desenvolvedores de IA têm sugerido que o governo assuma uma parcela maior na fiscalização da tecnologia. Sam Altman, CEO da OpenAI, desenvolvedora do ChatGPT, também se manifestou recentemente em favor da regulamentação governamental.
No caso do presidente da Microsoft, este assegurou que a empresa não está tentando se esquivar da responsabilidade sobre a nova tecnologia, mas oferecendo ideias e comprometendo-se a implementá-las, independentemente de ação governamental.
Brad Smith defendeu a proposta de que empresas precisariam obter licenças para implantar modelos de IA altamente capazes. “Isso significaria que você notifica o governo quando começa a testar”, explicou, enfatizando a importância da transparência e cooperação contínua com as autoridades.
A Microsoft propõe ainda que sistemas de alto risco operem apenas em “centros de dados licenciados”. Apesar de reconhecer que a companhia estaria bem posicionada para oferecer tais serviços, Smith acredita que vários concorrentes americanos também poderiam fornecê-los. Além disso, sugere-se que governos classifiquem sistemas de IA usados em infraestruturas críticas como “alto risco” e exijam a instalação de um “freio de segurança”.
Por fim, para proteger os consumidores, a Microsoft propõe que o conteúdo criado por IA seja obrigatoriamente identificado por meio de uma etiqueta especial. A gigante de tecnologia enfatizou ainda a necessidade de as empresas assumirem a “responsabilidade” legal por quaisquer danos associados à inteligência artificial.
Em certos casos, o responsável pode ser o desenvolvedor de um aplicativo, como o mecanismo de busca Bing, da própria Microsoft, que utiliza a tecnologia de IA de terceiros. Pela proposta, as empresas de computação em nuvem igualmente podem ser responsabilizadas por cumprir regulamentos de segurança e outras normas. “Não temos necessariamente a melhor informação ou a melhor resposta, ou podemos não ser o orador mais confiável”, admitiu Smith. “Mas, agora, especialmente em Washington DC, as pessoas estão procurando ideias”. Sob vários aspectos, há que se concordar que a questão carece mesmo de urgência.
Fonte: The New York Times