Sumário
A tecnologia de IA está sendo usada por uma grande proporção de adolescentes, de acordo com uma nova pesquisa. Um estudo recente do regulador de mídia do Reino Unido, Ofcom, descobriu que quase 80% dos adolescentes já usaram ferramentas e serviços de IA generativa.
Especificamente, o estudo descobriu que:
Quatro em cada cinco (79%) adolescentes online com idades entre os 13 e os 17 anos utilizaram ferramentas e serviços generativos de IA, sendo que uma minoria significativa de crianças mais novas com idades compreendidas entre os 7 e os 12 anos também utiliza a tecnologia (40%).
Os usuários adultos da Internet com 16 anos ou mais são, em média, comparativamente mais relutantes em usar IA generativa (31%). Dos que nunca usaram a tecnologia (69%), quase um quarto não tem ideia do que seja (24%).
My AI do Snapchat e ChatGPT da OpenAI na liderança
De acordo com o estudo, o My AI do Snapchat é a ferramenta de IA generativa mais popular entre crianças e adolescentes, usada por metade (51%) dos jovens online de 7 a 17 anos. As adolescentes online são as usuárias mais ávidas (75%).
Entre os usuários de internet com mais de 16 anos, ChatGPT é o serviço de IA generativa mais utilizado (23%). Entre os usuários de internet com idades compreendidas entre os 7 e os 17 anos, os homens são usuários mais ávidos do ChatGPT do que as mulheres (34% vs. 14%).
Os usuários da internet com mais de 16 anos usam IA generativa de diversas maneiras: 58% para diversão, 33% para trabalho e 25% para estudo. As atividades mais populares são conversar e explorar as possibilidades da IA (48%), seguidas pela busca de informações (36%) e pela busca de conselhos (22%). As aplicações criativas incluem escrever textos como poemas ou letras de músicas (20%), criar imagens (20%), vídeos (9%) e áudio (4%). 11% usam IA generativa para tarefas de programação.
A Geração Z é uma das primeiras a adotar a IA generativa
Yih-Choung Teh, diretor de estratégia e pesquisa da Ofcom, disse que a adoção de novas tecnologias é “uma segunda natureza para a Geração Z”. Mas ele também reconheceu preocupações sobre os riscos da IA.
O estudo reflete uma tendência já observada em escolas e universidades: em julho, foi revelado que mais de 40% das universidades iniciaram investigações em estudantes por trapacear usando chatbots de IA, como ChatGPT. Desde dezembro de 2022, ocorreram quase 400 investigações sobre estudantes em 48 instituições.
As ferramentas de IA podem ser afetadas por novas regulamentações de segurança cibernética
Ofcom sublinhou que algumas ferramentas de IA serão abrangidas pelo âmbito da nova legislação de segurança cibernética e que analisará como as empresas avaliam proativamente os riscos de segurança dos seus produtos e tomam medidas eficazes para proteger os utilizadores de danos potenciais.
Há poucos dias, o Centro Nacional de Segurança Cibernética do Reino Unido e a Agência de Segurança Cibernética e de Infraestrutura dos EUA desenvolveram em conjunto o primeiras diretrizes globais de segurança cibernética para IA para ajudar os desenvolvedores a tomar decisões informadas sobre segurança cibernética. As “Diretrizes para Desenvolvimento Seguro de Sistemas de IA” estão divididas em quatro áreas principais: design seguro, desenvolvimento seguro, implementação segura e operação e manutenção seguras. Outros 17 países, incluindo os EUA, prometeram o seu apoio às novas directrizes.
A Cúpula de Segurança de IA também foi realizado no Reino Unido em novembro desde ano de 2023. Representantes de muitos países, incluindo a Alemanha, assinaram um memorando de entendimento para uma maior cooperação no desenvolvimento e regulamentação da inteligência artificial. A Declaração de Bletchley destaca as oportunidades e os riscos da tecnologia de IA e visa desenvolver uma compreensão comum dos riscos, científica e baseada em evidências. Os signatários, que incluem Brasil, Canadá, EUA, Quénia, Arábia Saudita e China, também pretendem desenvolver políticas baseadas em riscos para garantir a segurança face a estes riscos.