IA está sendo usada para ‘turbinar’ golpes

Por Xerife Tech, 9.06.2023 às 1:32 142

Código escondido dentro Placas-mãe de PCs deixaram milhões de máquinas vulneráveis ​​a atualizações maliciosas, revelaram pesquisadores esta semana. A equipe da empresa de segurança Eclypsium encontrou códigos em centenas de modelos de placas-mãe criadas pela operário taiwanesa Gigabyte que permitiam que um programa atualizador baixasse e executasse outro software. Embora o sistema fosse talhado a manter a placa-mãe atualizada, os pesquisadores descobriram que o mecanismo foi implementado de forma insegura, permitindo que invasores sequestrassem o backdoor e instalassem malware.

Em outro lugar, a empresa de segurança cibernética Kaspersky, com sede em Moscou, revelou que sua equipe foi claro de um malware de clique zero recém-descoberto que afeta iPhones. As vítimas receberam uma mensagem maliciosa, incluindo um dentro, no iMessage da Apple. O ataque começou involuntariamente a explorar várias vulnerabilidades para dar aos invasores chegada aos dispositivos, antes que a mensagem fosse excluída. A Kaspersky diz confiar que o ataque afetou mais pessoas do que unicamente sua própria equipe. No mesmo dia em que a Kaspersky revelou o ataque ao iOS, o Serviço Federalista de Segurança da Rússia, também divulgado porquê FSB, afirmou que milhares de russos foram claro de um novo malware para iOS e acusou a Dependência de Segurança Pátrio dos EUA (NSA) de conduzir o ataque. A sucursal de perceptibilidade russa também afirmou que a Apple ajudou a NSA. O FSB não publicou detalhes técnicos para estribar suas reivindicações, e a Apple disse que nunca inseriu um backdoor em seus dispositivos.

Se isso não for incentivo suficiente para manter seus dispositivos atualizados, reunimos todos os patches de segurança lançados em maio. Apple, Google e Microsoft lançaram patches importantes no mês pretérito – vá e certifique-se de estar atualizado.

E tem mais. A cada semana, reunimos as histórias de segurança que não cobrimos em profundidade. Clique nas manchetes para ler as notícias completas. E fique seguro lá fora.

Lina Khan, presidente da Percentagem Federalista de Transacção dos EUA, alertou esta semana que a sucursal está vendo criminosos usando ferramentas de perceptibilidade sintético para “turbinar” fraudes e golpes. Os comentários, feitos em Novidade York e relatados pela primeira vez por Bloombergcitou exemplos de tecnologia de clonagem de voz em que a IA estava sendo usada para induzir as pessoas a pensar que estavam ouvindo a voz de um membro da família.

Avanços recentes de aprendizagem de máquina tornaram provável que as vozes das pessoas sejam imitadas com unicamente alguns clipes curtos de dados de treinamento – embora os especialistas digam que os clipes de voz gerados por IA podem variar muito em qualidade. Nos últimos meses, no entanto, houve uma aumento relatado no número de tentativas de golpe aparentemente envolvendo clipes de áudio gerados. Khan disse que autoridades e legisladores “precisam estar vigilantes desde o início” e que, embora novas leis que regem a IA estejam sendo consideradas, as leis existentes ainda se aplicam a muitos casos.

Em uma rara recepção de fracasso, os líderes norte-coreanos disseram que a tentativa do país ermitão de colocar um satélite espião em trajectória não saiu porquê planejado esta semana. Eles também disseram que o país tentaria outro lançamento no horizonte. Em 31 de maio, o foguete Chollima-1, que transportava o satélite, foi lançado com sucesso, mas seu segundo estágio não funcionou, fazendo com que o foguete mergulhe no mar. O lançamento desencadeou um alerta de evacuação de emergência na Coreia do Sul, mas isso foi posteriormente retirado pelas autoridades.

O satélite teria sido o primeiro satélite espião solene da Coreia do Setentrião, o que, segundo especialistas, daria a ele o capacidade de monitorar a Península Coreana. O país já lançou satélites anteriormente, mas especialistas acreditam que não enviaram imagens de volta para a Coreia do Norte. O lançamento fracassado ocorre em um momento de subida tensão na península, enquanto a Coreia do Setentrião continua tentando desenvolver armas e foguetes de subida tecnologia. Em resposta ao lançamento, a Coreia do Sul anunciou novas sanções contra o grupo de hackers Kimsukyque está ligada à Coreia do Setentrião e supostamente roubou informações secretas ligadas ao desenvolvimento espacial.

Nos últimos anos, a Amazon está sob escrutínio por controles negligentes sobre os dados das pessoas. Esta semana, a Percentagem Federalista de Transacção dos EUA, com o base do Departamento de Justiça, atingiu a gigante da tecnologia com dois assentamentos por uma série de falhas relacionadas aos dados infantis e suas câmeras domésticas inteligentes Ring.

Em um caso, dizem as autoridades, um ex-funcionário da Ring espionou clientes do sexo feminino em 2017 – a Amazon comprou a Ring em 2018 – vendo vídeos delas em seus quartos e banheiros. A FTC diz que Ring deu à equipe “chegada perigosamente vasto” a vídeos e teve uma “atitude negligente em relação à privacidade e segurança”. Em um declaração separadaa FTC disse que a Amazon manteve gravações de crianças usando seu assistente de voz Alexa e não excluiu dados quando os pais solicitaram.

A FTC ordenou que a Amazon pagasse tapume de US$ 30 milhões em resposta aos dois acordos e introduzisse algumas novas medidas de privacidade. Talvez mais consequente, a FTC disse que a Amazon deve deletar ou destruir Gravações anteriores a março de 2018, muito porquê quaisquer “modelos ou algoritmos” desenvolvidos a partir dos dados coletados indevidamente. A ordem deve ser aprovada por um juiz antes de ser implementada. amazon tem disse discorda da FTC e nega “violar a lei”, mas acrescentou que os “acordos deixaram essas questões para trás”.

À medida que empresas de todo o mundo correm para fabricar sistemas de IA generativos em seus produtos, o setor de segurança cibernética está entrando em ação. Esta semana, a OpenAI, criadora dos sistemas de geração de texto e imagem ChatGPT e Dall-E, abriu uma novo programa para descobrir como a IA pode ser melhor usada por profissionais de segurança cibernética. O projeto está oferecendo subsídios para aqueles que desenvolvem novos sistemas.

A OpenAI propôs vários projetos em potencial, desde o uso de aprendizagem de máquina para detectar esforços de engenharia social e produção de perceptibilidade de ameaças até a inspeção do código-fonte em procura de vulnerabilidades e o desenvolvimento de honeypots para prender hackers. Embora os desenvolvimentos recentes de IA tenham sido mais rápidos do que muitos especialistas previram, a IA tem sido usada no setor de segurança cibernética há vários anos – embora muitas reivindicações não correspondam necessariamente ao hype.

A Força Aérea dos EUA está avançando rapidamente no teste de perceptibilidade sintético em máquinas voadoras – em janeiro, testou uma avião tática sendo pilotada por IA. Porém, esta semana, uma novidade denúncia começou a rodear: que durante um teste simulado, um drone controlado por IA começou a “combater” e “matou” um operador humano que o supervisionava, porque o impedia de satisfazer seus objetivos.

“O sistema começou a perceber que, embora eles identificassem a prenúncio, às vezes o operador humano dizia para não matar essa prenúncio, mas conseguiu seus pontos matando essa prenúncio”, disse o coronel Tucker Hamilton, de conciliação com um resumo de um evento na Royal Aeronautical Society, em Londres. Hamilton continuou dizendo que quando o sistema foi treinado para não matar o operador, ele começou a mirar na torre de informação que o operador estava usando para se enviar com o drone, impedindo o envio de suas mensagens.

No entanto, a Força Aérea dos EUA diz que a simulação nunca ocorreu. Porta-voz Ann Stefanek disse os comentários foram “tirados do contexto e pretendiam ser anedóticos”. Hamilton também esclarecido que ele “falou inexacto” e estava falando sobre um “experimento mental”.

Apesar disso, o cenário descrito destaca as maneiras não intencionais pelas quais os sistemas automatizados podem contornar as regras impostas a eles para atingir os objetivos que foram definidos para compreender. Chamado jogo de especificação por pesquisadores, outros instâncias vi uma versão simulada de tetris pause o jogo para evitar perder, e um personagem do jogo de IA se matou no nível um para evitar morrer no próximo nível.

[ad_2]

Comentários 0