O Microsoft Edge pode executar o modelo Phi3 Mini AI localmente no Windows 11 e Windows 10
[ad_1]
A Microsoft parece estar testando um novo recurso que pode permitir que o navegador Edge execute localmente uma linguagem pequena chamada “Phi3 Mini”. Isso significa que você poderá usar o Microsoft Edge para brincar com um dos modelos de linguagem pequena da Microsoft diretamente no PC com Windows 11 (e Windows 10). Isso está de acordo com novos sinalizadores experimentais detectados no Edge Canary.
Conforme notado pelo nosso leitor Leo em X e confirmado pelo Windows Latest, há um novo sinalizador chamado “Prompt API para Phi3 min”. A Microsoft o descreve como uma maneira de ativar a “API de Prompt exploratória, que permite que você interaja com um “modelo de linguagem grande integrado” (Phi3 Mini no Edge).
“Ativa a API Prompt exploratória, permitindo que você envie instruções de linguagem natural para um modelo de linguagem grande integrado (Phi3 Mini no Edge). As APIs exploratórias são projetadas para prototipagem local para ajudar a descobrir casos de uso em potencial e podem nunca ser lançadas. Essas explorações informarão o roteiro de IA integrado”, a Microsoft confirmou o experimento por meio do menu de sinalizadores do Edge.
O Edge realmente hospedará localmente um modelo de IA?
O que nos faz pensar que o modelo poderia ser hospedado localmente?
O uso do termo “exploratório” sugere que a ideia do pequeno modelo de linguagem do Edge ainda está sendo trabalhada e provavelmente está nos primeiros dias de desenvolvimento.
A Microsoft claramente não parece estar hospedando o modelo de linguagem grande completo localmente dentro do Edge, o que não é praticamente possível. É possível que a empresa esteja tentando usar partes do modelo de linguagem pequena para potencializar novos recursos no navegador.
“Esta API é destinada principalmente para tarefas de processamento de linguagem natural, como resumo, classificação ou reformulação de texto. NÃO é adequada para casos de uso que exigem precisão factual (por exemplo, responder a perguntas de conhecimento)”, observou a Microsoft na descrição do sinalizador experimental.
A Microsoft está vendo como isso funciona diretamente pelo navegador Edge. A API é projetada para tarefas realmente simples, como resumir ou reformular texto. A empresa também alerta que a API não precisa ser precisa para perguntas baseadas em conhecimento.
Mas como a Microsoft poderia integrar a IA local no Edge? Por exemplo, você pode selecionar algumas centenas de palavras de texto, clicar com o botão direito e, em seguida, usar o processo de IA integrado do Edge para “resumir ou reformular o texto” localmente.
Você já pode fazer isso pelo Copilot, mas quando os dados são processados localmente, as respostas geralmente são mais rápidas e privadas.
Além disso, a Microsoft menciona “prototipagem local”, que é outro sinal claro de que a empresa está experimentando hospedar a API localmente. O termo “modelo de linguagem grande integrado” também confirma que esse modelo é integrado ao próprio navegador Edge.
Por que a Microsoft usaria o termo “integrado” se esse não fosse o caso?
Gemini também pode ser usado localmente no Chrome… mais ou menos
Também há maneiras de executar o Google Gemini Nano (um pequeno modelo de linguagem) diretamente no Google Chrome, e você ficará surpreso com a rapidez com que ele roda se assistir ao vídeo acima compartilhado por Morten Just em X.
O que é particularmente interessante é que esses modelos hospedados localmente funcionam totalmente offline, então você não precisa se preocupar em compartilhar seus dados ou com internet lenta.
É claro que executar modelos de IA localmente no Edge é uma ideia que exige muito trabalho, e é de se esperar que a integração não ocupe muitos recursos do sistema.
Além da IA local, o Edge também quer reduzir a desordem e integrar a economia de energia do Windows 11 para reduzir o consumo de energia.
[ad_2]
Comentários 0