18.8 C
Munique
segunda-feira, junho 16, 2025

O objetivo de Sam Altman para o chatgpt de lembrar ‘toda a sua vida’ é emocionante e perturbador

Must read


O CEO da OpenAI, Sam Altman Sequoia no início deste mês.

Quando perguntado por um participante sobre como o ChatGPT pode se tornar mais personalizado, Altman respondeu que ele finalmente quer que o modelo documente e lembre -se de tudo na vida de uma pessoa.

O ideal, disse ele, é um “modelo de raciocínio muito pequeno, com um trilhão de fichas de contexto em que você coloca toda a sua vida”.

“Esse modelo pode raciocinar em todo o seu contexto e fazê -lo com eficiência. E todas as conversas que você já teve em sua vida, todos os livros que você já leu, todos os emails que você já leu, tudo o que você já olhou está lá, além de conectado a todos os seus dados de outras fontes. E sua vida continua anexando o contexto”, ele descreveu.

“Sua empresa faz a mesma coisa para todos os dados da sua empresa”, acrescentou.

Altman pode ter algum motivo orientado a dados para pensar que este é o futuro natural do ChatGPT. Na mesma discussão, quando solicitados maneiras legais de maneiras que os jovens usam ChatGPT, ele disse: “As pessoas na faculdade usam -a como um sistema operacional”. Eles carregam arquivos, conectam fontes de dados e usam “instruções complexas” contra esses dados.

Além disso, com Opções de memória do ChatGPT – que pode usar bate -papos anteriores e fatos memorizados como contexto – ele disse que uma tendência que notou é que os jovens “não tomam decisões de vida sem perguntar chatgpt”.

“Uma simplificação excessiva é: os idosos usam o ChatGPT como, tipo, um substituto do Google”, disse ele. “As pessoas de 20 e 30 anos usam isso como um consultor da vida.”

Não é um grande salto ver como o chatgpt pode se tornar um sistema de IA de tudo. Emparelhado com os agentes que o vale está tentando construir, esse é um futuro emocionante para pensar.

Imagine sua IA agendando automaticamente as mudanças de óleo do seu carro e lembrando você; planejando a viagem necessária para um casamento fora da cidade e encomendar o presente do registro; Ou pré-encomendar o próximo volume da série de livros que você está lendo há anos.

Mas a parte assustadora? Quanto devemos confiar em uma grande empresa com fins lucrativos de tecnologia para saber tudo sobre nossas vidas? São empresas que nem sempre se comportam de maneiras modelo.

O Google, que começou a vida com o lema “Don’t Mal” perdeu um processo nos EUA que o acusou de se envolver em comportamento monopolista e anticompetitivo.

Os chatbots podem ser treinados para responder de maneiras politicamente motivadas. Não apenas os bots chineses foram encontrados com os requisitos de censura da China, mas o Chatbot Grok de Xai nesta semana discutia aleatoriamente um “genocídio branco” sul -africano quando as pessoas fizeram perguntas completamente não relacionadas. O comportamento, muitos notaramManipulação intencional implícita de seu mecanismo de resposta sob o comando de seu fundador nascido na África do Sul, Elon Musk.

No mês passado, o ChatGPT ficou tão agradável que era absolutamente silcofantico. Os usuários começaram a compartilhar capturas de tela do bot aplaudindo problemático, mesmo perigoso decisões e idéias. Altman respondeu rapidamente prometendo que a equipe corrigiu o ajuste que causou o problema.

Mesmo os melhores e mais confiáveis ​​modelos ainda imediatamente invente de tempos em tempos.

Portanto, ter um assistente de IA com tudo o que pode ajudar nossa vida de maneiras que só podemos começar a ver. Mas, dada a longa história de comportamento duvidoso da Big Tech, essa também é uma situação pronta para o uso indevido.



Link da Fonte

- Advertisement -spot_img

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

Latest article