Últimas

OpenAI revela ferramenta que pode criar vídeo a partir de texto


OpenAI revelou uma nova ferramenta que pode gerar vídeos curtos com base em instruções de texto.

Chamado de Sora, ele é capaz de criar vídeos de até um minuto com base apenas em uma breve descrição em texto do que o usuário deseja criar.

OpenAI, criadora do ChatGPT, disse que Sora estava sendo disponibilizado para testadores de segurança para “avaliar áreas críticas em busca de danos ou riscos”, além de ser fornecido a uma série de “artistas visuais, designers e cineastas” para testar e oferecer opinião.

“Estamos ensinando IA a compreender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exigem interação no mundo real”, disse OpenAI sobre sua nova ferramenta.

A empresa disse que o modelo tem uma “compreensão profunda da linguagem”, o que lhe permite “interpretar com precisão as instruções e gerar personagens atraentes que expressam emoções vibrantes”.

Mas a OpenAI disse que também estava tomando “várias medidas de segurança importantes” em torno do Sora antes de torná-lo mais amplamente disponível.

Ele disse que estava “formando uma equipe vermelha” com a ferramenta, o que significa que ela estava sendo testada quanto a vulnerabilidades e sua capacidade de ser explorada, e estava adicionando um classificador de detecção aos metadados dos vídeos Sora que os identifica como conteúdo criado por IA.

Exemplos de vídeos de Sora em ação no site da OpenAI também incluíam uma marca d’água, identificando o conteúdo como sendo gerado por IA – uma ferramenta importante no combate à desinformação.

O criador do ChatGPT acrescentou: “Envolveremos legisladores, educadores e artistas de todo o mundo para compreender as suas preocupações e identificar casos de utilização positivos para esta nova tecnologia.

“Apesar das extensas pesquisas e testes, não podemos prever todas as maneiras benéficas pelas quais as pessoas usarão nossa tecnologia, nem todas as maneiras pelas quais as pessoas irão abusar dela.

“É por isso que acreditamos que aprender com o uso no mundo real é um componente crítico para criar e lançar sistemas de IA cada vez mais seguros ao longo do tempo.”

No início desta semana, a empresa revelou que detectou e removeu vários grupos apoiados pelo Estado que utilizavam as suas ferramentas de IA para atividades maliciosas, incluindo o trabalho em conteúdo a ser utilizado em ataques de phishing.

A OpenAI e uma equipe da Microsoft, um grande investidor na empresa de IA, descobriram grupos ligados à China, ao Irã, à Coreia do Norte e à Rússia, disse a empresa.

Em uma semana movimentada para a empresa, ela também revelou planos para dar ao ChatGPT uma memória melhor para que pudesse lembrar mais dos chats de seus usuários.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *