Amazon desarrolla un modelo de IA que permitirá encontrar escenas específicas en los vídeos, según The Information
Amazon está desarrollando un modelo de Inteligencia Artificial (IA) que podrá analizar vídeos y encontrar escenas específicas que los usuarios hayan solicitado mediante texto y que recibe el nombre de Olympus AI, según ha adelantado The Information.
La compañía está planteándose lanzar esta tecnología próximamente, en el marco de su conferencia anual AWS re:Invent, que comenzará el próximo lunes 2 de diciembre y se extenderá hasta el viernes de la semana que viene.
Actualmente, Amazon Web Services (AWS) y Anthropic mantienen una colaboración estratégica para impulsar la IA generativa, de forma que trabajan juntas en el desarrollo de tecnologías como Trianium e Inferentia. Asimismo, Anthropic proporciona a los clientes de AWS acceso a las diferentes generaciones de sus modelos fundacionales a través de Amazon Bedrock.
A pesar de que hace unos días se anunció que reforzarían su alianza para continuar “trabajando estrechamente para seguir avanzando en las capacidades de ‘hardware’ y ‘software’ de Trinium”, tal y como formalizaron en un comunicado, Amazon se plantea reducir su dependencia de su colaboradora para la IA multimodal.
Fuentes relacionadas con esta compañía tecnológica han confirmado a The Information que Amazon está trabajando en su propio modelo de inteligencia artificial, que puede procesar imágenes, vídeos y texto.
Este nuevo modelo de lenguaje recibirá el nombre de Olympus AI y permitirá a los usuarios buscar archivos de vídeo para escenas específicas, tal y como recoge Business Insider, que ha tenido acceso a esta información y señala que
Gracias a esta funcionalidad, los usuarios podrán pedirle a la herramienta que analice un vídeo de un partido de baloncesto y encuentre el momento concreto en que se enceste el balón, según apunta The Verge.