Inicio España Los clientes de AWS tienen la oportunidad de elegir herramientas de IA...

Los clientes de AWS tienen la oportunidad de elegir herramientas de IA generativa que se adapten a su negocio

0

MADRID, 30 (Portaltic/EP)

Amazon Web Services (AWS) busca que sus clientes tengan la capacidad de elegir cuáles son las herramientas que mejor se adaptan a las necesidades de su negocio, e insiste en que la inteligencia artificial (IA) generativa se ha convertido en la gran protagonista de todos los procesos, un apartado que refuerza con nuevos chips y herramientas como Amazon Q y Amazon Bedrock.

El evento anual AWS re:Invent reúne alrededor de 50.000 asistentes en Las Vegas (Estados Unidos) y decenas de miles de usuarios de forma ‘online’. Durante estos días, además, se dan más de 2.000 sesiones técnicas y cinco ‘keynotes, siendo la de su CEO, Adam Selipsky, una de las que generan mayor expectación.

El arquitecto de Soluciones en AWS España, Carlos Milán, ha resumido este jueves algunas de las principales novedades y anuncios que se han dado a conocer en este encuentro, entre los que destacan los enfocados al uso de la IA generativa para mejorar los procesos.

Milán ha insistido en que la firma busca «dar a sus clientes la capacidad de elegir» las diferentes tecnologías que ofrece para adaptarlas a sus necesidades, y ha comentado que Amazon sigue trabajando en innovación e infraestructura con productos como Amazon S3 Express One Zone.

Se trata de una nueva clase de almacenamiento diseñada específicamente para ofrecer el mayor rendimiento y el almacenamiento de objetos de menor latencia para los datos a los que los clientes acceder con mayor frecuencia.

En busca de ofrecer la máxima potencia al menor coste, se ha reducido la latencia de acceso a milisegundos de un solo dígito y es hasta diez veces más rápido de S3 estándar, además de que tiene un 50 por ciento de costes de acceso más bajos que el modelo S3 estándar.

Leer más:  Un peatón resultó herido tras ser atropellado debido a una colisión entre un coche y una moto en Las Palmas de Gran Canaria

Otra de las novedades de la marca en el apartado de infraestructura es la nueva generación de chips Graviton4 y Trainium2, que ofrecen avances en rendimiento y eficiencia energética para cargas de trabajo de modelos de aprendizaje automático (ML) y aplicaciones de IA generativa.

Graviton4, definido como «el chip más potente y energéticamente eficiente» de Amazon, es un 30 por ciento más rápido, de media, que Graviton3, un 30 por ciento más rápido para aplicaciones web y un 40 por ciento más rápido para aplicaciones de bases de datos. Asimismo, es un 145 por ciento más rápido para aplicaciones Java.

Por otra parte, AWS ha mencionado el lanzamiento de funciones dirigidas al entorno empresarial, como Amazon ElastiCache Serverless, que es compatible con Memcached y Redis y que ofrece millones de operaciones por segundo con tiempos de respuesta en microsegundos de un solo dígito.

Amazon Aurora Limitless Database maneja datos a escala de petabytes y millones de escrituras por segundo y permite una fragmentación automática, escalado horizontal -con más nodos de bases de datos- y vertical, con mayor almacenamiento o CPU.

Por otra parte, la nueva capacidad Redshift Serverless AI Optimizations: utiliza IA para predecir cargas de trabajo y escalar, así como optimizar recursos de Redshift de manera proactiva y automática.

Leer más:  La escultura de Puppy en Bilbao empieza a ser cubierta por plantas de primavera-verano

IA Y NUEVAS INTEGRACIONES

En cuanto a las novedades relacionadas con el apartado Data & Analytics, Amazon ha comentado que Amazon Redshift -que ya se integraba con Amazon Aurora MySQL- ahora tiene integraciones con Amazon Relational Database Service (Amazon RDS) para MySQL, así como con Amazon Aurora PostgreWQL y Amazon DynamoDB. Este último, además, se integra con Amazon OpenSearch Service.

En el entorno de la IA, la firma ha recordado que actualmente dispone «de una oferta completa ‘end-to-end’ de inteligencia artificial y que esta tecnología lleva más de dos décadas «formando parte del ADN de Amazon. Por eso, hoy en día se entregan 1,6 millones de paquetes al día», ha añadido Milán, en referencia a que se utiliza para agilizar los procesos.

Amazon Bedrock es una de las herramientas que emplea esta tecnología y que se presenta como un servicio totalmente gestionado que hace que los modelos de base (FM) de las principales empresas de IA estén disponibles a través de una única interfaz de programación de aplicaciones (API).

En concreto, esta herramienta ofrece acceso a los modelos básicos de AI 21 Labs, Anthropic, Cohere, Meta, Stability AI y Amazon para que los clientes puedan crear aplicaciones de IA generativa simplificando su desarrollo y garantizando la privacidad y seguridad. Asimismo, la empresa ha indicado que ofrece infraestructura para entrenamiento e inferencia de datos con GPUs, EC2 Capacity Blocks, Trainium, Inferentia y SageMaker.

Con ello, ha adelantado que Amazon Bedrock permite elegir nuevos modelos de lenguaje, entre los que se encuentran Claude 2.1, Llama 2 Chat 13B, Command & Embed, Stable Diffusion XL, Llama 2 Chat 70B, Command Light & Embed y Stable Diffusion XL.

Leer más:  Ford se reestructura luego de enfrentar un impacto negativo de 120.000 euros por cada vehículo eléctrico que produce

Otras de las novedades destacadas de AWS re:invent 2023 en este apartado recibe el nombre de Amazon Q, un ‘chatbot’ por el momento en versión preliminar que proporciona información y consejos a la hora de agilizar tareas y tomar decisiones.

AWS SUMA FUNCIONALIDADES A AMAZON SAGEMAKER

La compañía tecnológica ha anunciado nuevas capacidades dentro de Amazon SageMaker para ayudar a acelerar la creación, el entrenamiento y la implementación de grandes modelos de lenguaje y otros más básicos.

En concreto, ha comentado que Amazon SageMaker HyperPod reduce hasta un 40 por ciento el tiempo para entrenar modelos fundacionales de entrenamiento de IA generativa. Dentro de este, por ciento, se ha trabajado con Inference Optimization, que reduce una media de 50 por ciento de los costes de despliegue de modelos fundacionales.

Amazon SageMaker Inference, por su lado, reduce los costos de implementación de modelos de fundamentos en un 50 por ciento en promedio y la latencia en un 20 por ciento en promedio al optimizar el uso de aceleradores.

Asimismo, Amazon SageMaker Clarify facilita a los clientes a la evaluación y selección rápida de modelos de fundamentos basados en parámetros que respaldan el uso responsable de la IA y, para terminar, Amazon SageMaker Canvas ayuda a los clientes a acelerar la preparación de datos usando instrucciones en lenguaje natural y la creación de modelos de fundamentos «en tan solo unos clics».


- Te recomendamos -