Las opiniones expresadas por los contribuyentes empresariales son propias.
Al final del primer trimestre en 2025, ahora es un buen momento para reflexionar sobre las actualizaciones recientes de Amazon Web Services (AWS) a sus servicios que proporcionan datos y capacidades de IA para finalizar a los clientes. A finales de 2024, AWS organizó más de 60,000 practicantes en su conferencia anual, Re: Invent, en Las Vegas.
Se anunciaron cientos de características y servicios durante la semana; Los he combinado con los anuncios que han llegado desde entonces y seleccionaron cinco datos clave e innovaciones de IA de las que debe darse cuenta. Vamos a sumergirnos.
La próxima generación de Amazon Sagemaker
Amazon Sagemaker ha sido visto históricamente como el Centro para todo AI en AWS. Servicios como Amazon Glue o Elastic MapReduce se han encargado de las tareas de procesamiento de datos, y Amazon Redshift recoge la tarea de SQL Analytics. Con un número cada vez mayor de organizaciones que enfocan los esfuerzos en datos y IA, las plataformas todo en uno, como Databricks, han captado comprensiblemente los ojos de quienes comienzan su viaje.
La próxima generación de Amazon Sagemaker es la respuesta de AWS a estos servicios. Sagemaker Unified Studio reúne a SQL Analytics, Procesamiento de datos, desarrollo del modelo de IA y desarrollo generativo de aplicaciones de IA bajo un mismo techo. Todo esto se basa en la parte superior de los fundamentos de otro nuevo servicio, Sagemaker Lakehouse, con datos y gobernanza de IA integrado a través de lo que anteriormente existía independiente como Amazon Datazone.
La promesa de una solución de primera parte de AWS para los clientes que buscan comenzar, aumentar la capacidad o obtener un mejor control de sus datos y cargas de trabajo de IA es realmente emocionante.
Mercado de roca en Amazon
Siguiendo con el tema de las cargas de trabajo de IA, quiero resaltar el mercado de rock de rocas de Amazon. El mundo de la IA generativa es rápido, y se están desarrollando nuevos modelos todo el tiempo. A través de Bedrock, los clientes pueden acceder a los modelos más populares sin servidor, solo pagando los tokens de entrada/salida que usan. Sin embargo, hacer esto para cada modelo de industria especializado al que los clientes puedan acceder no es escalable.
Amazon Bedrock Marketplace es la respuesta a esto. Anteriormente, los clientes podían usar Amazon Sagemaker JumpStart para implementar LLM en su cuenta AWS de manera administrada; Sin embargo, esto los excluyó de las características de roca madre que se estaban desarrollando activamente (agentes, flujos, bases de conocimiento, etc.). Con Bedrock Marketplace, los clientes pueden seleccionar entre más de 100 (y en crecimiento) modelos especializados, incluidos los de Huggingface y Deepseek, implementarlos en un punto final administrado y acceder a ellos a través de las API estándar de roca madre.
Esto da como resultado una experiencia más perfecta y hace que experimentar con diferentes modelos sea significativamente más fácil (incluidos los modelos finos de los clientes).
Amazon Bedrock Data Automation
Extraer ideas de datos no estructurados (documentos, audio, imágenes, video) es algo en lo que los LLM han demostrado sobresalir. Si bien el valor potencial que tiene de esto es enorme, establecer tuberías de rendimiento, escalable, rentable y seguro para extraer esto es algo que puede ser complicado, y los clientes han luchado históricamente con él.
En los últimos días, al momento de la escritura, la automatización de datos de roca madre de Amazon alcanzó la disponibilidad general (GA). Este servicio se establece para resolver el problema exacto que acabo de describir. Centrémonos en el caso de uso del documento.
El procesamiento de documentos inteligentes (IDP) no es un nuevo caso de uso para la IA: existió mucho antes de que Genai estuviera de moda. IDP puede desbloquear enormes eficiencias para las organizaciones que se ocupan de formularios en papel al aumentar o reemplazar los procesos manuales realizados por humanos.
Con la automatización de datos de roca madre, el aumento pesado de la construcción de tuberías IDP se abstrae de los clientes y se proporciona como un servicio administrado que es fácil de consumir y posteriormente se integra en procesos y sistemas heredados.
Amazon Aurora DSQL
Las bases de datos son un ejemplo de una herramienta donde el nivel de complejidad expuesto a aquellos que lo aprovechan no se correlaciona necesariamente con lo complejo que es detrás de escena. A menudo, es una relación inversa en la que se debe usar una base de datos más simple y más “mágica”, más compleja es en las áreas que no se ven.
Amazon Aurora DSQL es un gran ejemplo de tal herramienta donde es tan sencillo de usar como los otros servicios de base de datos administrados de AWS, pero el nivel de complejidad de ingeniería para hacer posible su conjunto de características es enorme. Hablando de su conjunto de características, veamos eso.
Aurora DSQL se propone ser el Servicio de elección para cargas de trabajo que necesitan bases de datos duraderas, muy consistentes y activas activas en múltiples regiones o zonas de disponibilidad. Las bases de datos de múltiples regiones o múltiples AZ ya están bien establecidas en configuraciones activas-pasivas (es decir, un escritor y muchas replicas de lectura); Active-Active es un problema mucho más difícil de resolver sin dejar de funcionar y retener una fuerte consistencia.
Si está interesado en leer los detalles técnicos profundos de los desafíos que se superaron en la construcción de este servicio, recomendaría leer la serie de publicaciones de blog de Marc Brooker (Distinguised Engineer at AWS) sobre el tema.
Al anunciar el servicio, AWS lo describió como “una escalada horizontal prácticamente ilimitada con la flexibilidad de escalar de forma independiente las lecturas, escritos, escritos y almacenamiento. Escala automáticamente para satisfacer cualquier demanda de carga de trabajo sin actualizaciones de bases de datos o actualizaciones de instancias de actualización.
Para las organizaciones donde la escala global es una aspiración o requisito, construir sobre una base de Aurora DSQL los establece muy bien.
Expansión de características cero-ETL
AWS ha estado impulsando la visión “cero-ETL” durante un par de años, con la aspiración de hacer que los datos de mudanza entre los servicios especialmente diseñados sea lo más fácil posible. Un ejemplo sería mover datos transaccionales de una base de datos PostgreSQL que se ejecuta en Amazon Aurora a una base de datos diseñada para análisis a gran escala como Amazon Redshift.
Si bien ha habido un flujo relativamente continuo de nuevos anuncios en esta área, el final de 2024 y el comienzo de 2025 vieron una ráfaga que acompañó los nuevos servicios de AWS lanzados en Re: Invent.
Hay demasiados para hablar aquí en cualquier nivel de detalle que proporcione valor; Para obtener más información sobre todas las integraciones de ETL cero disponibles entre los servicios de AWS, visite la página dedicada de AWS cero-ETL.
Envolviendo esto, hemos cubierto cinco áreas relacionadas con los datos y la IA que AWS está innovando para facilitar la construcción, cultivar y racionalizar a las organizaciones. Todas estas áreas son relevantes para nuevas empresas pequeñas y en crecimiento, así como empresas de miles de millones de dólares. AWS y otros proveedores de servicios en la nube están allí para abstraer la complejidad y el trabajo pesado, dejándole concentrarse en construir la lógica de su negocio.