Buscamos un perfil AI Engineer que quiera desarrollar su carrera profesional en la vanguardia de la IA Generativa, construyendo agentes inteligentes en un entorno corporativo de primer nivel.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada formará parte del equipo de desarrollo principal, con la misión de implementar la lógica de razonamiento de los agentes, el uso de herramientas (tools) y la memoria conversacional. Junto al Arquitecto, el AI Engineer deberá desarrollar librerías y componentes que permitan la industrialización de estos modelos, pasando de la experimentación a la producción mediante prácticas de LLMOps sobre AWS. Será imprescindible contar con un background técnico en programación (Python) y familiaridad con frameworks modernos de GenAI.
PROYECTO & EQUIPO
El proyecto persigue la creación de asistentes virtuales complejos capaces de ejecutar acciones transaccionales y consultar bases de conocimiento corporativas. Se utilizarán tecnologías como AWS Bedrock, OpenAI, LangChain y bases de datos vectoriales.
Para el éxito del proyecto, resulta imprescindible contar con ingenieros que puedan escribir código de producción (no solo notebooks), implementar tests de evaluación (evals) y optimizar prompts. El equipo incluye expertos en RAG y Backend, y contará con la supervisión técnica del Arquitecto de Soluciones.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con 3-4 años de experiencia en desarrollo de software o Data Science, con exposición reciente y profunda a proyectos de IA Generativa. Deberá ser capaz de construir aplicaciones end-to-end basadas en LLMs.
Se valorará experiencia previa en la puesta en producción de modelos y conocimientos de infraestructura necesaria para servir modelos (Docker, APIs, Serverless).
Será necesario tener experiencia previa con tecnologías:
GenAI Frameworks: LangChain, LangGraph, LlamaIndex, AutoGen
Modelos: OpenAI (GPT-4), AWS Bedrock (Claude, Llama), Hugging Face
Desarrollo: Python Avanzado (FastAPI, Pydantic), Docker
Vector DBs: Pinecone, Milvus, Weaviate
Además se valorará positivamente contar con experiencia o conocimientos en:
LLMOps: Prompt Engineering avanzado, RAGAS (Evaluación), Tracing (LangSmith)
AWS AI: SageMaker, AWS Lambda
DevOps: Conocimientos básicos de CI/CD y despliegue en nube AWS
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).