Cuando trabajamos con agentes de IA en entornos profesionales, uno de los retos más habituales es garantizar que la interacción con el modelo sea coherente, segura y reutilizable. Aquí es donde entra el componente Prompt dentro del Model Context Protocol (MCP), un estándar que Microsoft está impulsando para estructurar la forma en que los sistemas se comunican con modelos de lenguaje (LLMs).
En términos prácticos, un Prompt en MCP es una plantilla estandarizada que define cómo formular una petición a un LLM. Esto incluye:
Ejemplo básico:
{
"name": "resumir-documento",
"description": "Genera un resumen profesional de un documento de entrada",
"arguments": [
{
"name": "idioma",
"description": "Idioma para el resumen",
"required": true
}
]
}
El valor real es que estos prompts se gestionan de forma centralizada, permitiendo:
Consistencia entre aplicaciones.
Mayor control y auditoría.
Experiencia de usuario simplificada.
Integración ágil y segura.
Gracias a MCP, los clientes pueden consultar un servidor para descubrir la lista de prompts disponibles mediante el endpoint estándar prompts/list, personalizarlos introduciendo los argumentos requeridos y ejecutar la interacción.
Esto habilita escenarios tan variados como:
Aquí es donde bajamos al terreno real. Imaginemos un escenario en Business Central utilizando un agente de IA integrado:
El usuario necesita analizar automáticamente la situación de los clientes en función de sus ventas.
Sin MCP y sin prompts estándar, cada partner tendría que implementar su propio flujo ad-hoc, con el riesgo de inconsistencias y falta de control.
Con MCP:
types.Prompt(
name="bc-smart-query",
title="Consulta Inteligente Business Central",
description="Asistente especializado para resolver preguntas específicas de negocio usando datos de BC",
arguments=[
types.PromptArgument(
name="business_question",
description="Pregunta de negocio que quieres resolver (requerido)",
required=True,
),
types.PromptArgument(
name="data_context",
description="Contexto adicional, filtros específicos o restricciones",
required=False,
),
],
)
y wow… Mira el video con todo en marcha ¿que os parece?
Desde el punto de vista de IT:
Para el consultor funcional:
Definir roles claros (por ejemplo, “Como auditor de calidad…”).
Objetivos específicos y contextos bien descritos.
Formatos de salida claros: listas, tablas, texto estructurado.
Modularización de flujos complejos en prompts secuenciales.
El componente Prompt dentro de MCP no es solo una cuestión técnica, sino una verdadera oportunidad para estandarizar, gobernar y escalar la forma en que las aplicaciones de negocio —como Business Central, Sales o cualquier otra dentro de Dynamics 365— interactúan con la IA.
A medida que el ecosistema Microsoft avanza hacia una orquestación más sofisticada de agentes y flujos de trabajo, comprender y adoptar prácticas como la definición de prompts en MCP será clave para cualquier equipo que busque eficiencia, control y seguridad en entornos productivos.
De momento en Copilot Studio solo podemos usar tools expuestas en MCP Servers.
Suscríbete al canal (anima y da ese empujón a todo esto).
Pulsa «like» si te ha gustado.
Si no quieres perderte nada, ya sabes, pulsa la campana.
En los comentarios déjame cualquier idea, duda, corrección o aportación. Todo será bien bienvenido.
Nota: El contenido de este artículo ha sido generado con la ayuda de IA, para más información accede a la pagina sobre responsabilidad AI del blog