Este artículo describe una adaptación práctica del marco AI Native Development aplicada al desarrollo en AL para Dynamics 365 Business Central. No es una guía normativa; es un enfoque nacido de la experiencia en proyectos de innovación pensado para convertir la experimentación en prácticas de ingeniería repetibles y auditables.
Muy pronto compartiré el repositorio y proyecto público.
Muchos desarrolladores empezaron a interactuar con la IA de manera improvisada: lanzando prompts y esperando obtener buenos resultados. Este enfoque, que trata a menudo a la IA como una herramienta simple, resulta un obstáculo al diseñar sistemas eficientes. Cuando se requieren resultados consistentes y fiables para tareas complejas, la improvisación genera inconsistencia y dificulta la reproductibilidad.
Para resolver este problema surge AI Native Development: un enfoque sistemático que transforma la experimentación con IA en una práctica de ingeniería disciplinada. Este marco redefine el papel del desarrollador: en lugar de ser un supervisor manual de conversaciones con la IA, se convierte en un arquitecto proactivo de sistemas.
El objetivo es pasar de la supervisión manual de agentes a la delegación mediante ingeniería.
El propósito de este artículo es explicar de forma clara las tres capas que componen el framework —Ingeniería de Prompts en Markdown, Primitivas de Agente e Ingeniería de Contexto— para que los equipos puedan construir sistemas de IA robustos y fiables en AL.
La base del marco es la Ingeniería de Prompts en Markdown. En lugar de emitir peticiones ambiguas en lenguaje natural, se utiliza la estructura semántica de Markdown —encabezados, listas, énfasis y, de forma crucial, enlaces— para convertir el lenguaje natural en instrucciones estructuradas. Los enlaces no son solo referencias; son un mecanismo principal de carga de contexto, que permiten a la IA inyectar información relevante desde otros archivos directamente en su proceso de razonamiento.
El principal beneficio de este enfoque es que guía activamente el proceso cognitivo del modelo. En lugar de adivinar lo que se desea, el modelo sigue una arquitectura lógica, lo que produce resultados mucho más predecibles y consistentes.
Use MCP tool tool-name
permiten interacciones deterministas con herramientas externas.Aunque la ingeniería de prompts en Markdown es una técnica poderosa, aplicarla manualmente en cada tarea no es una práctica sostenible ni escalable. Esto nos lleva a la necesidad de la siguiente capa: Agents Primitive.
AI Native Development
Las Primitivas de Agente constituyen la capa de implementación: bloques configurables que aplican sistemáticamente las técnicas de prompt engineering. Piensa en ellas como librerías y módulos de configuración reutilizables en el desarrollo tradicional. Permiten componer sistemas de IA a partir de componentes modulares e interoperables.
Las primitivas encapsulan instrucciones, roles y flujos en archivos modulares que pueden invocarse de forma consistente.
Tipo de primitiva | Extensión / Archivo | Propósito |
---|---|---|
Flujos agénticos | .prompt.md |
Orquestan procesos end-to-end (ej. al-build , al-performance ) con gates humanos. |
Modos de chat | .chatmode.md |
Roles especializados (ej. al-architect , al-debugger ) con límites CAN/CANNOT. |
Archivos de instrucciones | .instructions.md |
Reglas persistentes y concisas (ej. al-code-style , al-naming-conventions ). |
Estas primitivas no son solo archivos; son la implementación concreta donde la Ingeniería de Prompts en Markdown (Capa 1) se estructura y la Ingeniería de Contexto (Capa 3) se ejecuta.
El gran beneficio es que transforman una solicitud habitual tipo prompting en un flujo de trabajo sistemático, auditable y con puntos de entrega claros. Convierten las mejores prácticas en activos de conocimiento reutilizables que mejoran con el tiempo, creando un sistema que garantiza resultados consistentes en todo un equipo.
Sin embargo, incluso las mejores primitivas pueden fallar si la IA se ve dispone información irrelevante. Esto nos lleva al desafío de gestionar la atención limitada del modelo, un problema que resuelve la tercera y última capa.
Los modelos de lenguaje grandes (LLMs) tienen una memoria de trabajo finita, conocida como «ventana de contexto». Si esta ventana se llena con información irrelevante, el rendimiento del modelo se degrada. La Ingeniería de Contexto es la gestión estratégica y sistemática de esta ventana para maximizar el rendimiento del agente.
Su objetivo es asegurar que la IA se enfoque exclusivamente en la información correcta en el momento correcto, preservando su valiosa atención. Aunque esta disciplina incluye técnicas avanzadas como la «División de Sesiones» (usar contextos frescos para tareas distintas), sus beneficios más inmediatos son:
.instructions.md
, donde el patrón applyTo
carga estratégicamente el contexto. Solo las guías relevantes para un tipo de archivo específico se cargan, ilustrando perfectamente cómo la Capa 2 implementa la estrategia de la Capa 3. Esto evita saturar la ventana de contexto y permite al modelo concentrar sus recursos en el problema actual.Ahora, veamos cómo estas tres capas se integran para formar un sistema cohesivo y potente.
Las tres capas —Ingeniería de Prompts en Markdown, Primitivas de Agente e Ingeniería de Contexto— no funcionan de forma aislada. Se combinan para crear Flujos de Trabajo Agénticos (Agentic Workflows) fiables, donde cada capa refuerza a las demás.
La fórmula que resume esta sinergia es simple pero potente:
Ingeniería de Prompts en Markdown + Primitivas de Agente + Ingeniería de Contexto = Fiabilidad
Este marco representa un cambio fundamental: permite a los desarrolladores pasar de una supervisión manual y reactiva a una arquitectura de sistemas proactiva. En lugar de gestionar conversaciones, se construyen configuraciones reutilizables que delegan de forma segura flujos de trabajo completos a los agentes. Esto crea una inteligencia compuesta: activos de conocimiento que mejoran con cada uso y escalan a través de toda la organización, transformando la IA de una herramienta experimental a un socio de ingeniería confiable.
El AI Native AL Development Toolkit es la implementación práctica de AI Native Development para proyectos en AL y Business Central. A continuación encontrarás un resumen operativo de la colección (28 primitivas) que explica qué incluye y cómo se organiza.
Sección | Contenido | Notas |
---|---|---|
![]() |
|
Autoaplicadas vía applyTo para optimizar Context Engineering. |
![]() |
|
Procesos .prompt.md invocables (ej. @workspace use [prompt-name] ) con gates humanos. |
![]() |
|
Cada modo tiene listas CAN/CANNOT como límites de seguridad. |
![]() |
copilot-instructions.md — Documento maestro con ejemplos y pautas. |
Guía central para orquestación de la colección. |
Total: 28 Agent Primitives (7 + 14 + 6 + 1) |
Cuando se implementa AI Native Development a través de este toolkit, los equipos idealmente obtienen:
Los agentes dejan de ser un «extra» prometedor cuando los tratamos como código: artefactos versionados, protocolos claros y validaciones automáticas. El AI Native AL Development Toolkit (AL Development Collection for GitHub Copilot) ofrece una ruta concreta para que los equipos que desarrollan en AL integren agentes de forma práctica y segura.
Aplicado con disciplina, este enfoque reduce tareas repetitivas, mejora la consistencia y la calidad del trabajo sin perder control operativo. No hay atajos; hay procesos que funcionan. Si se aplica con rigor, los agentes pasan de promesa a herramienta fiable dentro del ciclo de desarrollo.
Este texto recoge mi visión y adaptación práctica del framework AI Native Development al desarrollo en AL: el AI Native AL Development Toolkit. Está escrito desde la necesidad de convertir prácticas experimentales en procesos reproducibles y auditables. Considera este documento un punto de partida que puedes adaptar a la realidad y requisitos de tu organización.
Estas referencias recogen recursos y ejemplos sobre prácticas AI-native que han servido de inspiración para las ideas y convenciones presentadas en este toolkit.
Consultar las fuentes originales es recomendable para profundizar en la bibliografía y ejemplos prácticos.
Suscríbete al canal (anima y da ese empujón a todo esto).
Pulsa «like» si te ha gustado.
Si no quieres perderte nada, ya sabes, pulsa la campana.
En los comentarios déjame cualquier idea, duda, corrección o aportación. Todo será bien bienvenido.
Nota:
ES-El contenido de este artículo ha sido generado en parte con la ayuda de IA para revisión, orden o resumen.
El contenido, las ideas ,comentarios ,opiniones son totalmente humanas. Los posts pueden basarse o surge la idea de escribirse de otro contenido se referenciará ya sea oficial o de terceros.
Por supuesto ambas humana e IA pueden contener errores.
Te animo a que en los comentarios lo indiques, para más información accede a la página sobre responsabilidad AI del blog TechSphereDynamics.
EN-The content of this article has been generated in part with the help of IA for review order or summary.
The content, ideas, comments, opinions are entirely human. The posts can be based or arises the idea of writing another content will be referenced either official or third party.
Of course both human and IA can contain errors.
I encourage you to indicate in the comments, for more information go to the page on responsibility AI of the blog TechSphereDynamics.