La adopción de herramientas de IA en el desarrollo de software ha seguido un patrón predecible: primero, desarrolladores individuales experimentan con prompts ad-hoc; después, algunos descubren técnicas particularmente efectivas; finalmente, surge la pregunta inevitable: ¿cómo compartimos lo que funciona?
La respuesta está en las instrucciones compartidas y curadas para equipos de software — una práctica que transforma el conocimiento disperso sobre cómo interactuar con la IA en un activo organizacional gestionado y mejorado continuamente.
Por qué el prompting individual no escala
Cuando cada miembro del equipo desarrolla sus propios prompts, se generan varios problemas:
Inconsistencia en resultados. Un desarrollador obtiene código bien estructurado mientras otro lucha con outputs de baja calidad, simplemente por diferencias en cómo formulan sus peticiones.
Duplicación de esfuerzo. Múltiples personas resuelven el mismo problema de comunicación con la IA, cada una invirtiendo tiempo que podría haberse ahorrado.
Pérdida de conocimiento. Cuando alguien descubre un prompt particularmente efectivo para revisar pull requests o generar tests, ese conocimiento queda aislado en su máquina local.
Curva de aprendizaje repetida. Cada nuevo miembro del equipo debe descubrir por sí mismo qué funciona y qué no.
El resultado: El 80% de los equipos usa IA de forma individual. Solo el 20% ha sistematizado el conocimiento colectivo sobre cómo usarla efectivamente.
La solución: instrucciones como código
El enfoque más directo para implementar instrucciones compartidas es tratarlas como tratamos cualquier otro artefacto de ingeniería: versionándolas en el repositorio del proyecto.
AGENTS.md: el estándar emergente
El archivo AGENTS.md se ha convertido en una convención adoptada por múltiples herramientas de AI-coding. Este archivo, ubicado en la raíz del proyecto, contiene instrucciones que las herramientas de IA leen automáticamente para contextualizar su comportamiento.
Un AGENTS.md efectivo típicamente incluye:
# Contexto del Proyecto
Este es un servicio de pagos escrito en Python 3.11 usando FastAPI.
Seguimos arquitectura hexagonal con puertos y adaptadores.
## Convenciones de código
- Usamos type hints en todas las funciones públicas
- Los tests siguen el patrón Arrange-Act-Assert
- Preferimos composición sobre herencia
## Patrones específicos
Al generar endpoints:
- Siempre incluir validación con Pydantic
- Implementar manejo de errores con HTTPException
- Documentar con docstrings compatibles con OpenAPI
## Qué evitar
- No usar ORMs; preferimos queries SQL explícitas
- No crear clases singleton
- Evitar imports circulares separando interfaces
Soporte en herramientas modernas
Las principales herramientas de AI-coding han adoptado mecanismos para instrucciones compartidas:
Cursor permite definir reglas en archivos .cursorrules y crear comandos slash personalizados que el equipo puede invocar consistentemente.
Windsurf soporta archivos de configuración que establecen el contexto del proyecto y guías de estilo que la IA respeta en sus sugerencias.
Claude Code lee automáticamente archivos como CLAUDE.md o AGENTS.md y permite configurar instrucciones a nivel de proyecto que persisten entre sesiones.
Más allá del código: instrucciones para todo el delivery
El valor de las instrucciones curadas se extiende a todas las actividades de entrega de software:
Revisión de código. Prompts estandarizados para que la IA revise PRs enfocándose en los criterios específicos del equipo: seguridad, rendimiento, adherencia a patrones arquitectónicos.
Documentación. Instrucciones que garantizan que la documentación generada siga el formato, tono y nivel de detalle que el proyecto requiere.
Testing. Prompts para generar casos de prueba que cubran los escenarios edge que históricamente han causado bugs en el proyecto.
Análisis de requisitos. Instrucciones para extraer historias de usuario o criterios de aceptación de conversaciones con stakeholders.
Bibliotecas de prompts organizacionales
Para tareas que no están vinculadas a un repositorio específico, las organizaciones pueden mantener bibliotecas centralizadas de prompts probados:
- Wikis internos con prompts categorizados por caso de uso
- Snippets compartidos en herramientas como Notion o Confluence
- Repositorios dedicados de prompts con ejemplos y resultados esperados
El ciclo de mejora continua
La verdadera ventaja de las instrucciones compartidas emerge cuando se establece un proceso de refinamiento:
- Contribución. Cualquier miembro del equipo puede proponer nuevas instrucciones o mejoras a las existentes.
- Revisión. Las propuestas pasan por el mismo proceso de revisión que el código, evaluando claridad, efectividad y alineación con estándares del equipo.
- Validación. Se prueban las instrucciones en escenarios reales antes de incorporarlas al conjunto principal.
- Distribución inmediata. Una vez mergeadas, todo el equipo tiene acceso instantáneo a las mejoras.
- Retroalimentación. Se recoge feedback sobre la efectividad de las instrucciones en uso.
El resultado: Un sistema que se vuelve más inteligente con cada iteración. El descubrimiento de un developer beneficia automáticamente a todo el equipo.
Implementación práctica: 4 semanas
Para equipos que quieren comenzar, este es el enfoque incremental que recomendamos:
Semana 1-2: Recolección
Pide a cada miembro del equipo que comparta los 3-5 prompts que más usa y mejores resultados le dan. No juzgues, solo recopila.
Semana 3: Consolidación
Agrupa los prompts por categoría, identifica patrones comunes y elimina redundancias. Busca los prompts que varios developers usan de forma similar.
Semana 4: Documentación inicial
Crea el primer AGENTS.md (o CLAUDE.md, según tu herramienta) con las instrucciones más universalmente útiles.
Mes 2+: Iteración
Establece un canal (Slack, Teams) donde el equipo comparte descubrimientos y propone mejoras. Revisa y actualiza las instrucciones cada 2 semanas.
El impacto en la productividad del equipo
Los equipos que adoptan instrucciones compartidas reportan beneficios tangibles:
- Reducción del tiempo de onboarding para nuevos miembros que heredan meses de aprendizaje colectivo
- Mayor consistencia en el código generado, reduciendo fricciones en revisiones
- Democratización del conocimiento — el junior con el mejor prompt para debugging ahora beneficia a todo el equipo
- Mejora acumulativa donde cada refinamiento eleva la línea base de todos
Caso real: equipo de 8 developers
Antes: Cada developer con sus propios prompts. Inconsistencia en código generado. Nuevos miembros tardaban 3+ semanas en ser productivos con IA.
Después: CLAUDE.md compartido + biblioteca de prompts en Notion. Código generado consistente. Onboarding con IA reducido a 3 días.
Resultado: +40% productividad del equipo en 6 semanas
Estructura recomendada para tu AGENTS.md
Basado en nuestra experiencia implementando esto en equipos, esta es la estructura que mejor funciona:
# AGENTS.md
## Contexto del proyecto
[Breve descripción: qué hace, stack, arquitectura]
## Convenciones de código
[Reglas que la IA debe seguir SIEMPRE]
## Patrones específicos
[Cómo generar endpoints, componentes, tests, etc.]
## Qué evitar
[Antipatterns, dependencias prohibidas, etc.]
## Ejemplos
[Código de referencia para que la IA entienda el estilo]
## Prompts frecuentes
[Templates para tareas comunes del proyecto]
Conclusión: de habilidad individual a capacidad organizacional
Las instrucciones compartidas y curadas representan la maduración natural del uso de IA en equipos de software. Así como hace años aprendimos a versionar configuraciones, pipelines y scripts de infraestructura, ahora incorporamos las instrucciones de IA como un artefacto más del proyecto.
El resultado es un multiplicador de productividad que crece con cada mejora que cualquier miembro del equipo aporta — transformando el prompting de una habilidad individual en una capacidad organizacional.
La pregunta no es si tu equipo usará IA. Es si el conocimiento sobre cómo usarla se quedará en silos individuales o se convertirá en un activo colectivo que mejora continuamente.