Las 10 cosas que nunca hay que hacer cuando usás la IA

Roberto Perez - Gerente Creativo en Ciudad Bótica
Roberto Perez - Gerente Creativo en Ciudad Bótica
Las 10 cosas que nunca hay que hacer cuando usás la IA

La calidad de los resultados generados por modelos de lenguaje como GPT-4, Claude, Copilot, Gemini, DeepSeek o el que más te guste, depende en gran medida de cómo formulamos nuestras instrucciones: los queridos prompts. Sin embargo, incluso muchos usuarios con experiencia técnica suelen caer en trampas frecuentes que limitan el potencial de estas herramientas. Estos son los fallos más comunes (y sus soluciones), explicados con todo cariño.

1. Falta de especificidad: el enemigo de la precisión

Un prompt vago como “Haz un resumen sobre cambio climático” obliga al modelo a adivinar el enfoque. ¿Para qué audiencia? ¿Qué extensión? ¿Qué aspectos priorizar? La solución: acotar. Por ejemplo: “Genera un resumen de 300 palabras sobre el impacto económico del deshielo polar, dirigido a estudiantes de secundaria, usando ejemplos concretos post-2020”.

2. Ignorar el contexto: diálogos en el vacío

Los modelos no retienen memoria entre interacciones a menos que se les provea contexto explícito. Un error frecuente es asumir que la IA “recuerda”. Siempre estructurá tus conversaciones como hilos autocontenidos.

3. Sobrecarga de instrucciones: el caos de la multitarea

Pedir: “Compara Python y Java, luego escribí un poema sobre chatbots y traducilo al francés” confunde al modelo. Mejor: dividí la tarea en pasos.

4. Olvidar el formato de salida

Si no decís cómo querés el resultado, puede que obtengas algo útil… o un texto difícil de leer. Por ejemplo: “Organizá los avances en robótica 2023 en una tabla con columnas: Tecnología, Aplicación práctica y Empresas líderes”.

5. Asumir conocimiento previo

Si estás trabajando en un nicho muy específico, agregá contexto. Decir “Diseñá un circuito cuántico para Walmart” sin referencias puede no dar resultado útil.

6. No establecer restricciones

Un prompt abierto como “Explicá la ética en IA” puede derivar en divagaciones. Mejor: “Enumera 5 dilemas éticos concretos en el uso de reconocimiento facial, con ejemplos actuales y soluciones propuestas”.

7. Prompts sesgados o leading questions

Evitá preguntas como “¿Por qué los coches eléctricos son insostenibles?“. Mejor: “Analizá pros y contras ambientales de los vehículos eléctricos, citando estudios entre 2018–2023”.

8. Ignorar iteraciones

No hay prompt perfecto en un solo intento. Probá, ajustá y pedí versiones mejoradas.

9. Subestimar la definición de roles

Asignar un rol al modelo (“Actuá como un CTO explicando blockchain a inversores”) mejora la calidad del output.

10. Jerga inconsistente

Adaptá el lenguaje al público. Ni demasiado técnico para no técnicos, ni demasiado simple para expertos.


Conclusión

La ingeniería de prompts es una habilidad estratégica. Como dijo Andrej Karpathy: “El mejor programador del futuro no será el que más código escriba, sino el que mejor dialogue con la IA”. Dominá esto, y vas a tener una ventaja real en cualquier entorno digital.