Blog de comunicación

Qué significa estudiar Ciencias de la Comunicación hoy: inteligencia artificial en el centro

La pregunta ya no es solo “qué se comunica”, sino “con qué infraestructuras, reglas y efectos”. 

IA en la comunicacion

Estudiar Ciencias de la Comunicación hoy implica comprender cómo se produce sentido en un entorno donde plataformas, datos e inteligencia artificial median la cultura, la información y las instituciones.

La IA no es un “tema” más del campo: reconfigura circuitos de producción, circulación y validación de mensajes.

Por eso, para decidir si conviene estudiar Ciencias de la Comunicación en el presente, resulta útil mirar qué problemas nuevos aparecen, cuáles se vuelven más complejos y qué aporta una formación comunicacional para abordarlos. 

Ciencias de la Comunicación: objeto de estudio y modo de mirar

Las Ciencias de la Comunicación estudian procesos sociales de producción de sentido: cómo se crean, distribuyen y disputan significados en contextos culturales, políticos, económicos y tecnológicos.

Su objeto no se reduce a medios o “contenidos”; incluye prácticas (informarse, entretenerse, persuadir, narrar, coordinar), instituciones (medios, organizaciones, Estado, plataformas) y lenguajes (audiovisual, sonoro, escrito, visual, interactivo). 

IA en comunicacion

Esa amplitud importa especialmente en la era de la IA porque la comunicación dejó de ser un flujo lineal emisor–mensaje–receptor. Hoy es un entramado donde intervienen algoritmos de recomendación, modelos de lenguaje, métricas de atención, mercados publicitarios automatizados y sistemas de moderación.

Cambian los intermediarios y, con ellos, cambian las condiciones de visibilidad, credibilidad y alcance. 

En ese marco, la formación comunicacional aporta tres movimientos intelectuales que ganan valor: 

  1. Definir el problema antes de medirlo (qué se entiende por “información”, “desinformación”, “influencia”, “comunidad”, “reputación”). 
  2. Relacionar técnica y cultura (cómo una decisión de diseño o de negocio se traduce en hábitos, narrativas y poder). 
  3. Evaluar efectos (quién se beneficia, quién queda expuesto, qué se invisibiliza, qué se normaliza).

La inteligencia artificial como infraestructura comunicacional

La expansión de la IA —y en particular de la IA generativa— introduce un cambio cualitativo: ya no solo ordena lo existente, también produce texto, imagen, audio y video a escala. Esto desplaza el centro de gravedad desde la “publicación” hacia la automatización de la producción simbólica. 

IA Generativa

Agustina Lassi argumenta en “Inteligencia Artificial Generativa integrada al ecosistema digital: Un marco de situación para la gubernamentalidad algorítmica” (2025) que la integración de modelos de lenguaje a plataformas altera cómo se produce y utiliza contenido, cómo se busca información y cómo se gestionan perfiles, abriendo una etapa de mayor personalización y concentración de capacidades.

Esta descripción es clave para entender por qué la IA debe pensarse como infraestructura: no actúa “después” de la comunicación, sino en el corazón de su funcionamiento. 

La discusión pública simplifica la IA como una herramienta neutral (“te ayuda a escribir”, “te edita un video”).

El punto crítico es otro: en comunicación, las herramientas no solo facilitan tareas; redefinen estándares (qué se considera una buena pieza), condicionan géneros (qué formatos se vuelven dominantes) y modifican economías de atención (qué circula y por qué). 

De la producción de contenidos a la gobernanza algorítmica

Poner la IA en el centro no implica reducir la comunicación a tecnología. Implica reconocer que lo comunicacional se juega también en: 

  • Curación y recomendación (qué aparece primero, qué se vuelve tendencia, qué se sugiere). 
  • Automatización de decisiones (segmentación, targeting, detección de “riesgos”, moderación). 
  • Estandarización de estilos (plantillas discursivas, estética “promedio”, tono corporativo). 

En “Alteritmo y periodismo-otro en la cultura del algoritmo: Aportes de la filosofía y el comparatismo literario ante la hegemonía de los lenguajes sintéticos” (2023), David Vidal Castell y coautoras proponen una crítica a la hegemonía de lenguajes “sintéticos” y discuten la tensión entre lo determinable (lo registrable, lo que entra como dato) y dimensiones humanas menos computables (ambigüedad, apertura, polifonía). 

https://www.youtube.com/watch?v=s-TvhhRfV6U&t=122s&pp=ygUTaWEgZW4gbGEgcHVibGljaWRhZA%3D%3D

En términos de formación, esto se traduce en una pregunta guía: ¿qué se pierde cuando la cultura se optimiza para ser procesada por sistemas automáticos? 

Para Uruguay, este punto es especialmente relevante por el tamaño del ecosistema mediático y publicitario y por la dependencia de infraestructuras globales: decisiones de plataformas y proveedores de IA pueden tener efectos desproporcionados sobre visibilidad de agendas, circulación de piezas audiovisuales y sostenibilidad de proyectos culturales, aun cuando se produzcan localmente. 

Nuevas preguntas éticas: veracidad, autoría y responsabilidad

La IA generativa amplifica dilemas clásicos del campo —verdad, manipulación, persuasión, propaganda— y suma otros: atribución de autoría, trazabilidad de fuentes, derechos sobre datos de entrenamiento y responsabilidades por daños. 

En “Implicancias éticas de la inteligencia artificial: Tecnologías y producción de noticias” (2022), Agustina Lassi analiza desafíos éticos de la aplicación de IA en redacciones: no se trata solo de eficiencia, sino de criterios editoriales, transparencia y riesgos de sesgo.

Los resultados pueden ser opacos incluso para quienes los operan.

Esto conecta con una preocupación más amplia. Cuando la producción y distribución se automatizan, la rendición de cuentas se vuelve más difícil.

https://youtu.be/VqFqWIqOB1g?si=W1h2-K4Utca6GP4O

A nivel de marcos internacionales, la recomendación “Ethics of Artificial Intelligence” (UNESCO, 2021) establece un enfoque basado en derechos humanos y subraya valores como transparencia, equidad y supervisión humana, precisamente para evitar que sistemas automatizados profundicen desigualdades o dañen bienes públicos como la confianza informativa. 

En el plano educativo y de capacidades, la guía “Guidance for generative AI in education and research” (UNESCO, 2023) propone un enfoque centrado en lo humano y sugiere medidas como protección de datos y criterios de uso adecuados por edad y contexto. Aunque se dirige a educación e investigación, sus principios son transferibles a la comunicación.

Sin reglas claras de uso, el costo se paga en calidad deliberativa, privacidad y autonomía. 

Por último, UNESCO advierte en “AI can make mistakes: Why media literacy matters more than ever” (UNESCO, 2025) sobre un rasgo crítico de los modelos generativos: pueden producir errores plausibles y convincentes, y esa verosimilitud puede erosionar la confianza pública cuando lo falso circula con apariencia profesional. Para comunicación, esto implica un giro: la alfabetización mediática deja de ser un complemento y pasa a ser una condición de ciudadanía. 

Riesgos estructurales: desinformación a escala y concentración

La IA no solo crea piezas falsas: reduce el costo de producirlas, segmentarlas y testear qué funciona. El problema no es únicamente “que existan deepfakes”, sino que se vuelve viable una industrialización de la persuasión. 

El informe “Initial policy considerations for generative artificial intelligence” (OCDE, 2023) describe riesgos como la ampliación de la desinformación, la reproducción de sesgos, incertidumbres de copyright y posibles impactos laborales.

https://youtu.be/B4jNttRvbpU?si=YuecAbwGavQ276ZX

En términos de gobernanza, el marco “OECD AI Principles overview” (OCDE, 2024) sintetiza principios de IA confiable (derechos, transparencia, robustez, rendición de cuentas) y recomendaciones para políticas públicas.

El campo busca perfiles con capacidad para diseñar y auditar decisiones comunicacionales en contextos automatizados.

En comunicación, estos principios se traducen en prácticas: etiquetado de contenido sintético, trazabilidad de fuentes, protocolos de corrección, evaluación de impacto y criterios de explicabilidad cuando se usan sistemas automáticos para moderar o recomendar. 

Entonces, ¿conviene estudiar Ciencias de la Comunicación hoy?

Conviene si la motivación no es “aprender a usar herramientas” —eso cambia demasiado rápido—, sino adquirir una capacidad estable: entender cómo la sociedad produce sentido bajo condiciones tecnológicas cambiantes, y cómo intervenir de manera responsable. 

https://youtu.be/bRoupevGxTI?si=hayJl9x_OgGKDkcJ

La IA revaloriza, paradójicamente, componentes humanísticos y críticos del campo. A medida que lo automático gana escala, se vuelve más valioso: 

  • Formular buenas preguntas (no solo generar respuestas), 
  • Verificar, contextualizar y atribuir, 
  • Comprender audiencias más allá de métricas, 
  • Sostener criterios éticos y editoriales frente a incentivos de velocidad, 
  • Construir relatos y experiencias con intención cultural (no solo optimizadas para performance). 

En otras palabras: si la IA produce “mucho”, la ventaja competitiva y pública pasa por producir mejor en sentido social: con evidencia, con contexto, con responsabilidad. 

Cómo decidir, en la práctica, si es para vos 

Tres criterios orientadores, útiles para quienes hoy están buscando si “vale la pena”: 

  1. Interés por problemas, no por formatos. Si te interesa por qué ciertas narrativas dominan, cómo se construye credibilidad o cómo se disputa agenda, Comunicación sigue siendo un campo fértil, aun si cambian plataformas y lenguajes. 
  2. Comodidad con lo híbrido. La frontera entre creación, análisis y gestión se mezcla: se trabaja con datos, con guiones, con métricas, con audiencias, con marcos normativos y con herramientas de IA. 
  3. Sensibilidad por el impacto social. La IA intensifica efectos: un error, un sesgo o una manipulación pueden escalar. Tener criterio para anticipar consecuencias y diseñar mitigaciones se vuelve central. 

Si estos ejes te resultan atractivos, estudiar Comunicación hoy no es estudiar “lo mismo con una app nueva".

Es entrar a un campo donde se discute —con herramientas conceptuales y metodológicas— cómo se organiza la vida pública cuando la producción simbólica se automatiza.

Solicitá más información

¿Qué querés estudiar?

Miembro de:

  • Logo de Felafacs
  • Logo de IAB