<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Presentadores de noticias robots archivos - MIL Magazine</title>
	<atom:link href="https://milmagazine.org/etiqueta/presentadores-de-noticias-robots/feed/" rel="self" type="application/rss+xml" />
	<link>https://milmagazine.org/etiqueta/presentadores-de-noticias-robots/</link>
	<description>Advancing Media, Information and Critical Thinking</description>
	<lastBuildDate>Mon, 14 Jun 2021 10:44:31 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.5</generator>

<image>
	<url>https://milmagazine.org/wp-content/uploads/2024/07/favicon-MIL-Magazine-130x130.png</url>
	<title>Presentadores de noticias robots archivos - MIL Magazine</title>
	<link>https://milmagazine.org/etiqueta/presentadores-de-noticias-robots/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Cristina Pulido: “Los asistentes y presentadores virtuales en el periodismo tienen como meta superar el Test de Turing”</title>
		<link>https://milmagazine.org/news/asistentes-y-presentadores-virtuales-en-periodismo-buscan-superar-el-test-de-turing/</link>
					<comments>https://milmagazine.org/news/asistentes-y-presentadores-virtuales-en-periodismo-buscan-superar-el-test-de-turing/#respond</comments>
		
		<dc:creator><![CDATA[Alejandra Avendaño Alvarado]]></dc:creator>
		<pubDate>Sun, 13 Jun 2021 08:05:00 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Asistentes virtuales en periodismo]]></category>
		<category><![CDATA[Inteligencia Artificial en periodismo]]></category>
		<category><![CDATA[Presentadores de noticias robots]]></category>
		<category><![CDATA[SeminarioOI2 IA aplicada a los Informativos]]></category>
		<category><![CDATA[Starred]]></category>
		<guid isPermaLink="false">http://www.aikaeducacion.com/?p=14530</guid>

					<description><![CDATA[<p>El uso de asistentes por voz y narradores de noticias robots en los medios de comunicación es la última de las investigaciones de la Cátedra RTVE-UAB (Radio Televisión Española-Universidad Autónoma de Barcelona) y el Observatorio para la Innovación de los Informativos en la Sociedad Digital (OI2). El “Informe V: Asistentes y Presentadores Virtuales en el [&#8230;]</p>
<p>La entrada <a href="https://milmagazine.org/news/asistentes-y-presentadores-virtuales-en-periodismo-buscan-superar-el-test-de-turing/">Cristina Pulido: “Los asistentes y presentadores virtuales en el periodismo tienen como meta superar el Test de Turing”</a> se publicó primero en <a href="https://milmagazine.org">MIL Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list"><li><strong><em>El uso de asistentes por voz y narradores de noticias robots en los medios de comunicación es la última de las investigaciones de la Cátedra RTVE-UAB (Radio Televisión Española-Universidad Autónoma de Barcelona) y el <a href="http://oi2media.es/" target="_blank" rel="noreferrer noopener">Observatorio para la Innovación de los Informativos en la Sociedad Digital (OI2)</a>.</em></strong></li><li><strong><em><em>El “Informe V: Asistentes y Presentadores Virtuales en el Periodismo”</em></em> forma parte de un compendio investigativo centrado en el uso de la Inteligencia Artificial (IA) en el sector periodístico.</strong></li><li><strong><em>La investigación, que analiza el uso de voces sintéticas y avatares  virtuales para la narración de noticias en medios globales</em></strong>, <strong><em>cada vez más los asistentes por voz y los presentadores virtuales se asemejan a los periodistas de carne y hueso.</em></strong></li></ul>



<p>El auditorio de la Real Academia de Ingeniería (<a href="http://www.raing.es/es">RAING</a>) en Madrid se convirtió en el emblemático escenario para presentar el último informe desarrollado bajo el marco del OI2 el pasado 10 de junio. Y es que la elección da una muestra clara del enfoque tecnológico e interdisciplinario que caracteriza a la investigación desarrollada por la alianza académica-profesional entre <a href="https://www.rtve.es/rtve/20200427/rtve-universidad-autonoma-barcelona-renuevan-compromiso-innovacion/2012819.shtml">RTVE y el Gabinete de Comunicación y Educación de la UAB</a>.</p>



<p>A modo de mesa redonda, la actividad se inició con la participación de Francisco Fernández Medina, profesor de la Pontificia Universidad Católica de Chile (PUC), quien en rol de moderador presentó una mirada positiva respecto al referido estudio, indicando que estas nuevas tecnologías aún tienen mucho camino por avanzar, lo que da un espacio para enfrentar con optimismo los cambios que se avecinan.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="791" height="1024" src="https://milmagazine.org/wp-content/uploads/2021/06/informe_5_UABRTVE-Asistentes-y-Presentadores-Virtuales-en-el-Periodismo-791x1024.jpg" alt="" class="wp-image-14531" srcset="https://milmagazine.org/wp-content/uploads/2021/06/informe_5_UABRTVE-Asistentes-y-Presentadores-Virtuales-en-el-Periodismo-791x1024.jpg 791w, https://milmagazine.org/wp-content/uploads/2021/06/informe_5_UABRTVE-Asistentes-y-Presentadores-Virtuales-en-el-Periodismo-232x300.jpg 232w, https://milmagazine.org/wp-content/uploads/2021/06/informe_5_UABRTVE-Asistentes-y-Presentadores-Virtuales-en-el-Periodismo-768x994.jpg 768w, https://milmagazine.org/wp-content/uploads/2021/06/informe_5_UABRTVE-Asistentes-y-Presentadores-Virtuales-en-el-Periodismo.jpg 927w" sizes="(max-width: 791px) 100vw, 791px" /><figcaption>Carátula del Informe 5: Asistentes y Presentadores Virtuales en el Periodismo</figcaption></figure>



<p><strong>Humanos y robots: Medios de comunicación crean equipos híbridos</strong></p>



<p>Por su parte, Cristina Pulido, profesora Serra Hunter del Departamento de Periodismo de la UAB, presentó los resultados del informe, destacando su carácter exclusivo; en el sentido de ser el único que agrupa a la mayoría de las tecnologías, antecedentes, casos de éxito, medios y empresas involucradas en el desarrollo de proyectos y tecnologías de asistentes por voz y presentadores virtuales en el campo periodístico a nivel global.</p>



<p>Como coautora del informe, Pulido Rodríguez, resaltó que una de las principales conclusiones a la que llegaron con esta investigación es que tanto los asistentes por voz como los presentadores virtuales tienen como meta superar el Test de Turing, lo que se logra cuando la máquina imita el comportamiento humano en su interacción con personas, hasta el punto de que estos últimos no saben si interactúan con un robot o un semejante.</p>



<figure class="wp-block-pullquote"><blockquote><p>&#8220;Existe la interrogante de si estos robots nos reemplazarán o complementarán &#8230; en la actualidad los grandes medios de comunicación están introduciendo equipos híbridos de humanos junto a asistentes virtuales para desarrollar y aprovechar estas tecnologías a favor de los medios de comunicación&#8221;.</p><cite>Cristina Pulido Rodríguez, profesora Serra Hunter del Departamento de Periodismo de la UAB</cite></blockquote></figure>



<p>Cristina Pulido, enfatizó en la importancia de contar con más antecedentes académicos centrados en los efectos de estas tecnologías en la interacción con las personas, la necesidad de producir nuevos modelos teóricos de la comunicación que mire a estas tecnologías no solo como canales de comunicación sino como sujetos comunicativos.</p>



<p>Además, remarcó la necesidad de alimentar una base de datos para hispanohablantes con diversas variantes del idioma castellano; y de romper con la opacidad con la que las plataformas de asistentes por voz gestionan los datos de sus audiencias.</p>



<p><strong>Superar la carencia de datasets en español</strong><strong></strong></p>



<p>Nieves Ábalos, fundadora de Monoceros Labs, compañía especializada en el desarrollo de voces sintéticas e involucrada en el proyecto de asistentes de voz ejecutado actualmente por RTVE, participó de esta mesa redonda, como parte de uno de los casos de éxito desarrollados en el Informe de Asistentes y Presentadores Virtuales.</p>



<p>Ábalos Serrano destacó algunos aspectos de las tecnologías de asistentes por voz, como la instantaneidad o información en cualquier momento, lo que se traduce como una ventaja para brindar nuevos contenidos a la audiencia “bajo demanda” y su capacidad de personalización en función de los intereses del usuario y la ventaja de llegar de forma más cercana al amparo de la voz.</p>



<figure class="wp-block-pullquote"><blockquote><p>&#8220;Es super importante el idioma en el que se trabaja, porque no es lo mismo un modelo que reconozca la voz de un español que un angloparlante &#8230; esto significa superar la carencia de datasets en español para poder modelarlos de acuerdo a la audiencia local y llegar de forma satisfactoria a la última fase de este tipo de proyectos que es la generación de respuesta y síntesis de voz&#8221;.</p><cite>Nieves Ábalos Serrano, cofundadora de Monoceros Lab.</cite></blockquote></figure>



<p>Carlos Muñoz-Romero, también fundador de @MonocerosLabs, profundizó un poco en el desarrollo de esta tecnología mencionando algunos de los retos que enfrentan, por ejemplo el trabajo con textos largos, que implica mayor trabajo para superar voces robóticas monótonas o difíciles de escuchar “si queremos que el contenido usado por los asistentes por voz sea agradable necesitamos trabajar lo tecnológico”, manifestó.</p>



<p>Respecto a la carencia de datasets en español, Muñoz-Romero expresó que pese a que el idioma español es uno de los más hablados en el mundo falta aún más variedad de este tipo de voces en castellano. En este sentido, el ejecutivo anunció que posiblemente el año que viene vendrán nuevas voces sintéticas capaces de expresar más emotividad, lo que ya existe en el mercado estadounidense. El cofundador de Monoceros compartió el ejemplo de los asistentes por voz de Alexa que cuentan con voces sintéticas capaces de expresar emotividad y las voces artificiales de presentadores de noticias con variaciones y entonación de voz.</p>



<p><strong>Se requiere investigación y equipos interdisciplinares</strong><strong></strong></p>



<p>La mesa concluyó con la participación de Pere Buhigas, director de RTVE Cataluña, respecto a esta investigación, destacando los casos de proyectos de voces sintéticas y avatares artificiales de periodistas desarrollados en el continente asiático por su alto nivel realista; al igual que los modelos propuestos por Europa y Norteamérica, que también registran una trayectoria en la generación de asistentes por voz e imagen para medios de comunicación.</p>



<p>Valiéndose de la presentación de varios de los presentadores virtuales existentes, se concluyó en la evolución de estos modelos robóticos hacia gemelos digitales de los periodistas humanos, cada vez más semejantes a estos últimos. Sin embargo, Pere Buhigas cree que los periodistas no deben sentirse amenazados por estas tecnologías.</p>



<figure class="wp-block-pullquote"><blockquote><p>&#8220;Los profesionales de comunicación y los medios se enfrentan al desarrollo imparable de la IA, por lo que investigar sobre una tecnología al servicio de la comunicación nos permitirá ampliar horizontes y reflexionar sobre aquellas rutinas dentro del entorno periodístico&#8221;.</p><cite>Pere Buhigas, director de RTVE Cataluña.</cite></blockquote></figure>



<p>De otro lado, Pere Buhigas opinó que si bien los robots no sustituirán a los presentadores humanos, estos avatares digitales si pueden complementarlos en la lectura de noticias repetitivas o tareas; mientras que los periodistas de carne y hueso pueden enfocarse a labores más creativas de producción periodística.</p>



<p>Finalmente, el director de RTVE Cataluña concluyó que aunque no se sabe la recepción que tendrán los periodistas robots de cara a las audiencias, son parte de un futuro inevitable dentro del sector de medios, que requiere la actuación de equipos interdisciplinares para su acoplamiento en los medios de comunicación.</p>



<p><strong><u>Datos adicionales</u></strong></p>



<ul class="wp-block-list"><li><em>Los interesados en leer el “Informe 5: Asistentes y Presentadores Virtuales en el Periodismo” pueden descargarlo en el <a href="http://www.gabinetecomunicacionyeducacion.com/es/noticias/oi2-dedica-su-quinto-informe-de-investigacion-sobre-ia-y-periodismo-los-presentadores">website</a> del Gabinete de Comunicación y Educación de la UAB.</em></li><li><em>El Informe 5: Asistentes y Presentadores Virtuales en el Periodismo cuenta como autores de parte de la Universidad Autónoma de Barcelona a Santiago Tejedor Calvo, Cristina Pulido Rodríguez, M. Alejandra Avendaño Alvarado, Laura Cervi y Diana Sanjinés; y por lado de Radio Televisión Española figuran Pere Vila, Pere Buhigas, Carmen Pérez, Esteban Mayoral y Pedro Cánovas.</em></li><li><em>El Informe 5 forma parte de una serie de investigaciones desarrolladas por el OI2, siendo precedidas por los siguientes informes: 1) Detección de noticias a través de aplicaciones de inteligencia artificial, 2) Generación automática de textos periodísticos, 3) Personalización de contenidos en medios audiovisuales, y el último 4) Contra la desinformación: estrategias y herramientas.</em></li><li>Este informe fue presentado en el Seminario OI2 sobre Inteligencia Artificial (IA) aplicada a los informativos, junto a la <a href="https://milmagazine.org/destacados/automatizacion-y-la-virtualizacion-son-claves-en-la-aplicacion-de-inteligenciaartificial-en-los-informativos/">presentación del libro </a>del mismo nombre, que sintetiza todas las investigaciones desarrolladas por la Cátedra RTVE-UAB y el OI2.</li><li>El portal <a href="https://milmagazine.org/">AIKA Educación</a> forma parte del Gabinete de Comunicación y Educación de la UAB.</li></ul>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Seminario sobre inteligencia artificial (IA) aplicada a los informativos" width="1320" height="743" src="https://www.youtube.com/embed/X_lsyHmuuLg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption><strong>Video del Seminario OI2: Inteligencia Artificial aplicada a los Informativos</strong></figcaption></figure>
<p>La entrada <a href="https://milmagazine.org/news/asistentes-y-presentadores-virtuales-en-periodismo-buscan-superar-el-test-de-turing/">Cristina Pulido: “Los asistentes y presentadores virtuales en el periodismo tienen como meta superar el Test de Turing”</a> se publicó primero en <a href="https://milmagazine.org">MIL Magazine</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://milmagazine.org/news/asistentes-y-presentadores-virtuales-en-periodismo-buscan-superar-el-test-de-turing/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Periodistas robots: Inteligencia Artificial y los nuevos presentadores de TV sintéticos</title>
		<link>https://milmagazine.org/en-profundidad/periodistas-robots-ia-y-presentadores-sinteticos/</link>
					<comments>https://milmagazine.org/en-profundidad/periodistas-robots-ia-y-presentadores-sinteticos/#respond</comments>
		
		<dc:creator><![CDATA[Alejandra Avendaño Alvarado]]></dc:creator>
		<pubDate>Mon, 22 Feb 2021 11:30:00 +0000</pubDate>
				<category><![CDATA[En profundidad]]></category>
		<category><![CDATA[Focus]]></category>
		<category><![CDATA[Asistentes virtuales periodistas]]></category>
		<category><![CDATA[IA y asistentes virtuales]]></category>
		<category><![CDATA[Narradores de noticias IA]]></category>
		<category><![CDATA[Presentadores de noticias robots]]></category>
		<category><![CDATA[Robots periodistas]]></category>
		<category><![CDATA[Starred]]></category>
		<guid isPermaLink="false">http://www.aikaeducacion.com/?p=13149</guid>

					<description><![CDATA[<p>Cuando Kim Ju-ha, la conductora del programa informativo del canal de cable surcoreano Maeil Broadcasting Network (MBN), presentó a su compañera de labores, Joo-an Him, quien además era una réplica suya desarrollada con inteligencia artificial (IA), ni sus demás colegas ni la propia audiencia cabían en su asombro al ver tanta semejanza entre la periodista [&#8230;]</p>
<p>La entrada <a href="https://milmagazine.org/en-profundidad/periodistas-robots-ia-y-presentadores-sinteticos/">Periodistas robots: Inteligencia Artificial y los nuevos presentadores de TV sintéticos</a> se publicó primero en <a href="https://milmagazine.org">MIL Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Cuando Kim Ju-ha, la conductora del programa informativo del canal de cable surcoreano Maeil Broadcasting Network (<a href="https://www.mbn.co.kr/">MBN</a>), presentó a su compañera de labores, Joo-an Him, quien además era una réplica suya desarrollada con inteligencia artificial (IA), ni sus demás colegas ni la propia audiencia cabían en su asombro al ver tanta semejanza entre la periodista de carne y hueso y la presentadora sintética al otro lado de la pantalla. Además del parecido físico, el sonido de la voz y un fino toque de ironía justificaron ese estupor entre quienes presenciaron la conversación entre ambas aquel 06 de noviembre del 2020.</p>



<p>La presentación de esta asistente virtual con funciones de narradora televisiva fue uno de los lanzamientos más emblemáticos de este tipo de robots que no solo destacó por su mediática profesión sino por las características tecnológicas alcanzadas por la inteligencia artificial y el aprendizaje profundo que le permiten leer hasta mil palabras por minuto y alcanzar un nivel de realismo cercano al cien por ciento. Y es que salvo algunos detalles como una entonación plana, movimiento de la boca ligeramente asincrónico o cierta rigidez en sus movimientos, un televidente distraído podría no notar si fue el robot o la persona quien le leyó las noticias. </p>



<p>Apenas se necesitaron diez horas de visualización de videos de la presentadora humana para alcanzar ese resultado, indicaron sus desarrolladores, la fabricante de inteligencia artificial <a href="https://www.moneybrain.com/">Money Brain</a> y el canal MBN. Para este proyecto IA se tomaron notas de la voz de de Kim Ju-ha, su tono, expresiones faciales y gestos; a fin de que la tecnología <em>deep learning</em> o aprendizaje profundo usada le permita al sistema aprender de su timbre de su voz, gestualidad, la forma en que habla, mueve sus labios y el cuerpo. </p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img decoding="async" src="https://milmagazine.org/wp-content/uploads/2021/02/corea-1024x570.jpg" alt="" class="wp-image-13208" width="693" height="385" srcset="https://milmagazine.org/wp-content/uploads/2021/02/corea-1024x570.jpg 1024w, https://milmagazine.org/wp-content/uploads/2021/02/corea-300x168.jpg 300w, https://milmagazine.org/wp-content/uploads/2021/02/corea-768x428.jpg 768w, https://milmagazine.org/wp-content/uploads/2021/02/corea-215x120.jpg 215w, https://milmagazine.org/wp-content/uploads/2021/02/corea-990x551.jpg 990w, https://milmagazine.org/wp-content/uploads/2021/02/corea.jpg 1191w" sizes="(max-width: 693px) 100vw, 693px" /><figcaption>Captura de pantalla de la presentación de Joo-an Him en la cuenta de YouTube de MBN</figcaption></figure></div>



<p></p>



<p>Pero este modelo no fue el primero ni será el último de una lista de asistentes virtuales al servicio del periodismo, que ahora con el desarrollo acelerado de la IA presentan cada vez más habilidades y recursos para complementar el trabajo periodístico y de vez en cuando suplir al periodista cuando necesita descansar o desarrollar alguna otra actividad personal, lo que sin duda un robot no necesita o tiene.</p>



<h2 class="wp-block-heading">Periodistas robots: Desde los modelos automatizados al deep learning </h2>



<p>Asombro, una mirada atenta y carácter escudriñador es lo que necesita desarrollar cada vez más la audiencia para distinguir entre un narrador de noticias real de su avatar robot. Es que en el plató, gracias a los últimos avances en IA y deep learning, lucen tan semejantes que detectar el comportamiento inauténtico del asistente virtual que lee las noticias en su medio audiovisual favorito ya se ha convertido en un reto para nuestros sentidos.</p>



<p>Pero todo tuvo un inicio, ¿cómo fueron los primeros presentadores de noticias informáticos? ¿su semejanza era tan alta con los colegas humanos? ¿Qué países desarrollaron a estas primeras estrellas mediáticas y desde cuándo? En base a la recopilación desarrollada por AIKA Educación, hemos encontrado quince narradores sintéticos desde inicios del 2000 hasta la actualidad; los que por sus características técnicas y perfil innovador, acorde al contexto, dan una clara muestra de como la tecnología computacional y de IA ha evolucionado generando un impacto enorme y un cambio de las estructuras sociales y formas de trabajo, y de esto el espectro mediático no se escapa.</p>



<p>Abril del 2000 y Reino Unido es cuando y donde nace la imponente Ananova. Sus padres biológicos o creadores fueron el equipo de <a href="https://www.europages.co.uk/ANANOVA-LTD/GBR207908-00101.html">Ananova Limited</a>, una antigua división de <a href="https://pa.media/">Press Asociation</a>. La robot se convirtió en la primera asistente virtual animada de Europa en leer noticias meteorológicas, y posteriormente económicas, para internet en teléfonos móviles las 24 horas del día. Con apariencia moderna, a modo de una mujer blanca, de cabello corto verde e impoluto maquillaje, la periodista animada, fue diseñada inspirándose en Victoria Beckham, Kylie Minogue y la presentadora de televisión <a href="https://twitter.com/carolvorders?lang=es">Carol Vorderman</a>, a fin de representar a una mujer de aproximadamente 28 años, perfil urbano y acento neutro. </p>



<p>También fue programada con características y gustos propios, como una personalidad global que proyecte confianza y sea creíble. Para lo cual se incorporó un software de voz sintética, que trabajaba con sistemas de texto a voz, convirtiendo el texto a representaciones lingüísticas y sonoras. Además, el diseño de sus características humanas se basaron en el aprendizaje e imitación de personas; mientras que en su programación se emplearon gráficos por computadora en 3D y un sistema informático rápido para crear boletines de noticias casi en tiempo real.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Ananova, the world&#039;s first virtual newscaster" width="1320" height="990" src="https://www.youtube.com/embed/ek-g5A0YTkw?start=317&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption><em><strong>Vídeo</strong></em><strong><em> de Ananova en</em></strong><a href="https://www.youtube.com/watch?v=k4K5z5XaOFs&amp;feature=emb_logo"><strong><em> </em></strong></a><strong><em><a href="https://www.youtube.com/watch?t=317&amp;v=ek-g5A0YTkw&amp;feature=youtu.be">la cuenta de YouTube de gobbyboy</a></em></strong></figcaption></figure>



<p>En septiembre del 2005, nació Sam, el primer narrador de noticias meteorológicas 3D virtual, de cuna catalana, desarrollado por Activa_Multimèdia, la extinta empresa a cargo de comercializar la tecnología de la <a href="https://www.ccma.cat/">Corporació Catalana de Ràdio i Televisió (CCRTV)</a>. En base a bocetos gráficos, este personaje de apariencia animada, grandes ojos azules y rostro amigable leyó las noticias castellano y catalán y en formato multiplataforma, por la señal del canal Méteo de Digital +, en el programa &#8220;Tu Tiempo&#8221;, y también para los usuarios del desaparecido website de Meteosam y su plataforma móvil en horario completo. </p>



<p>Sam incorporaba tecnologías de automatización en 3D, que se valía de voz sintética, capacidad de movimiento corporal (basado en humanos) y sistema de conducción automática, según sus creadores confirmaron en <a href="https://www.tiempo.com/ram/2638/entrevista-del-mes-31/">entrevistas periodísticas</a> y posteriores<a href="https://eprints.ucm.es/id/eprint/11414/1/T32377.pdf"> estudios de caso</a>. Su programación tecnológica incluía también una amplia base de datos de su campo. Además, este asistente virtual contaba con vestuarios acordes al escenario climático, gracias a sus posibilidades de personalización, sumándole gracia al personaje, puesto que no gozaba de la gestualidad o emocionalidad de sus colegas humanos o los robots actuales. Vale mencionar que un año después <a href="https://www.ccma.cat/premsa/activa-multimedia-crea-la-tuixen-la-nova-presentadora-virtual-de-la-seva-factoria-ivac/nota-de-premsa/2532260/">la misma compañía lanzó a Tuixén</a>, una meteoróloga virtual, que desde el canal 33, informaba a la audiencia sobre las condiciones del clima y el estado de la nieve desde las estaciones de esquí de Cataluña y Andorra.</p>



<p>En diciembre del 2015, fue presentada Xiaoice, una de las primeras presentadoras de noticias meteorológicas en Shanghai Dragon TV. Con la apariencia de una adolescente asiática, esta asistente virtual desarrollada por Microsoft interrumpía la transmisión en vivo de Dragon TV para presentar su reporte del tiempo. Para su desarrollo, fue equipada con tecnología IA denominada Tex-to-Speech (TTS); técnicas de aprendizaje profundo, lo que le permitía establecer correlaciones para analizar los datos meteorológicas en tiempo real; y tecnologías de computación emocional, para proveerla con recursos destinados a generar comentarios emocionales.</p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img loading="lazy" decoding="async" src="https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-1024x578.png" alt="" class="wp-image-13200" width="599" height="337" srcset="https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-1024x578.png 1024w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-300x168.png 300w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-768x433.png 768w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-215x120.png 215w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-414x232.png 414w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice-990x559.png 990w, https://milmagazine.org/wp-content/uploads/2021/02/xiaoice.png 1200w" sizes="auto, (max-width: 599px) 100vw, 599px" /><figcaption><strong><em>Captura de pantalla de la <a href="https://www.youtube.com/watch?v=dg-x1WuGhuI&amp;t=29s">cuenta de Youtube</a> del </em></strong><a href="https://mspoweruser.com/about/"><strong><em>blog MSPowerUser</em></strong></a><strong><em>, que cubre temas de tecnología, juegos, etc. desde la perspectiva de la compañía Microsoft.</em></strong></figcaption></figure></div>



<p></p>



<p class="has-text-align-left">Tres años después, apareció el presentador IA Chao Neng Xiao Bai, que debutó en el programa periodístico de televisión china Nanning, el 06 de junio. Con una apariencia totalmente robótica, 1,21 metros de alto y 29 kilos, esta máquina brindó referencias que sirvan a las personas en su vida cotidiana a través del análisis de datos, su especialidad, durante un breve espacio de quince minutos dentro del programa noticioso con su mismo nombre, que se emitía de lunes a sábado a las 18.10 horas, <a href="https://www.chinadailyhk.com/articles/222/42/52/1528367747587.html">según reportes de prensa</a>.</p>



<p>El presentador-robot contaba con dos modalidades de búsqueda y análisis de información. Primero hacía una indagación&nbsp; en la red para responder a las preguntas; y, segundo, ejecutaba otra búsqueda con un software diseñado para manejar por adelantado información que se necesite en el estudio. Otra de sus particularidades era el de reaccionar correctamente e incluso de forma ocurrente durante el rodaje. Además de tener habilidades para el baile y hablar con las personas; junto a un rendimiento que variaba entre las 8 a 12 horas con cuatro horas de recarga.&nbsp;Aunque Chao Neng Xiao Bai fue parte de un programa televisivo chino, ha sido fabricado en Japón.</p>



<p>China siguió avanzando en el desarrollo de asistentes virtuales IA y en noviembre del 2018, <a href="http://www.xinhuanet.com/english/2018-11/08/c_137591813.htm">debutaron en la Conferencia Mundial de Internet</a>, los nuevos talentos de la agencia de noticias Xinhua: Xin Xiahao y Zhang Zhao, los que fueron elaborados muy a semejanza de los periodistas<a href="https://www.youtube.com/watch?v=YOpQpunuRfw"> Qiu Hao</a> y <a href="https://www.youtube.com/watch?v=GAfiATTQufk">de Zhang Zhao</a>, respectivamente. Mientras el primero leía las noticias en chino el segundo lo hacía en inglés. A pesar de que a estos modelos los delataban ciertas expresiones faciales limitadas, como el movimiento asincrónico de la boca o el sonido con pocos matices y algo robótico de su voz, destacan detalles como el pestañeo y la elevación de cejas al hablar lo que les sumaba un aspecto más real.</p>



<p>Ambos presentadores virtuales fueron creados por Xinhua,y la compañía china de motores de búsqueda Sogou.com como robots que aprenden por sí solos de la transmisión de videos en vivo. Para su desarrollo se usaron tecnologías de IA y aprendizaje profundo, con programas de reconocimiento y modelado facial, voz sintética reconstrucción en 3D y traducción automática. Todo lo cual, les sirve para sintetizar las voces, los movimientos de los labios y las expresiones de los presentadores.&nbsp;</p>



<p class="has-text-align-center"><img loading="lazy" decoding="async" width="418" height="198" src="https://lh4.googleusercontent.com/yaLFLwkEGUXKg436cTWZM375-afgaaxTy0c8o6EZIrm-0onHD4ELMUzIlpEEGivJyQfUL-yGcki51azxpnepFo8BfL1ZRkVeg_56uugjU0oc9C9QH-84xBzWZnOMYrr0n5njnw5-"></p>



<p class="has-text-align-center"><strong><em><sup>Gif del bot </sup></em></strong><a href="https://www.youtube.com/watch?v=GAfiATTQufk"><strong><sup><em>Zhang Zhao</em></sup></strong></a></p>



<p>Por su lado, el continente europeo también estuvo desarrollando tecnología de IA para asistentes virtuales. Así, en febrero del 2019, la primera presentadora virtual de noticias virtual en idioma letón fue presentada por <a href="https://www.delfi.lt/">DELFI</a>, la empresa de medios digitales más grande de Letonia, y <a href="https://www.tilde.com/">Tilde</a>, una de las compañías líderes en tecnologías de idiomas de Europa. Bajo el nombre de Laura y con una voz inspirada en una periodista letona conocida, según indicaron sus creadores, este modelo incorporó técnicas de aprendizaje automático, redes neuronales para identificar la estructura del habla, tonalidades y entonaciones de grabaciones de voz capaces de imitar el flujo del lenguaje natural, el ritmo y la entonación de un presentador de noticias humano.&nbsp;</p>



<p>Aunque la apariencia de Laura es más artificial que los modelos chinos y muy similar a asistentes 3D animados, tiene una gestualidad mínima, pero los movimientos de su boca no son del todo sincrónicos y su voz es plana y robótica.&nbsp;No obstante, <a href="https://www.tilde.com/">sus creadores anunciaron</a> que esta asistente virtual evolucionará conforme avancen las etapas de este proyecto. Por ejemplo, para la siguiente fase se permitirá la comunicación interactiva con el presentador de noticias y se proporcionará contenido basado en los intereses del usuario.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Europe&#039;s first AI news anchor" width="1320" height="743" src="https://www.youtube.com/embed/LP5wYRKAsMU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption><strong><em>Presentación de Laura en </em></strong><a href="https://www.youtube.com/watch?v=LP5wYRKAsMU"><strong><em>la cuenta de YouTube de Tilde</em></strong></a></figcaption></figure>



<p>Un mes después, Xin Xiaomeng fue la siguiente presentadora virtual IA lanzada por la agencia de noticias Xinhua y el buscador chino Sogou con ocasión del Congreso Nacional del Pueblo de China. El nivel de autenticidad de esta reportera sintética alto atrajo la atención de la opinión pública internacional. Y es que en su diseño se emplearon tecnologías IA y de deep learning más maduras que en sus predecesores; al ser capaz de recolectar, analizar y sintetizar voces humanas y movimientos musculares, sincronizados de tal forma que al leer el texto los motores detrás de su rostro se mueven haciendo que sus expresiones tengan más naturalidad.&nbsp;</p>



<p></p>



<div class="wp-block-image"><figure class="aligncenter size-large is-resized"><img loading="lazy" decoding="async" src="https://milmagazine.org/wp-content/uploads/2021/02/xin-1024x575.jpg" alt="" class="wp-image-13203" width="653" height="366" srcset="https://milmagazine.org/wp-content/uploads/2021/02/xin-1024x575.jpg 1024w, https://milmagazine.org/wp-content/uploads/2021/02/xin-300x168.jpg 300w, https://milmagazine.org/wp-content/uploads/2021/02/xin-768x431.jpg 768w, https://milmagazine.org/wp-content/uploads/2021/02/xin-215x120.jpg 215w, https://milmagazine.org/wp-content/uploads/2021/02/xin-414x232.jpg 414w, https://milmagazine.org/wp-content/uploads/2021/02/xin-990x556.jpg 990w, https://milmagazine.org/wp-content/uploads/2021/02/xin.jpg 1191w" sizes="auto, (max-width: 653px) 100vw, 653px" /><figcaption><strong><em>Captura de pantalla de la presentación de Xin Xiaomeng en</em></strong><a href="https://www.youtube.com/watch?v=5iZuffHPDAw"><strong><em> la cuenta de YouTube de News China TV</em></strong></a></figcaption></figure></div>



<p></p>



<p>Además, el uso del aprendizaje algorítmico intensivo le permite exhibir expresiones faciales acorde a un contexto, informar con más palabras y sintaxis coloquiales. Si bien, en este sentido este modelo presenta avances, sus expresiones no siempre cambian según el contenido y la articulación de su rostro y su boca no es del todo natural. No obstante, entre sus ventajas destacan sus capacidades multilingües (puede hablar inglés, chino, japonés y coreano), ponerse de pie, articular gestos para transmitir noticias más inteligentes, sus recursos para evaluar&nbsp; el contexto durante la lectura noticiosa y su disponibilidad de 24 horas los siete días de la semana.&nbsp;</p>



<p>Con una apariencia similar a la de un muñeco de silicona, Alex, el primer narrador televisivo IA, de origen ruso, presentó&nbsp; <a href="https://www.youtube.com/watch?v=U7LhWWnQBJw&amp;feature=emb_err_woyt">en directo las noticias del canal estatal Rossiya 24</a> en abril del 2019. Inspirado en Alexei Yuzhakov, el fundador de Promobot, la empresa de tecnología a cargo de su desarrollo, este modelo empleó 29 motores en su rostro para darle movimiento y denotar expresiones emocionales. No obstante, su apariencia no era natural, no tenía movimiento corporal y su rostro no presentaba naturalidad en los gestos que producía.&nbsp;</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Впервые на &quot;России 24&quot;: новости ведет робот - Россия 24" width="1320" height="743" src="https://www.youtube.com/embed/U7LhWWnQBJw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption><strong><em>Presentación de Alex en</em></strong><a href="https://www.youtube.com/watch?v=U7LhWWnQBJw&amp;feature=emb_err_woyt"><strong><em> la cuenta de YouTube de Rossiya 24</em></strong></a></figcaption></figure>



<p>Con una inversión de 12,870 euros, Alex articulaba recursos de IA y aprendizaje profundo que le permitían responder preguntas, mantener una conversación basada en datos cargados en su cerebro y gastar bromas. De igual modo, este asistente virtual fue objeto de polémica al ser acusado de vender propaganda política o esparcir desinformación contra los opositores al gobierno ruso, en algunos de los informes de noticias presentados por él.</p>



<p>En mayo del 2019, China lució más avances en el desarrollo de asistentes virtuales e inteligencia artificial. En esta ocasión, Xiaoqing, presentadora de noticias multilingüe, capaz de hablar más de 30 idiomas, usar simulaciones integrales inteligentes para sincronizar la voz, las expresiones y otras características propias de una narradora de noticias humana <a href="https://www.globaltimes.cn/content/1150661.shtml">fue presentada</a> en el <a href="https://info.wicongress.org/en">III Congreso Mundial de Inteligencia</a> llevado a cabo en Tianjin (norte de China), por la empresa del mismo país <a href="http://www.iflytek.com/en/">iFlytek</a>, especializada en el desarrollo de IA.</p>



<figure class="wp-block-image size-large is-resized"><img loading="lazy" decoding="async" src="https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek-1024x565.jpg" alt="" class="wp-image-13205" width="692" height="381" srcset="https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek-1024x565.jpg 1024w, https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek-300x166.jpg 300w, https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek-768x424.jpg 768w, https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek-990x547.jpg 990w, https://milmagazine.org/wp-content/uploads/2021/02/anchor-iflytek.jpg 1103w" sizes="auto, (max-width: 692px) 100vw, 692px" /><figcaption><strong><em>Captura de pantalla de la presentación de Xiaoqing en</em></strong><a href="https://www.youtube.com/watch?v=Bd8TUWbBnSg"><strong><em> la cuenta de YouTube del canal estatal chino CNS</em></strong></a></figcaption></figure>



<p>Xiaoqing cuenta con tecnología IA de aprendizaje profundo, traducción automática y síntesis de voz multilingüe. Para su construcción, se consideraron herramientas como el análisis de texto y emoción para darle naturalidad a su voz, emocionalidad, movimientos corporales y otros aspectos, <a href="http://www.ecns.cn/video/2020-12-31/detail-ihafkemm6620290.shtml">conforme relató el canal estatal chino CNS</a>.&nbsp;Sus creadores indicaron que para su creación se necesitó aproximadamente media hora de datos de características humanas. </p>



<p>De padres asiáticos, un mes después nació en la esfera mediática, Lisa, la primera presentadora de noticias IA de habla rusa. Elaborada con la tecnología de la compañía china <a href="https://www.sogou.com/">Sogou</a> y en alianza con los medios televisivos públicos <a href="http://www.xinhuanet.com/english/">Xinhua News Agency</a> (China) e <a href="https://tass.com/">ITAR-TASS</a> (Rusia), esta asistente virtual contó con tecnología IA de aprendizaje profundo, destacando sus habilidades en síntesis de voz, detección de imágenes y capacidades de predicción para presentar contenido más atractivo e interactivo. </p>



<p>Gracias a estas innovaciones, Lisa incorporaba expresiones, gestos y movimientos más realistas, además de habilidades para hablar en inglés y articular gestos. Creada como el avatar de Elizaveta Zelenskaya, especialista del departamento de relaciones internacionales de TASS, esta presentadora virtual es el cuarto modelo de asistentes virtuales especializados en la narración televisiva, que desarrolló Sogou, <a href="http://ir.sogou.com/2019-06-11-Sogou-Launches-Worlds-First-Russian-Speaking-AI-News-Anchor">según reveló en un comunicado de prensa</a>.</p>



<figure class="wp-block-image size-large is-resized"><img loading="lazy" decoding="async" src="https://milmagazine.org/wp-content/uploads/2021/02/lisa-1024x529.jpg" alt="" class="wp-image-13206" width="614" height="317" srcset="https://milmagazine.org/wp-content/uploads/2021/02/lisa-1024x529.jpg 1024w, https://milmagazine.org/wp-content/uploads/2021/02/lisa-300x155.jpg 300w, https://milmagazine.org/wp-content/uploads/2021/02/lisa-768x396.jpg 768w, https://milmagazine.org/wp-content/uploads/2021/02/lisa-990x511.jpg 990w, https://milmagazine.org/wp-content/uploads/2021/02/lisa.jpg 1203w" sizes="auto, (max-width: 614px) 100vw, 614px" /><figcaption><strong><em>Captura de pantalla de la presentación de Lisa en</em></strong><a href="https://www.youtube.com/watch?v=QzafR5MMkgQ"><strong><em> la cuenta de YouTube de Bulgarian News Agency</em></strong></a></figcaption></figure>



<p class="has-text-align-left">Mayo del 2020 y Xin Xiaowei, la primera presentadora virtual de noticias en 3D, fue la encargada de narrar las dos Sesiones, una reunión anual del máximo órgano asesor político de China, el Comité Nacional de la Conferencia Consultiva Política, desarrollado entre el 21 al 27 de ese mes. Desarrollado con la tecnología de la firma asiática Sogou, en alianza con la agencia de noticias Xinhua, esta presentadora virtual usaba algoritmos, basados en síntesis multimodal, reconocimiento facial y animación, así como, aprendizaje de transferencia, lo que le permitió imitar voces humanas, expresiones faciales, movimientos de labios y gestos, usando solo entradas de texto.</p>



<p>El nuevo lanzamiento de Xinhua y Sogou nació como réplica de Zhao Wanwei, periodista de la cadena televisiva estatal. Sus creadores aseguraron que en comparación con las generaciones anteriores, Xiaoqing, comunica información visual y de audio de manera más natural y fluida en tiempo real. Además, este modelo registraba más movimientos corporales, como asentir con la cabeza de forma más enfática, parpadeo al hablar, movimientos flexibles para presentar las noticias sentada, parada o caminando e incorporar más expresiones faciales; al igual que aspectos visuales como cambiar de peinado y de ropa. </p>



<figure class="wp-block-embed aligncenter is-type-rich is-provider-twitter wp-block-embed-twitter"><div class="wp-block-embed__wrapper">
<blockquote class="twitter-tweet" data-width="550" data-dnt="true"><p lang="en" dir="ltr">Here comes Xin Xiaowei, the world&#39;s first 3D <a href="https://twitter.com/hashtag/AINewsAnchor?src=hash&amp;ref_src=twsrc%5Etfw">#AINewsAnchor</a>.<br>Jointly developed by Sogou and Xinhua News Agency, she will report for Xinhua News Agency on the <a href="https://twitter.com/hashtag/TwoSessions?src=hash&amp;ref_src=twsrc%5Etfw">#TwoSessions</a>, creating a new and dynamic viewing experience. <a href="https://t.co/5Tok2Mm3Pl">pic.twitter.com/5Tok2Mm3Pl</a></p>&mdash; Sogou Inc. (@Sogou_Inc) <a href="https://twitter.com/Sogou_Inc/status/1263385515862065152?ref_src=twsrc%5Etfw">May 21, 2020</a></blockquote><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
</div><figcaption><strong><em>Anuncio de la presentación de Xiaoqing en la cuenta de Twitter de Sogou</em></strong> </figcaption></figure>



<p>Para julio del 2020, China presentó otro de sus asistentes virtuales periodistas. En esta ocasión, se trató de un robot presentador de noticias&nbsp;IA de habla mongol que fue lanzado como parte de la plana periodística del periódico local Inner Mongolia Daily. De acuerdo con el Colegio de Informática de la Universidad de Mongolia Interior, este narrador televisivo fue desarrollado con inteligencia artificial, que a partir de la integración de múltiples tecnologías como la síntesis de voz del idioma mongol y la traducción automática, se orienta a proteger las lenguas étnicas e informatizar el idioma mongol, <a href="http://spanish.xinhuanet.com/2020-07/19/c_139224133.htm">según información presentada por agencia Xinhua</a>.</p>



<p>Tratándose de Mongolia, en octubre del 2020, fue introducida al mundo del periodismo, Maral, una narradora de noticias IA, procedente de ese país de Asia Oriental. Creada en forma independiente por la compañía <a href="https://www.chimege.mn/">Chimege Systems</a>, esta asistente fue introducida en la Vigésimo Cuarta TIC Expo del mismo país. En su debut, conversó con el presidente de la Asociación de la Industria de Software de Mongolia (MOSA), Ts.Chuluunzagd; en donde abordó detalles como el tiempo y relató información acerca de ella, como su procedencia, además de lanzar preguntas a su interlocutor, conforme registraron <a href="https://montsame.mn/en/read/239829?fbclid=IwAR1goHg0YiwhDngSyoKqlFImf2kjrkt5EmjchWtf7754bZ3HkVfbH-iEY-0">versiones periodísticas</a>.</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="[MBN 프레스룸] &quot;김주하 앵커입니다&quot;" width="1320" height="743" src="https://www.youtube.com/embed/k4K5z5XaOFs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
</div><figcaption><em><strong>Vídeo</strong></em><strong><em> de Joo-an Him en</em></strong><a href="https://www.youtube.com/watch?v=k4K5z5XaOFs&amp;feature=emb_logo"><strong><em> la cuenta de YouTube de MBN</em></strong></a></figcaption></figure>



<p>Como hemos visto, la recopilación mostrada nos da luces sobre los avances de la inteligencia artificial desde inicios del milenio hasta la fecha hasta la actualidad. Son quince periodistas robots cuya función es presentar las noticias cada día, sin descanso y que cada día se asemejan más a sus colegas humanos y van mejorando a pasos agigantados sus niveles de eficiencia y capacidades de resolver en tiempo real, además de esgrimir cierta naturalidad y emocionalidad para conquistar a las nuevas audiencias.</p>



<p>Pero, ¿cuál es su impacto en el mundo del periodismo, la labor del comunicador y el propio futuro del trabajo? Las compañías capaces de desarrollar tecnologías avanzadas de IA relacionadas con asistentes virtuales, no solo crean periodistas robots, sino otro tipo de avatars sintéticos, especializados en otras carreras, y quizás tan o más eficientes que los propios humanos en algunos o varios aspectos, así que vale la pena preguntarse: ¿nos reemplazan o nos complementan?</p>



<p>Algo debemos tener claro, estas tecnologías no tienen aún la capacidad intuitiva, muy relacionada con el factor humano y su nivel de emocionalidad. Mas -aunque sea en forma artificial- están aprendiendo a representar emociones, lo que sumado a su eficiencia puede convertirlos en nuestros reemplazos en varias funciones. En ese sentido, cabe preguntarse ¿hasta qué medida pueden hacerlo y si conviene ya repensar los roles profesionales de cada campo y pulir las habilidades de nuevas maneras?, a modo de sacar provecho de estas tecnologías que ya forman parte de esta sociedad y desde luego de nuestras vidas.</p>
<p>La entrada <a href="https://milmagazine.org/en-profundidad/periodistas-robots-ia-y-presentadores-sinteticos/">Periodistas robots: Inteligencia Artificial y los nuevos presentadores de TV sintéticos</a> se publicó primero en <a href="https://milmagazine.org">MIL Magazine</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://milmagazine.org/en-profundidad/periodistas-robots-ia-y-presentadores-sinteticos/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
