{"id":1878,"date":"2026-01-05T02:00:00","date_gmt":"2026-01-05T02:00:00","guid":{"rendered":"https:\/\/www.gipps.org\/revistaredes\/?p=1878"},"modified":"2026-01-07T14:49:11","modified_gmt":"2026-01-07T14:49:11","slug":"deepfakes-cuales-son-sus-implicaciones-sociales-y-psicologicas-como-nuevas-formas-de-desinformacion","status":"publish","type":"post","link":"https:\/\/www.gipps.org\/revistaredes\/analisis\/deepfakes-cuales-son-sus-implicaciones-sociales-y-psicologicas-como-nuevas-formas-de-desinformacion\/","title":{"rendered":"DEEPFAKES: \u00bfCU\u00c1LES SON SUS IMPLICACIONES SOCIALES Y PSICOL\u00d3GICAS COMO NUEVAS FORMAS DE DESINFORMACI\u00d3N?"},"content":{"rendered":"\n<div class=\"wp-block-media-text alignwide is-stacked-on-mobile\" style=\"grid-template-columns:22% auto\"><figure class=\"wp-block-media-text__media\"><img decoding=\"async\" loading=\"lazy\" width=\"200\" height=\"251\" src=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-3.png\" alt=\"\" class=\"wp-image-1879 size-full\"\/><\/figure><div class=\"wp-block-media-text__content\">\n<p><em>Lic. Rodrigo Daniel Medrano Figueroa<\/em> <\/p>\n\n\n\n<p>Profesor de Asignatura Ordinario Nivel \u00abA\u00bb en la Facultad de Estudios Superiores Iztacala.<\/p>\n\n\n\n<p>Correo electr\u00f3nico:<\/p>\n\n\n\n<p><a href=\"mailto:rodirgo.medrano@iztacala.unam.mx\">rodirgo.medrano@iztacala.unam.mx<\/a><\/p>\n<\/div><\/div>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><strong>Cita recomendada:<\/strong><\/p>\n\n\n\n<p>Medrano, R. D. (2026). Deepfakes: \u00bfcu\u00e1les son sus implicaciones sociales y psicol\u00f3gicas como nuevas formas de desinformaci\u00f3n?<em> Revista de Divulgaci\u00f3n Crisis y Retos en la Familia y Pareja, 8<\/em>(1), 23-29. <a href=\"https:\/\/doi.org\/10.22402\/j.rdcrfp.unam.8.1.2026.650.23-29\">https:\/\/doi.org\/10.22402\/j.rdcrfp.unam.8.1.2026.650.23-29<\/a> <em><\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p>Resumen<\/p>\n\n\n\n<p>Los deepfakes son videos, audios o im\u00e1genes que parecen reales, pero han sido creados con inteligencia artificial. Esta tecnolog\u00eda puede imitar rostros, voces y movimientos, haciendo que una persona parezca decir o hacer algo que nunca hizo. Aunque tienen usos creativos, su lado m\u00e1s oscuro genera problemas graves. Se utilizan para desinformar, manipular pol\u00edticamente y difundir contenido da\u00f1ino, como los deepnudes (Kopeck\u00fd &amp; Vor\u00e1\u010d, 2025), que violan la privacidad y causan da\u00f1o emocional. La facilidad para crearlos y su r\u00e1pida difusi\u00f3n en redes sociales complican la distinci\u00f3n entre lo real y lo falso. Esto afecta a la confianza p\u00fablica y genera otras problem\u00e1ticas. Adem\u00e1s, la falta de regulaciones y de educaci\u00f3n digital nos deja vulnerables. Por eso, el pensamiento cr\u00edtico y la alfabetizaci\u00f3n digital son nuestra mejor defensa.<\/p>\n\n\n\n<p><em>Palabras clave:<\/em> Deepfakes, Desinformaci\u00f3n, Inteligencia artificial, Privacidad<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><strong><em>JUSTIFICACI\u00d3N<\/em><\/strong><\/p>\n\n\n\n<p>\u00bfQu\u00e9 pasar\u00eda si no pudieras confiar en lo que ves o escuchas? Esta premisa se vuelve real en un mundo dominado por las redes sociales, donde la desinformaci\u00f3n ha dejado de ser solo rumores o noticias falsas para convertirse en una amenaza mucho m\u00e1s sofisticada y peligrosa. Ejemplo de ello son los \u201cdeepfakes\u201d, videos y audios creados con inteligencia artificial que manipulan o recrean rostros, voces y escenas para producir contenidos falsos con apariencia realista. Aunque esta tecnolog\u00eda est\u00e1 dirigida a aplicaciones creativas o educativas, en la pr\u00e1ctica tambi\u00e9n se ha usado con fines maliciosos. De hecho, el problema se agrava porque estos contenidos pueden difundirse con gran rapidez en plataformas como TikTok, X (antes Twitter) o Facebook, y cada vez resulta m\u00e1s dif\u00edcil distinguirlos de un material aut\u00e9ntico (Godulla et al., 2021). Por lo tanto, esta forma de manipulaci\u00f3n no solo pone en duda nuestra percepci\u00f3n de la realidad, sino que tambi\u00e9n amenaza la confianza social, la privacidad e incluso el manejo de la informaci\u00f3n que consumimos a diario.<\/p>\n\n\n\n<p>Por ello, resulta urgente comprender qu\u00e9 son los deepfakes, c\u00f3mo se crean y cu\u00e1les son sus efectos m\u00e1s all\u00e1 del \u00e1mbito tecnol\u00f3gico, ya que no se trata de un asunto exclusivo de especialistas, sino de un tema que nos concierne a todos, pues solo as\u00ed podremos protegernos frente a los contenidos maliciosos que navegan por la red.<\/p>\n\n\n\n<p><strong><em>DESARROLLO<\/em><\/strong><\/p>\n\n\n\n<p><strong><em>\u00bfQU\u00c9 SON LOS DEEPFAKES Y C\u00d3MO FUNCIONAN?<\/em><\/strong><\/p>\n\n\n\n<p>Para entender este fen\u00f3meno, primero debemos saber de d\u00f3nde viene su nombre. La palabra deepfake es la uni\u00f3n de dos conceptos clave: \u201cdeep learning\u201d (aprendizaje profundo, una rama de la inteligencia artificial) y \u201cfake\u201d (falso).<\/p>\n\n\n\n<p>En t\u00e9rminos sencillos, un deepfake es un video, audio o fotograf\u00eda que parece completamente real, pero que ha sido creado o manipulado artificialmente por un software de inteligencia artificial (IA) para enga\u00f1ar al p\u00fablico (Chawla, 2019). La IA los fabrica tan bien que resulta extremadamente dif\u00edcil notar la manipulaci\u00f3n.<\/p>\n\n\n\n<p>Existen dos tipos principales de deepfakes que combinan la visi\u00f3n y el sonido:<\/p>\n\n\n\n<ul>\n<li>Sustituci\u00f3n de rostros (Deepfaces): La IA toma el rostro de una persona y lo \u00abpega\u00bb sobre el cuerpo de otra en un video. El programa se asegura de que las expresiones faciales, el parpadeo y los movimientos de la boca coincidan perfectamente con el audio, creando una escena que nunca existi\u00f3.<\/li>\n\n\n\n<li>Clonaci\u00f3n de voz (Deepvoices): La IA aprende a imitar la voz de una persona con solo escuchar unos segundos de grabaciones. Una vez clonada, puede usar esa &nbsp;voz &nbsp;para &nbsp;decir &nbsp;cualquier &nbsp;cosa &nbsp;nueva,<\/li>\n<\/ul>\n\n\n\n<p>generando audios y videos completos como si la persona original los hubiera grabado.<\/p>\n\n\n\n<p>Al combinar estas t\u00e9cnicas, se pueden crear videos donde una figura p\u00fablica (o cualquier persona) parece decir o hacer algo que jam\u00e1s hizo. De hecho, estos montajes son tan realistas que la detecci\u00f3n requiere herramientas especializadas.<\/p>\n\n\n\n<p><strong><em>LA TECNOLOG\u00cdA DETR\u00c1S DE LA ILUSI\u00d3N<\/em><\/strong><\/p>\n\n\n\n<p>La magia detr\u00e1s de los deepfakes se basa en un mecanismo de IA llamado Redes Generativas Antag\u00f3nicas (GAN). Piensa en ellas como una competencia entre dos estudiantes de arte:<\/p>\n\n\n\n<ol type=\"1\">\n<li>El Falsificador (Generador): Es el artista que crea un cuadro (el deepfake) lo m\u00e1s realista posible.<\/li>\n\n\n\n<li>El Cr\u00edtico (Discriminador): Es el evaluador que revisa el cuadro y dice: \u00abEsto es falso\u00bb o \u00abEsto es real\u00bb.<\/li>\n<\/ol>\n\n\n\n<p>Ambos trabajan juntos: el Falsificador intenta enga\u00f1ar al Cr\u00edtico, y el Cr\u00edtico se vuelve cada vez m\u00e1s astuto para detectar la falsedad. Esta constante competencia es lo que hace que los deepfakes sean cada d\u00eda m\u00e1s perfectos y dif\u00edciles de diferenciar de la realidad (Ramos, 2024).<\/p>\n\n\n\n<p>Hasta hace pocos a\u00f1os, estas manipulaciones solo las pod\u00edan hacer expertos con acceso a hardware muy potente. Hoy, la tecnolog\u00eda se ha democratizado: cualquiera puede generar un deepfake de alta calidad en minutos usando una aplicaci\u00f3n gratuita o una plataforma en l\u00ednea (Lopez, 2022). Esta facilidad de acceso ha abierto la puerta a graves usos maliciosos que van m\u00e1s all\u00e1 del simple enga\u00f1o, afectando la estabilidad social y la salud mental de las personas.<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img decoding=\"async\" loading=\"lazy\" width=\"386\" height=\"317\" src=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4.png\" alt=\"\" class=\"wp-image-1881\" srcset=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4.png 386w, https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4-300x246.png 300w\" sizes=\"(max-width: 386px) 100vw, 386px\" \/><\/figure><\/div>\n\n\n<p><strong><em>RIESGOS SOCIALES Y CULTURALES<\/em><\/strong><\/p>\n\n\n\n<p>Uno de los problemas m\u00e1s preocupantes de los deepfakes es el deterioro de la confianza p\u00fablica. Cuando la gente no puede distinguir entre lo verdadero y lo falso, se debilita nuestra capacidad para tomar decisiones informadas. Esta desconfianza no solo afecta el tipo de informaci\u00f3n que consumimos, sino tambi\u00e9n el \u00e1mbito pol\u00edtico y las instituciones.<\/p>\n\n\n\n<p>Por ejemplo, la difusi\u00f3n de un video falso de un candidato pol\u00edtico haciendo declaraciones ofensivas justo antes de una elecci\u00f3n puede provocar un cambio irreversible en la opini\u00f3n p\u00fablica, incluso si la falsificaci\u00f3n se prueba despu\u00e9s. Estos escenarios ya son una realidad en pa\u00edses como India, Estados Unidos y Brasil, donde los deepfakes se han usado para manipular audiencias y desprestigiar rivales pol\u00edticos (Ramos, 2024).<\/p>\n\n\n\n<p>Adem\u00e1s, existe una variante especialmente grave: el ciberacoso por deepnudes (Kopeck\u00fd &amp; Vor\u00e1\u010d, 2025). Estos son v\u00eddeos o im\u00e1genes sexualizadas que reemplazan el rostro de una persona (casi siempre mujeres) en cuerpos desnudos. Esta forma de violencia digital afecta profundamente la integridad y la salud emocional de las v\u00edctimas, pues vulnera su privacidad y puede tener serias implicaciones personales, profesionales y sociales (Chawla, 2019).<\/p>\n\n\n\n<p>Un estudio advierte que este contenido se ha convertido en una forma recurrente de acoso en l\u00ednea, donde en muchos casos, la v\u00edctima no se entera del video manipulado hasta que ya ha sido difundido masivamente (El Pa\u00eds, 2024).<\/p>\n\n\n\n<p><strong><em>IMPACTO EMOCIONAL Y PSICOL\u00d3GICO<\/em><\/strong><\/p>\n\n\n\n<p>M\u00e1s all\u00e1 del da\u00f1o a la reputaci\u00f3n p\u00fablica, los deepfakes tienen un impacto directo y profundo en la salud mental de las personas. La sola idea de que se pueda generar un contenido falso con el propio rostro o voz provoca ansiedad, desconfianza y una constante sensaci\u00f3n de vulnerabilidad.<\/p>\n\n\n\n<p>Esta crisis se vuelve mucho m\u00e1s intensa cuando los deepfakes circulan en entornos \u00edntimos, donde el da\u00f1o es personal y relacional:<\/p>\n\n\n\n<ul>\n<li>En contextos de pareja y familia: Un video o audio falsificado puede desencadenar una ruptura inmediata, conflictos severos o incluso violencia. El da\u00f1o no es solo la mentira, sino la duda irreversible que instala: la v\u00edctima debe luchar por demostrar una inocencia que la mayor\u00eda de la gente da por sentada, y el solo hecho de que su pareja o familia sospechen causa un trauma emocional duradero.<\/li>\n\n\n\n<li>En el \u00e1mbito escolar y laboral: Los deepfakes se usan como una poderosa forma de bullying o humillaci\u00f3n. El efecto es devastador porque el da\u00f1o no radica \u00fanicamente en el contenido en s\u00ed, sino en las acciones y reacciones que genera: la exclusi\u00f3n social, el miedo al escrutinio p\u00fablico y el riesgo de que el montaje llegue a manos de profesores, jefes o reclutadores.<\/li>\n<\/ul>\n\n\n\n<p>El problema es que el efecto devastador no se limita a la v\u00edctima. La poca o nula informaci\u00f3n que existe sobre esta tecnolog\u00eda agrava la situaci\u00f3n.<\/p>\n\n\n\n<p>Por ejemplo, seg\u00fan una encuesta realizada por Kaspersky en 2021 en M\u00e9xico, el 72% de los encuestados no sab\u00eda c\u00f3mo identificar un deepfake. Esto refleja una gran desventaja frente a una amenaza que se expande r\u00e1pidamente.<\/p>\n\n\n\n<p>Adem\u00e1s, la falta de apoyo institucional refuerza el da\u00f1o psicol\u00f3gico. La ausencia de recursos legales y psicol\u00f3gicos claros para las v\u00edctimas (ya que muchas personas no saben a d\u00f3nde acudir ni c\u00f3mo denunciar) las deja en un estado de desamparo. A esto se suma que los marcos jur\u00eddicos en muchos pa\u00edses todav\u00eda no se actualizan para tipificar claramente esta manipulaci\u00f3n (Al-khazraji et al., 2023). Esta falta de protecci\u00f3n oficial aumenta la sensaci\u00f3n de soledad y vulnerabilidad de la v\u00edctima.<\/p>\n\n\n\n<p>Del mismo modo, la falta de campa\u00f1as informativas impide que el p\u00fablico desarrolle habilidades para identificar la manipulaci\u00f3n digital. Esto no solo abre un panorama de vulnerabilidad donde cualquiera puede quedar expuesto p\u00fablicamente, sino que tambi\u00e9n favorece la propagaci\u00f3n de rumores y narrativas falsas que la gente acepta sin un ejercicio cr\u00edtico. Esta situaci\u00f3n es especialmente preocupante en entornos donde la informaci\u00f3n circula de manera acelerada y se consume sin un filtro, independientemente de que el contenido haya sido manipulado (Godulla, 2021).<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img decoding=\"async\" loading=\"lazy\" width=\"386\" height=\"267\" src=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-5.png\" alt=\"\" class=\"wp-image-1882\" srcset=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-5.png 386w, https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-5-300x208.png 300w\" sizes=\"(max-width: 386px) 100vw, 386px\" \/><\/figure><\/div>\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img decoding=\"async\" loading=\"lazy\" width=\"386\" height=\"257\" src=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4.jpeg\" alt=\"\" class=\"wp-image-1880\" srcset=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4.jpeg 386w, https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-4-300x200.jpeg 300w\" sizes=\"(max-width: 386px) 100vw, 386px\" \/><\/figure><\/div>\n\n\n<p><strong><em>\u00bfC\u00d3MO PODEMOS PROTEGERNOS?<\/em><\/strong><\/p>\n\n\n\n<p>A pesar del riesgo que conllevan, la protecci\u00f3n frente a los deepfakes no es solo una cuesti\u00f3n tecnol\u00f3gica, sino tambi\u00e9n de estrategia emocional, social y legal. La defensa integral se basa en tres pilares:<\/p>\n\n\n\n<p><strong>1. Protecci\u00f3n de la informaci\u00f3n y h\u00e1bitos cr\u00edticos<\/strong><\/p>\n\n\n\n<p>La primera l\u00ednea de defensa es el escepticismo digital. Dado que el objetivo malicioso de estos contenidos es generar controversia o desinformaci\u00f3n, es fundamental seguir estos pasos antes de reaccionar:<\/p>\n\n\n\n<ul>\n<li>Verificar la fuente: Siempre revisa qui\u00e9n public\u00f3 el material. Preg\u00fantate: \u00bfProviene de una cuenta confiable? \u00bfHa sido confirmado por otras fuentes de noticias serias? Actuar con criterio es la mejor forma de no caer en el enga\u00f1o.<\/li>\n\n\n\n<li>Buscar errores t\u00e9cnicos: Aunque son realistas, los deepfakes suelen fallar en detalles sutiles. Observa con detenimiento: \u00bfLos movimientos faciales son poco naturales? \u00bfHay parpadeos irregulares o una iluminaci\u00f3n inconsistente? \u00bfHay desincronizaci\u00f3n entre los labios y la voz? (L\u00f3pez, 2022).<\/li>\n\n\n\n<li>Detener la difusi\u00f3n impulsiva: Es crucial promover una cultura de verificaci\u00f3n.<\/li>\n<\/ul>\n\n\n\n<ul>\n<li>Antes de compartir un video o audio en redes sociales o grupos privados, t\u00f3mate un momento para cuestionar su autenticidad. No compartir es el primer acto de responsabilidad.<\/li>\n<\/ul>\n\n\n\n<p><strong>2. Afrontamiento emocional y apoyo relacional<\/strong><\/p>\n\n\n\n<p>La amenaza de los deepfakes genera vulnerabilidad, miedo y ansiedad. Por ello, proteger la integridad psicol\u00f3gica es tan vital como verificar la informaci\u00f3n.<\/p>\n\n\n\n<p>Si eres v\u00edctima de un deepfake o conoces a alguien que lo es, la respuesta debe ser el apoyo y la acci\u00f3n legal, no la culpa. Es fundamental buscar redes de apoyo familiares y sociales para validar las emociones y enfrentar el problema colectivamente. No est\u00e1s solo.<\/p>\n\n\n\n<p>Adem\u00e1s, es crucial saber que existen v\u00edas de acci\u00f3n formal:<\/p>\n\n\n\n<ul>\n<li>Asesor\u00eda legal y psicol\u00f3gica: Es importabte acudir a autoridades o instituciones especializadas que brinden asesor\u00eda legal y acompa\u00f1amiento psicol\u00f3gico. Muchas organizaciones no gubernamentales o instancias gubernamentales ya cuentan con protocolos para atender la violencia digital.<\/li>\n\n\n\n<li>Documentaci\u00f3n: Guarda capturas de pantalla, enlaces y cualquier evidencia del contenido y su difusi\u00f3n. Esta documentaci\u00f3n es indispensable para cualquier denuncia formal que se busque iniciar.<\/li>\n<\/ul>\n\n\n\n<p><strong>3. Exigencia de regulaci\u00f3n y pol\u00edticas<\/strong><\/p>\n\n\n\n<p>Finalmente, la protecci\u00f3n requiere de un compromiso colectivo para mejorar el entorno digital. Es importante apoyar el desarrollo de iniciativas de regulaci\u00f3n responsable que obliguen a las plataformas a actuar.<\/p>\n\n\n\n<p>As\u00ed como existen pol\u00edticas para combatir el discurso de odio, es importante generar medidas &nbsp;espec\u00edficas que &nbsp;&nbsp;&nbsp;&nbsp;fuercen&nbsp;&nbsp; &nbsp;a&nbsp;&nbsp;&nbsp; &nbsp;las plataformas digitales a implementar mecanismos eficaces para detectar y eliminar deepfakes maliciosos (Al-khazraji et al., 2023). Solo con protecci\u00f3n legal, apoyo emocional y medidas de verificaci\u00f3n se puede ofrecer una defensa integral frente a un problema que afecta tanto la esfera digital como la vida personal.<\/p>\n\n\n\n<p><strong><em>Conclusiones<\/em><\/strong><\/p>\n\n\n\n<p>Hemos visto a lo largo de este art\u00edculo que los deepfakes son mucho m\u00e1s que una simple \u00abnoticia falsa\u00bb; son un desaf\u00edo que afecta directamente a nuestra confianza y a nuestra paz mental. La conclusi\u00f3n principal es clara: el riesgo no est\u00e1 solo en la tecnolog\u00eda, sino en la vida personal y las relaciones de la gente.<\/p>\n\n\n\n<p><strong><em>\u00bfQU\u00c9 NOS DEJA ESTE AN\u00c1LISIS?<\/em><\/strong><\/p>\n\n\n\n<ol type=\"1\">\n<li>El da\u00f1o es real y muy personal: El impacto m\u00e1s serio de los deepfakes no ocurre en la pol\u00edtica, sino en la intimidad. Pueden romper parejas, generar acoso en el trabajo o la escuela, y causar un trauma psicol\u00f3gico que requiere ayuda. El lector debe saber que la v\u00edctima de un deepfake necesita apoyo emocional y legal, no ser juzgada.<\/li>\n\n\n\n<li>La mejor defensa est\u00e1 en sus manos: No podemos esperar a que las leyes o las grandes plataformas resuelvan todo. La defensa m\u00e1s efectiva empieza por usted. Esto significa hacer dos cosas: desconfiar de lo que nos enoja o sorprende (verificar la fuente) y apoyar a quien sea v\u00edctima, sin compartir el contenido manipulado.<\/li>\n\n\n\n<li>Hay que ser cr\u00edticos, no ingenuos: Los deepfakes van a seguir mejorando. Por eso, el reto no es eliminarlos, sino aprender a vivir con ellos. La herramienta m\u00e1s poderosa que tenemos es el pensamiento cr\u00edtico.<\/li>\n<\/ol>\n\n\n\n<ul>\n<li>Al entender su impacto en nuestras vidas, convertimos la vulnerabilidad en una responsabilidad colectiva para protegernos y proteger a otros.<\/li>\n<\/ul>\n\n\n\n<p>La era del deepfake nos obliga a ser ciudadanos digitales m\u00e1s astutos. Si no caemos en el enga\u00f1o y si apoyamos a las v\u00edctimas, estaremos construyendo la mejor barrera contra este fen\u00f3meno.<\/p>\n\n\n\n<p><strong><em>REFERENCIAS<\/em><\/strong><\/p>\n\n\n\n<p>Ajder, H. (2019). <em>The State of Deepfakes: Landscape, Threats, and Impact<\/em>. Deeptrace.<\/p>\n\n\n\n<p>Al-khazraji, S., Saleh, H., Khalid, A., &amp; Mishkhal, I. (2023). Impact of Deepfake Technology on Social Media: Detection, Misinformation and Societal Implications. <em>The Eurasia Proceedings of Science Technology Engineering and Mathematics, 23<\/em>, 429-441. <a href=\"http:\/\/www.epstem.net\/en\/pub\/issue\/79793\/1371792\">http:\/\/www.epstem.net\/en\/pub\/issue\/79793\/1371792<\/a> &nbsp;&nbsp;<\/p>\n\n\n\n<p>Chawla, R. (2019). Deepfakes: How a pervert shook the world. <em>International Journal of Advance Research and Development, 4<\/em>(6), 4-8. <a href=\"http:\/\/doi.org\/10.22215\/timreview\/1282\">http:\/\/doi.org\/10.22215\/timreview\/1282<\/a> &nbsp;<\/p>\n\n\n\n<p>El Pa\u00eds. (2024). <em>El caso hist\u00f3rico de violencia digital con inteligencia artificial en M\u00e9xico<\/em>. <a href=\"https:\/\/elpais.com\/mexico\/2024-11-28\/el-caso-historico-de-violencia-digital-con-inteligencia-artificial-en-mexico.html\">https:\/\/elpais.com\/mexico\/2024-11-28\/el-caso-historico-de-violencia-digital-con-inteligencia-artificial-en-mexico.html<\/a> &nbsp;<\/p>\n\n\n\n<p>Godulla, A., Hoffmann, C., &amp; Seibert, D. (2021). Dealing with deepfakes, an interdisciplinary examination of the state of research and implications for communication studies. <em>SCM Studies in Communication and Media, 10<\/em>(1), 72-96. <a href=\"http:\/\/dx.doi.org\/10.5771\/2192-4007-2021-1-72\">http:\/\/dx.doi.org\/10.5771\/2192-4007-2021-1-72<\/a> &nbsp;&nbsp;<\/p>\n\n\n\n<p>Kaspersky. (2021). <em>La infodemia y su impacto en la vida digital. kaspersky daily.<\/em> <a href=\"https:\/\/latam.kaspersky.com\/blog\/investigacion-la-infodemia-y-su-impacto-en-la-vida-digital\">https:\/\/latam.kaspersky.com\/blog\/investigacion-la-infodemia-y-su-impacto-en-la-vida-digital<\/a> &nbsp;&nbsp;<\/p>\n\n\n\n<p>Kopeck\u00fd, K., &amp; Vor\u00e1\u010d, D. (2025). The phenomenon of deep nudes\u2014a new threat to children and adults. <em>AI &amp; Soc.<\/em>&nbsp; <a href=\"https:\/\/doi.org\/10.1007\/s00146-025-02425-4\">https:\/\/doi.org\/10.1007\/s00146-025-02425-4<\/a> &nbsp;<\/p>\n\n\n\n<p>L\u00f3pez, J. (2022). An\u00e1lisis y desarrollo de modelos de generaci\u00f3n de voz mediante Deep Voice. Proyecto Fin de Carrera \/ Trabajo Fin de Grado, E.T.S. de Ingenieros Inform\u00e1ticos (UPM), Madrid, Espa\u00f1a. <a href=\"https:\/\/oa.upm.es\/71260\/\">https:\/\/oa.upm.es\/71260\/<\/a> &nbsp;<\/p>\n\n\n\n<p>Ramos, F. (2024). Deepfake: An\u00e1lisis de sus implicancias tecnol\u00f3gicas y jur\u00eddicas en la era de la Inteligencia Artificial. <em>Derecho global. Estudios sobre derecho y justicia, 9<\/em>(27), 359-387 <a href=\"https:\/\/doi.org\/10.32870\/dgedj.v9i27.754\">https:\/\/doi.org\/10.32870\/dgedj.v9i27.754<\/a> &nbsp;&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" loading=\"lazy\" width=\"378\" height=\"567\" src=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-6.png\" alt=\"\" class=\"wp-image-1883\" srcset=\"https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-6.png 378w, https:\/\/www.gipps.org\/revistaredes\/wp-content\/uploads\/2026\/01\/image-6-200x300.png 200w\" sizes=\"(max-width: 378px) 100vw, 378px\" \/><\/figure>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><em>Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicaci\u00f3n. Esta revista es una publicaci\u00f3n semestral en espa\u00f1ol, arbitrada, de acceso abierto y licenciamiento&nbsp;Creative Commons; puede ser reproducida con fines no lucrativos, siempre y cuando se cite la fuente completa y su direcci\u00f3n electr\u00f3nica. De otra forma requiere permiso previo por escrito.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<div class=\"mh-excerpt\"><p>Lic. Rodrigo Daniel Medrano Figueroa Profesor de Asignatura Ordinario Nivel \u00abA\u00bb en la Facultad de Estudios Superiores Iztacala. Correo electr\u00f3nico: rodirgo.medrano@iztacala.unam.mx Cita recomendada: Medrano, R. <a class=\"mh-excerpt-more\" href=\"https:\/\/www.gipps.org\/revistaredes\/analisis\/deepfakes-cuales-son-sus-implicaciones-sociales-y-psicologicas-como-nuevas-formas-de-desinformacion\/\" title=\"DEEPFAKES: \u00bfCU\u00c1LES SON SUS IMPLICACIONES SOCIALES Y PSICOL\u00d3GICAS COMO NUEVAS FORMAS DE DESINFORMACI\u00d3N?\">[&#8230;]<\/a><\/p>\n<\/div>","protected":false},"author":1,"featured_media":1887,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[4],"tags":[],"_links":{"self":[{"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/posts\/1878"}],"collection":[{"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/comments?post=1878"}],"version-history":[{"count":2,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/posts\/1878\/revisions"}],"predecessor-version":[{"id":1888,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/posts\/1878\/revisions\/1888"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/media\/1887"}],"wp:attachment":[{"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/media?parent=1878"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/categories?post=1878"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.gipps.org\/revistaredes\/wp-json\/wp\/v2\/tags?post=1878"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}