Frente a esto las abogadas y defensoras de víctimas tienen claro que es necesario especializarse en la materia.
Cada año, miles de mujeres en México son víctimas de la violencia de género, que ahora no solo es física sino también digital, y con la llegada de la Inteligencia Artificial los agresores han encontrado nuevas maneras de seguir agrediendo con imágenes que ni siquiera pertenecen a ellas.
De acuerdo con información obtenida por el Frente Nacional para la Sororidad, entre 2019 y 2023 se han abierto 8 mil 854 carpetas de investigación por delitos contra la intimidad sexual, de las cuales solo se habían emitido dos sentencia y cinco acuerdos reparatorios a las víctimas, pero ninguno por el uso de inteligencia artificial para cometer violencia digital.
Apenas en diciembre del 2024, un tribunal de la Ciudad de México absolvió a Diego 'N', el ex estudiante del IPN que alteró y vendió fotografías de sus compañeras de clase para hacerlas parecer desnudas.
De acuerdo con la abogada de las víctimas Valeria Martínez, durante la audiencia de absolución el juez dijo que si bien reconocía que se había cometido este delito en agravio de las víctimas, no había elementos suficientes que determinaran que esta persona había cometido dicho acto.
Frente a esto las abogadas y defensoras de víctimas tienen claro que es necesario especializarse en la materia, porque aunque actualmente exista una legislación que busca castigar a todos aquellos agresores de las redes, en los hechos esto es muy complicado ante la dificultad de probar que quiénes están acusados son los que cometen el delito, ya que en muchos casos lo hacen desde ordenadores o equipos que no son de su propiedad o que incluso aunque lo sean no hay maneras de probar que ellos lo elaboraron.
“Creo que hace falta que las personas conozcamos las implicaciones de la violencia digital, teníamos la ley Olimpia pero aún así las fiscalías no sabían cómo manejar la inteligencia artificial.
"Creemos que es necesario que se haga un protocolo de cómo investigar este tipo de delitos, con inteligencia artificial, como juzgar estos delitos”, enfatizó Valeria Martínez, representante de las víctimas del IPN.
Actualmente si bien dentro de la tipificación de la violencia digital se consideran a aquellas imágenes son fabricadas y no necesariamente proporcionadas por la víctima, ni en los Tribunales o el Poder Judicial estatal hay información pública respecto a si existen protocolos para juzgar este tipo de casos.
Incluso en la Suprema Corte de Justicia de la Nación no hay ninguna sentencia que hable respecto al uso de la Inteligencia Artificial para cometer delitos cibernéticos.
En este sentido la abogada Leslie Jiménez explicó que es necesaria la capacitación de peritos especializados en materia de inteligencia artificial, quiénes puedan determinar no solo que las imágenes fueron fabricadas sino también que la persona acusada es la que cometió el delito ya que actualmente hay una laguna jurídica en ese sentido.
“Una cosa es decir esta es mi computadora, este es mi teléfono, esta es mi aplicación, de mi número salieron estas imágenes pero no hay una acreditación más allá de duda razonable, que yo lo hice o que lo pudo haber hecho otra persona que tuvo acceso a mi dispositivo”, enfatizó.
Ante ello, hicieron un llamado a las autoridades para especializarse en la materia tomando en cuenta que es un delito que podría ir en aumento sino se comienza a sancionar ni elaborar protocolos no solo que sustenten las carpetas de investigación, sino que también se logren sentencias condenatorias para garantizar el acceso a la justicia para las víctimas.