TECNO Cómo evitar que tus datos sean utilizados para entrenar a la IA

Cómo evitar que tus datos sean utilizados para entrenar a la IA

0

Gran parte de las empresas desarrolladoras de inteligencia artificial recopilan datos para entrenar sus modelos sin tomar en cuenta las leyes de derechos de autor o incluso políticas de privacidad. Pues, los grandes modelos de lenguaje se alimentan de inmensas cantidades de información en la web proveniente de miles de sitios. Los cuales, usualmente, otorgan a las compañías de IA el acceso a la información de los usuarios sin notificar a estos sobre los métodos de recopilación de la información.

Esto genera consecuencias como las miles de demandas relacionadas con las prácticas poco transparentes de las grandes compañías tecnológicas en torno a la recopilación de datos. Sobre esto, Niloofar Mireshgallah, investigadora de privacidad de la IA en la Univesidad de Washington, afirma, las empresas suelen complicar los procesos para que las personas no soliciten que sus datos no sean utilizados para entrenar modelos de IA.

Lo anterior se hace principalmente con la inclusión de un permiso de aceptación de datos de manera predeterminada en las políticas de privacidad. Por lo cual, quienes no quieran que su información sea utilizada, deben hacer uso de las herramientas de exclusión voluntaria.

Cabe mencionar, no todas las empresas ofrecen soluciones o mecanismos de exclusión voluntaria que permitan a los usuarios decidir si su información será utilizada para entrenar a la IA o no. Pese a ello, algunas plataformas ya implementan procesos para ofrecer a las personas mayor control sobre su información y cómo es utilizada.

Aunque son escasas, algunas empresas no le permiten a los modelos de IA utilizar los datos de sus usuarios y, por tanto, los datos no están comprometidos. Por otra parte, cabe agregar, la mayor parte de las exclusiones voluntarias competen a los datos de texto, sin embargo, existen servicios como Spawing, que permiten a los usuarios revisar si sus imágenes han sido recopiladas por modelos de IA e inhabilitar los datos.

Wired enlistó algunas de las compañías que actualmente cuentan con proceso de exclusión voluntaria, lo cual brinda información sobre como evitar que modelos de IA recopilen datos, al menos cuando las plataformas brindan los mecanismos para hacer esto. Sin embargo, esto no protege los datos publicados anteriormente, sino lo que se compartirá en un futuro.

Así, Adobe aprovecha los archivos almacenados en Creative Cloude para entrenar su propio algoritmo de aprendizaje automático, no obstante, esto no aplica a los archivos guardados únicamente en dispositivos. Por otra parte, la empresa permite a los usuarios desactivar el análisis de contenido en la nube, con lo cual se prohíbe que los datos se utilicen para entrenar a la IA. Para conseguir esto se debe apagar la selección «Análisis de contenido», la cual se encuentra en el panel de configuración de seguridad.

De igual forma, Amazon Web Services guarda la información de sus clientes para optimizar sus modelos de lenguaje y también cuenta con un proceso de exclusión voluntario. Sin embargo, Wired califica este como uno de los procesos más complejos, pues es necesaria la intervención de un administrador o representante profesional de AWS para llevarlo a cabo. Esto, dado que habilitar la opción, requiere crear una política de protección de datos y anexarla cuando es necesario.

Gemini de Google suele analizar conversaciones con el fin de mejorar el modelo de lenguaje. Mas, estas revisiones pueden ser inhabilitadas en el menú del navegador de Google. Esto requiere ingresar al panel de actividades en la paliación de Gemini y activar la opción de exclusión voluntaria. El proceso de Tumblr es similar, pues solo requiere de habilitar la opción «impedir que se comparta con terceros» de la configuración de visibilidad de datos. Aunado a ello, la empresa es clara al mencionar, los contenidos explícitos, blogs eliminados y protegidos con contraseña o privados no son compartidos con terceros.

El listado de Wired es muestra de que los procesos de exclusión voluntarios son diversos y varían de compañía en compañía. Por lo cual es recomendable consultar las políticas de uso de datos de cada una de las plataformas que se utilizan. En cuyo caso no quiera compartirse información con posibles compañías desarrolladoras de IA.

Salir de la versión móvil