Sociedad

El principal desafío del big data es la “generación de consenso y confianza”

El principal desafío del big data es la “generación de consenso y confianza” en el público, según especialistas que debatieron este martes en Buenos Aires en el 14° Simposio Científico Internacional “Inteligencia Artificial Aplicada a la Clínica” organizado por la Fundación Ineco.

El evento, organizado por Fundación Ineco, se llevó a cabo en el Centro Cites de la Fundación, con modalidad presencial y virtual, y contó con la presencia de su presidenta, Teresa Torralva, quien estuvo a cargo de la presentación y de Marcelo Cetkovich, psiquiatra y director médico de Ineco, quien presentó a Walter Sosa Escudero al momento de su ponencia.

“Los avances tecnológicos de la última década han sido acompañados por una verdadera explosión de paradigmas computacionales que han penetrado los campos de la ciencia y la medicina en su totalidad”, manifestó Fundación Ineco, y agregó que en la neurología y psiquiatría dichos avances traen consigo un potencial “inigualable” al “permitir identificar patrones en datos que convergen de la clínica, las neuroimágenes, marcadores moleculares, y la genética”.

Walter Sosa Escudero, profesor plenario en la Universidad de San Andrés e investigador principal del Conicet, realizó la presentación “Big data: ideas, desafíos y oportunidades”.

El especialista inició su presentación explicando que este fenómeno de “datos y algoritmos” exige una intensa relación interdisciplinaria.

“Cuando aparece una tecnología nueva la gente se agrieta. La gente se vuelve fanática y piensa que a partir de ahora todo es big data y se acabó. Vamos a meter los datos en una computadora y listo”, manifestó.

“Después está la gente que tiene la firme opinión de que es una moda pasajera, como si fuese otro café de especialidad”, continuó.

Sosa, que fue presentado como un “eximio guitarrista y apasionado lector de Jorge Luis Borges”, es economista y se especializó en econometría y estadística aplicada a cuestiones sociales, y durante su presentación recalcó la importancia de la divulgación científica para contarles a quienes no participaron del simposio la importancia de esta tecnología “metida en un terreno en donde no se sabe si es bueno o malo”.

“Lo más interesante del big data es que está en un terreno en el que uno tiene que ser cuidadoso”, explicó.

El big data es “un fenómeno de algoritmos y datos masivos producto de la interacción espontánea con dispositivos interconectados” y agregó “detrás del éxito del big data están las recomendaciones, caracteres, imágenes, texto, medición de patrones, clasificación, orden, y traducción”.

Para ejemplificar el fenómeno de datos masivos, Sosa utilizó a Alice Wu, una estudiante universitaria que buscaba una forma sistemática para medir y cuantificar cuestiones de género.

“Lo que hizo fue entrar a un blog que se llama “rumores del mercado laboral de los economistas” y programó un robot para “leer todos los comentarios, ordenarlos y clasificarlos para que el algoritmo le respondiera la siguiente pregunta: ¿Cuáles son las tres palabras de uso coloquial que mejor predicen que un post en particular hace referencia a un hombre y a una mujer?”, explicó. Los resultados fueron “escalofriantes”, aseveró.

Y continuó: “Las tres palabras que hacen que un posteo haga referencia a un hombre fueron: macroeconomía, tesis y supervisor y, por su parte, las tres palabras que predicen a una mujer fueron: hermosa, histérica y embarazada. El escándalo fue mayúsculo”.

El investigador aseguró que esta historia pone arriba de la mesa cuáles son todas las ventajas y desventajas de este fenómeno de big data, “machine learning”, e inteligencia artificial.

“La característica fundamental del fenómeno de big data tiene que ver con esta naturaleza pasiva y espontánea de generar datos, en contraste con la forma estándar, en que pensamos los datos que surgen de una encuesta o de un experimento”, explicó.

Los datos tienen una estructura, una relación explícita, “casi protocolar”, explicó, entre lo que el dato es y representa, y es la energía y el poder de la ciencia lo que da “validación”.

Respecto a los desafíos, Sosa aseguró que el big data “se lleva puesto la estadística y la ciencia” y que la propia medicina “llegó tarde a la investigación de big data”.

La principal tarea hoy en día, según el especialista, es el desafío de “generar consenso para utilizar big data. No existe el consenso, sí la tecnología”, aseveró.

A continuación, Sosa ejemplificó la generación de “confianza” hacia los algoritmos con una fotografía del sorteo que se realiza al inicio de un partido de fútbol.

“¿Qué pasaría si una decisión importante tendría que tomarla un algoritmo de la FIFA con todos los escándalos que tuvo?”, se preguntó.

“La construcción de consenso es importante. Me gusta decir que más que big data hay que hablar de new data. Lo que más nos llama la atención son los datos que no teníamos”, expresó.

“No hay una profesión que esté en mejores condiciones que otra respecto del big data, el conocimiento específico es fundamental para dotar la estructura”, dijo.

“Lo que hace el big data es buscar datos como si hubiesen sido de un experimento, pero no lo es. Lo cual implica un gran desafío. Eso hay que complementarlos con la inteligencia. Estamos aprendiendo cosas que nunca pensamos que íbamos a saber”, concluyó.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *