Revisión por pares para robots: ¿Se puede confiar en el aprendizaje automático para hacer nuevos...

Revisión por pares para robots: ¿Se puede confiar en el aprendizaje automático para hacer nuevos...
Revisión por pares para robots: ¿Se puede confiar en el aprendizaje automático para hacer nuevos descubrimientos?





A menudo me he preguntado si las futuras variedades de inteligencia artificial podrían no ayudar a los humanos a descubrir cosas increíblemente nuevas sobre la realidad. Tal vez las máquinas incluso desvelarán pequeños matices que han estado ocultos bajo nuestras narices todo el tiempo, pero que requerían el tipo de críticas que solo una mente informática podría ofrecer.



Pero mientras estamos pensando en las formas siempre vigilantes de A.I. Puede ayudarnos a criticar la realidad en el futuro, otra pregunta que viene a la mente que refleja la vieja idea, "quis custodiet ipsos custodes? ” propuesto por el satírico romano Decimus Junius Juvenalis: en un mundo en el que estamos aprendiendo de las máquinas que hemos construido, que verifica esas máquinas y, lo que es más importante, ¿cómo sabemos que podemos confiar en lo que aprendemos de ellas?



Esto puede sonar como una propuesta tonta, debido en parte a los tipos de estigmas que tenemos sobre la inteligencia artificial y el aprendizaje automático. Por un lado, muchos se atribuyen a nociones como "por supuesto no deberíamos confiar completamente en las máquinas ... ¡no son humanas! "En contraste directo con esto, los defensores del aprendizaje automático y A.I. podría argumentar que esta es precisamente la razón por la que debería ser confiable: las máquinas son, y seguirán siendo, capaces de procesar y sintetizar información de maneras que a menudo superan con creces lo que puede hacer el cerebro humano.




Genevera Allen, un estadístico de la Universidad Rice, recientemente argumentó que hasta que los sistemas de aprendizaje automático puedan diseñarse de manera que permitan críticas objetivas de la información que proporcionan, su confiabilidad sigue siendo errónea.


Allen habló a principios de febrero en una reunión anual de la Asociación Americana para el Avance de la Ciencia, donde ella abordó este problema como parte de su conferencia


"La pregunta es: '¿Podemos realmente confiar en los descubrimientos que se están realizando actualmente utilizando técnicas de aprendizaje automático aplicadas a grandes conjuntos de datos?' La respuesta en muchas situaciones es probablemente 'No sin verificación', pero se está trabajando en el siguiente sistemas de aprendizaje automático de generación que evaluarán la incertidumbre y la reproducibilidad de sus predicciones ".


Fundamental para el problema es la naturaleza predictiva de muchos sistemas computacionales (si no la mayoría). Allen argumenta que debido a que hacer una predicción sobre la información es para lo que están diseñadas estas computadoras, es poco probable no para encontrar datos cuando se le encomienda hacerlo ... incluso si un humano que observa los mismos datos podría discernir fácilmente que, en algunos casos, no existe ninguno.


"[Machines] nunca vuelva con "No sé" o "No descubrí nada" porque no están hechos para hacerlo ", dijo Allen en un comunicado de prensa de la Rice University. Sin embargo, las preocupaciones que plantea Allen no son meramente prospectivas: ya existen algunos casos en los que parece que se pudo haber obtenido información cuestionable, al menos en parte, de estudios que incorporaron datos computacionales que permanecieron sin corroborar en relación con la investigación del cáncer.


Allen explica:


"[T]Aquí hay casos donde los descubrimientos no son reproducibles; los grupos descubiertos en un estudio son completamente diferentes a los grupos encontrados en otro ... Debido a que la mayoría de las técnicas de aprendizaje automático de hoy en día siempre dicen: 'Encontré un grupo'. A veces, sería mucho más útil si dijeran: 'Creo que algunos estos están realmente agrupados, pero no estoy seguro de estos otros ''.


Recuerdo una discusión que tuve con un futurista hace unos meses, donde discutimos la pregunta sobre los peligros derivados de los problemas interpretativos que pueden surgir de la forma en que el aprendizaje automático difiere del nuestro. El ejemplo que dio fue relevante aquí, aunque más en línea con la concepción "hollywoodense" de los problemas potenciales que algún día podamos tener con A.I. (podríamos llamar a esto el modelo "Terminator", que creo que no necesita más explicación aquí).



Imagínese, dijo, si le dijéramos a A.I. para encontrar una manera de destruir una enfermedad humana en particular. Ingresamos la información y la computadora emite la siguiente solución: "destruir a todos los portadores de la enfermedad". En otras palabras, en lugar de encontrar un cura, la máquina interpreta el problema en términos simples de su eliminación... mediante el cual la máquina no hace distinción entre "resolver" el problema y cometer un asesinato.


Este es un ejemplo dramático, pero funciona de forma analógica en comparación con lo que ya vemos en estudios en los que está involucrado el aprendizaje automático. En otras palabras, las computadoras funcionan y responden a conjuntos de datos en formas que difieren enormemente de la razón humana. Por lo tanto, debemos ser conscientes de este tipo de problemas, ya que cada vez más sistemas computacionales afectan el conocimiento que la ciencia está adquiriendo y con el que está trabajando en el futuro.


.

LINK DE LA FUENTE ORIGINAL MYSTERIOUS UNIVERSE https://www.eresviral.com

Comentarios