ıllı Portal de Psicología y NeuroCiencias

Portal wikinfo sobre psicología y neurociencias.

 !Selecciona tu Idioma!

Enciclopedia/Diccionario de Psicología y Neurociencias:

ıllı Inteligencia artificial amigable wiki: info, libros pdf y vídeos

psicologia y neurociencias

salud  Inteligencia artificial amigable 


La inteligencia artificial afable (asimismo llamada IA afable o bien FAI por sus iniciales en inglés) es una IA fuerte (IAF) y también hipotética, puede tener un efecto positivo más que uno negativo sobre la humanidad. El término fue acuñado por Eliezer Yudkowsky para discutir sobre los agentes artificiales súper inteligentes que de forma fiable incorporan los valores humanos. Stuart J. Russell y Peter Norvig, liderando el libro de texto de inteligencia artificial, Inteligencia Artificial: un Acercamiento Moderno, describen dicha idea:


'Amigable' es utilizado en este contexto como terminología técnica y elige agentes que son seguros y útiles, no necesariamente aquellos que son "afables" en el sentido informal. El término es invocado primordialmente en el contexto de discusiones de agentes artificiales de auto-mejora recursiva que de forma rápida explota en inteligencia, con el razonamiento de que esta tecnología hipotética pudiese tener una larga, veloz y bastante difícil labor de supervisar el impacto en la sociedad humana.


El pensador de Oxford, Nick Bostrom, mienta que los sistemas de IA con metas que no son a la perfección idénticas o bien muy de manera estrecha alineadas con las morales humanas son intrínsecamente peligrosas si no se toman medidas extremas para asegurar la seguridad de la humanidad.


Las raíces de esta preocupación son viejísimas. Kevin LaGrandeur mostró que los riesgos concretos de la IA pueden ser vistos en la literatura vieja en relación con sirvientes humanoides artificiales como el golem o bien los proto-robots de Gerbert de Aurillac y Roger Bacon. En aquellas historias, la extrema inteligencia y poder de estas creaciones humanoides chocan con su status como esclavos, que por naturaleza son vistos como sub-humanos, y ocasionan enfrentamientos catastróficos.


Ryszard Michalski, un vanguardista del aprendizaje automático, enseñó a sus estudiantes de Ph.D. hace décadas que cualquier psique alien auténtica, incluyendo una psique de máquina, era incognoscible y por ende peligrosa para los humanos./P>

Más últimamente, Eliezer Yudkowsky ha llamado para la creación de “IA amigable” para atenuar la amenaza existencial de inteligencias hostiles.


Steve Omohundro mienta que todos y cada uno de los sistemas de IA avanzados podrían, a menos contrarrestando de forma explícita, exhibir un número de unidades básicas, tendencias o bien deseos, por el hecho de que de la naturaleza intrínseca de sistemas orientado a objetos y que estas unidades podrían, “sin cautelas especiales”, ocasionar que la IA actúe en formas que van desde la desobediencia hasta lo arriesgadamente poco ético.


Alex Wissner-Gross mienta que las IAs impulsadas para aumentar al máximo su futura libertad de acción (o bien entropía senda casual) podrían ser consideradas afables si su horizonte de planificación es más largo que un cierto umbral o bien secas si su horizonte de planificación es más corto que el umbral.


Luke Muehlhauser aconseja que los estudiosos de la moral de las máquinas adoptan lo que Bruce Schneier ha llamado la "mentalidad de la seguridad": En vez de meditar en de qué manera va a marchar un sistema, imagina de qué manera podría fallar. Por poner un ejemplo, sugiere aun una IA que solo hace predicciones precisas y se comunica por medio de una interfaz de texto, podría ocasionar daño no intencionado.


Yudkowsky avanza el modelo de Voluntad Congruente Extrapolada (CEV por sus iniciales en inglés) y mienta que nuestra voluntad congruente extrapolada son nuestras resoluciones y las acciones que podríamos tomar de forma colectiva si " conociésemos más, pensásemos más veloz, fuésemos más las personas que queremos ser y hubiésemos crecido más cerca."


Más que una IA afable siendo desarrollada de forma directa por programadores humanos, es desarrollada por una IA semilla programada para primero estudiar la naturaleza humana y después generar la IA como humanidad desea, con el tiempo preciso y la visión, para llegar a una contestación satisfactoria. La apelación para una sicología evolucionista (quizás expresada, para propósitos matemáticos, en la manera de una función útil o bien otro formalismo de la teoría de la resolución), puede proveer el criterio último de "Afabilidad", es una contestación al inconveniente de metaética de acotar una ética objetiva; la voluntad extrapolatada pretende ser lo que la humanidad objetiva desearía, considerando todas y cada una de las cosas, mas solo puede ser definido con relación a las cualidades sicológicas y cognitivas de la actualidad, una humanidad no extrapolada.


James Barrat, autor de Our Final Invention, sugiere que "una asociación público-privada debe ser creada para traer a los responsables de la IA juntos para compartir ideas sobre seguridad—algo como la Agencia Internacional de Energía Atómica, mas en asociación con corporaciones." Él insta a los estudiosos de IA para convocar una asamblea afín a la Conferencia de Asilomar de ADN Recombinante, la que discutió los peligros de la biotecnología.


John McGinnis incita a los gobiernos para apresurar la investigación de la IA afable. Por el hecho de que las reglas de la IA afable no son necesariamente claras, sugiere un modelo similar al National Institutes of Health, donde los "Paneles de revisión por pares de computadora y los científicos cognitivos pueden tamizar por medio de proyectos y seleccionar aquellos que son diseñados tanto para avanzar en IA y para asegurar que dichos avances puedan ser acompañados por garantías apropiadas." McGinnis siente que la revisión en pares es mejor "que la regulación para hacer en frente de los inconvenientes técnicos que no son posible apresar por medio de ordenes burocráticos". McGinnis nota que su propuesta contrasta con la del Instituto de Investigación de Inteligencia Maquinaria, la que normalmente tiene como propósito eludir la participación del gobierno en la IA afable.


De pacto a Gary Marcus, la cantidad anual de dinero siendo invertida en el desarrollo de la moralidad de la máquina es pequeña.


Algunos críticos piensan que tanto el IA a nivel humano y la superinteligencia son poco probables, y por esta razón una Inteligencia Articial Afable es poco probable. Alan Winfeld escribiendo en The Guardian equipara la inteligencia artificial a nivel humano con viajar a la velocidad de la luz en concepto de complejidad, y establece que mientras que precisemos ser "precavidos y preparados" dado lo que esta en juego, "no necesitaremos ser obsesivos" sobre los peligros de superinteligencia.


Algunos pensadores aseveran que cualquier agente "racional" auténtico, sea artificial o bien humano, va a ser naturalmente benevolente; en esta visión, garantías deliberadas diseñadas para generar una IA afable puede ser superfluo o bien aun perjudicial. Otros críticos se preguntan de ser posible para una inteligencia artificial ser afable. Adam Keiper y Ari N. Schulman, editores del journal tecnológico The New Atlantis, afirman que va a ser imposible asegurar siempre y en toda circunstancia un comportamiento "afable" en las IA pues los inconvenientes de dificultad de moral no cederán frente a los avances de software o bien el aumento en el poder de las computadoras. Escribieron que los criterios en los que las teorías de IA afable son basadas en el trabajo "solo cuando uno no tenga grandes poderes de predicción sobre la probabilidad de resultados incontables posibles, mas la certidumbre y acuerdo en de qué forma uno valora los diferentes resultados.


mas informacion


  ELIGE TU TEMA DE INTERÉS: 


wiki

  PSICOLOGIA (Wikinfo) 

wiki   BUSCADOR PSICOLOGIA    

 

USUARIOS:

Hay 80 invitados y ningún miembro en línea

psicologia y neurociencias

psicologia y neurociencias

 psicologia y neurociencias

Está aquí: Inicio > [ PSICOLOGIA (WIKINFO) ] > ıllı Inteligencia artificial amigable wiki: info, libros pdf y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas