ıllı Portal de Psicología y NeuroCiencias (2018)

Portal wikinfo sobre psicología y neurociencias.

 !Selecciona tu Idioma!

Enciclopedia/Diccionario de Psicología y Neurociencias:

ıllı Responsabilidad moral wiki: info, libros pdf y vídeos

psicologia y neurociencias

salud  Responsabilidad moral 


La responsabilidad ética es aquella en la que se toma responsabilidad sobre un acontencimiento concreto o bien persona, poniendo la ética por sobre lo demás. Se trata entonces de la responsabilidad que se relaciona con las acciones y su valor ética. Desde una moral consecuencialista, dicho valor va a ser dependiente de las consecuencias de semejantes acciones. Sea entonces al daño ocasionado a un individuo, a un conjunto o bien a la sociedad entera por las acciones o bien las no-acciones de otro individuo o bien conjunto.


En una moral deontológica, en cambio, semejantes acciones van a tener un valor intrínseco, independiente de sus consecuencias. Desde esta perspectiva, es un sistema de principios y de juicios compartidos por los conceptos y las opiniones culturales, religiosas y filosóficas, lo que determina si ciertas acciones dadas son adecuadas o bien incorrectas. Estos conceptos son extendidos y codificados con frecuencia por una cultura o bien un conjunto, y sirven de esta forma para regular el comportamiento de sus miembros. De conformidad a tal codificación se le puede asimismo llamar moralidad, y el conjunto puede depender de una extensa conformidad a semejantes códigos para su existencia perdurable.


Desde el punto de vista de la organización social, la responsabilidad ética se distingue de la responsabilidad jurídica por su carácter interno. La responsabilidad ética se refiere eminentemente al carácter interno de las conductas (la conciencia o bien pretensión de quien ha actuado), sin importar un mínimo aspectos externos como el hecho de que estas hayan sido descubiertas o bien sancionadas. Al contrario, los procesos jurídicos no son necesariamente procesos de pretensión (por poner un ejemplo, la prescripción del delito de hurto por el mero trascurso del tiempo puede inutilizar la responsabilidad jurídica sin inutilizar la responsabilidad ética).


La responsabilidad ética ocupa un sitio cada vez más esencial en la opinión pública cuando la adjudicación de la responsabilidad jurídica por medio de los tribunales es deficiente para cerrar casos como son, por poner un ejemplo, escándalos de corrupción ligados al ocultamiento de cifras en la contabilidad de empresas, derramamiento de petróleo en zonas naturales, financiamientos ilegales de campañas y escándalos de corrupción política.


El término aparece asimismo en la discusión de temas como determinismo o bien libre arbitrio, pues sin la libertad es bastante difícil ser culpado por las propias acciones, y sin esta responsabilidad ética la naturaleza del castigo y la moral se transforman en una interrogante.


La aparición de la automatización, la robótica y las tecnologías relacionadas provocó la pregunta: "¿Puede un sistema artificial ser éticamente responsable?" El interrogante tiene una variación de manera estrecha relacionada: "Cuando (si alguna vez) Desde su (s) autor (es) humano (s) hasta el sistema? "


Las preguntas, sin duda, se unen con la moral de la máquina, mas se distinguen de ella, que se refiere al comportamiento ética de los sistemas artificiales. Si el comportamiento de un sistema artificial lo califica para ser éticamente responsable ha sido un enfoque clave del discute.


Argumentos que los sistemas artificiales no pueden ser éticamente responsables


Batya Friedman y Peter Kahn Jr postularon que la intencionalidad es una condición precisa para la responsabilidad ética y que los sistemas informáticos concebibles en mil novecientos noventa y dos en material y estructura no podrían tener intencionalidad .


Arthur Kuflik aseveró que los humanos deben aceptar la última responsabilidad ética por las resoluciones de una computadora, puesto que son los humanos quienes diseñan las computadoras y escriben sus programas. Planteó además de esto que los humanos jamás pueden abandonar a la vigilancia de las computadoras.


Frances Grodzinsky et al. Considerados sistemas artificiales que podrían modelarse como máquinas de estado finito. Ellos postularon que si la máquina tenía una tabla de transición de estado fijo, entonces no podría ser éticamente responsable. Si la máquina pudiese alterar su mesa, entonces el diseñador de la máquina aún conserva cierta responsabilidad ética.


Patrick Hew arguyó que a fin de que un sistema artificial sea éticamente responsable, sus reglas de conducta y los mecanismos para proveer esas reglas no han de ser suministrados por entero por humanos externos. Además de esto, arguyó que estos sistemas son una diferencia substancial de las tecnologías y la teoría existentes en dos mil catorce. Un sistema artificial basado en esas tecnologías no va a tener responsabilidad por su comportamiento. La responsabilidad ética se reparte entre los humanos que crearon y programaron el sistema.


(Se puede hallar una revisión más extensa de los razonamientos en).


Argumentos que los sistemas artificiales pueden ser éticamente responsables


Colin Allen et al. Planteó que un sistema artificial puede ser éticamente responsable si sus comportamientos son funcionalmente indistinguibles de una persona ética, acuñando la idea de una "Prueba Ética de Turing". Más tarde, desautorizaron la Prueba Ética de Turing en reconocimiento de las polémicas que rodeaban la Prueba de Turing.


Andreas Matthias describió una "brecha de responsabilidad" en la que responsabilizar a los humanos de una máquina sería una injusticia, mas mantener la máquina responsable retaría las formas "tradicionales" de adscripción. Planteó 3 casos en los que el comportamiento de la máquina debía atribuirse a la máquina y no a sus diseñadores o bien operadores. Primeramente, arguyó que las máquinas modernas son intrínsecamente impredecibles (hasta un punto), mas efectúan labores que deben efectuarse mas que no pueden ser manejadas por medios más fáciles. Segundo, que hay poco a poco más "capas de obscuridad" entre los fabricantes y el sistema, en tanto que los programas codificados a mano se reemplazan por medios más complejos.Tercero, en sistemas que tienen reglas de operación que pueden ser cambiadas a lo largo del funcionamiento de la máquina.


(Se puede hallar una revisión más extensa de los razonamientos en).


mas informacion


  ELIGE TU TEMA DE INTERÉS: 


wiki

  PSICOLOGIA (Wikinfo) 

wiki   BUSCADOR PSICOLOGIA    

 

USUARIOS:

Hay 54 invitados y ningún miembro en línea

psicologia y neurociencias

psicologia y neurociencias

 psicologia y neurociencias

Está aquí: Inicio > [ PSICOLOGIA (WIKINFO) ] > ıllı Responsabilidad moral wiki: info, libros pdf y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas