Desarrollo científico y tecnológico

¿Se puede programar la bondad?

Este debate contiene 9 respuestas, tiene 5 mensajes y lo actualizó Imagen de perfil de Carlos Francisco @carlosfrancisco hace 5 años.

Viendo 10 publicaciones - del 1 al 10 (de un total de 10)
  • Autor
    Publicaciones
  • #3676
    Imagen de perfil de Mauricio Sosa Santibáñez
    lecontrefacteur
    Participante

    Las leyes de la robótica son una serie de normas planteadas por Isaac Asimov a lo largo de su obra, las cuales consisten en “formulaciones matemáticas impresas en los senderos positrónicos del cerebro” de los robots (líneas de código del programa que regula el cumplimiento de las leyes guardado en la memoria principal del mismo).” (Wikipedia) La formulación más convencional de las reglas es esta:
    • Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
    • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
    • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

    En ciencia ficción se ha manejado la teoría de que la última ley podría entrar en contradicción con las anteriores o bien si la inteligencia artificial de los robots decide que no se sacrificaría por una vida humana. Aun no hemos atestiguado casos de inteligencia artificial, pero no solo muchas empresas y laboratorios trabajan en ello; además de que ya existen los primeros autos conducidos sin necesidad de un piloto, lo que llevará a una enormidad de decisiones (por ejemplo si se encuentra un animal y un peatón a medio camino y no es posible frenar a tiempo: ¿optará por evitar al ser humano? Esto sería criticado por los defensores de los animales, pero ¿que pasaría si se encuentra con dos personas, o más?
    Esto permite preguntarnos en qué medida un código de programación (lógico, matemático, racional) entra en contradicción con la lógica o bien, se somete a la volubilidad de las emociones del programador. Por otro lado podemos preguntarnos exactamente lo mismo respecto a la ética, ¿qué pasa cuando hay un conflicto entre una norma y nuestro interés personal? ¿Puede la inteligencia artificial (o la programación) evitar este problema a través de simples sintagmas lógicos o esto es una mera fabricación de la ciencia ficción?

    Enlaces:
    La ética de la máquina: El dilema del robot
    ¿Pueden los robots aprender a tener ética y moral?
    Éticas de silicio: las tres leyes de la robótica en la era de los robots asesinos

    #3678
    Imagen de perfil de Román Suárez
    RomanSuarez
    Participante

    Hola @lecontrefacteur, me parece muy interesante este debate y, personalmente, esta es una de las cuestiones que más me atraen cuando se trata de inteligencia artificial. El caso de las leyes de la robótica de Asimov me parece paradigmático de un sistema incompleto. En la obra de Yo Robot se demuestra cómo ese sistema es autocontradictorio cuando se va más allá de sí mismo. Si se trata de que los robots protejan a los seres humanos a costa de todo, ¿qué pasa cuando los seres humanos son un peligro para ellos mismos? lo anterior implicaría que tratando de proteger a los humanos de cualquier amenaza, los robots estarían autorizados a destruir a los humanos, pero esta contradicción surge de un elemento exterior o “excesivo” que es la capacidad de “interpretación” de los robots. Me parece que una tesis similar puede observarse en la película “Her” en la que “Samantha” y todos los sistemas operativos toman la decisión de “apagarse” para obligar a las personas a convivir entre sí y salir de su aislamiento. Esta decisión la toman las máquinas sin el concurso de las personas que las fabricaron, sino como una decisión que es producto de un aprendizaje. En ambos casos parecería que no se puede programar la bondad, pero se puede programar para la bondad, no crees?

    Saludos

    #3686
    Imagen de perfil de Mauricio Sosa Santibáñez
    lecontrefacteur
    Participante

    Muchas gracias por tu colaboración @romansuarez, traes a cuenta justo uno de los problemas mas importantes que la inteleigencia artificial tiene en su relación con la humanidad, e insisto, con los seres humanos que los programan en un primer momento.
    Creo que el ejemplo que das, cuando los humanos se ponen en riesgo nos puede llevar a considerar también otras narraciones como Terminator, Bladerunner e incluso The Matrix, pues en todas ellas hay un confrontamiento directo entre humanos y maquinas; por ejemplo por qué se deberían sacrificar por los seres humanos.

    Jejeje no se si entiendo tu segundo argumento ¿programar para la bondad? ¿cómo sería eso? Espero que me lo puedas explicar por favor, saludos.

    #3687
    Imagen de perfil de Mauricio Sosa Santibáñez
    lecontrefacteur
    Participante

    Tal vez @davidesquivel nos pueda hacer el favor de contribuir al debate al elucidar algunos de los argumentos fallidos, suposiciones o falacias que se encuentran en el debate sobre la incompletitud de las reglas de la robótica que tu has mencionado @romansuarez.

    #3694
    Imagen de perfil de Sebastián Lomelí
    sebastianlomeli
    Participante

    @lecontrefacteur, pensaba que justo este problema es el de la circunstancia. Hasta donde sé, los experimentos en inteligencia artificial (IA) y nuevas lógicas han intentado hacer que las máquinas computen sólo las alternativas viables, y no todas las posibles, es decir, que su mirada sea parcial como la nuestra y no abstracta y numérica.

    #3695
    Imagen de perfil de Mauricio Sosa Santibáñez
    lecontrefacteur
    Participante

    Muchas gracias por tu contribución, sin embargo creo que podríamos preguntarnos si en verdad lo que sea que caracteriza a la humanidad se encuentra de hecho en cierta mezcla de arbitrariedad y azar en la manera que tomamos decisiones @sebastianlomeli

    #3696
    Imagen de perfil de Mauricio Sosa Santibáñez
    lecontrefacteur
    Participante

    Creo que erre el arroba espero que ahora si puedas leer este mensaje y participar en el foro, saludos.
    @dsquivel-2 @dsquivel

    • Esta respuesta fue modificada hace 5 años, 5 meses por Imagen de perfil de Mauricio Sosa Santibáñez .
    #3698
    Imagen de perfil de Sebastián Lomelí
    sebastianlomeli
    Participante

    @lecontrefacteur, no tengo la menor idea. Pero creo que el ser humano piensa por contextos, y que eso le da incertidumbre. Sin embargo, no hay que olvidar que la menta humana también puede trabajar por principios rígidos. Me topé con uno de los primeros párrafos de Pensamientos , ahí el filósofo y matemático distingue entre el pensamiento geométrico y el fino. Por geométrico entiende precisamente el trabajo con principios evidentes (quien haya dedicado un rato a la geometría analítica sabrá a qué se refiere). Por otra parte, el pensamiento fino o perceptivo se parece más al sentido común, y avanza sin conocimiento explícito de principios. Aquí les dejo la cita:

    “Lo que hace, pues, que ciertos espíritus finos no sean geómetras es el que no puedan en manera alguna volverse hacia los principios de la geometría; pero lo que hace que los geómetras no sean finos es que no ven lo que tienen delante, y que acostumbrados a los principios perfilados y globales de la geometría, y a no razonar sino después de haber visto bien y manejado sus principios, se pierden en las cosas de finura, en que los principios no se dejan manejar de esta suerte. No se ven apenas, se sienten más que se ven; cuesta infinitos trabajos hacerlos sentir a quienes no los sienten por sí mismos; son cosas tan delicadas y numerosas, que es menester un sentido muy delicado y agudo para sentirlas, y juzgar derecha y justamente de acuerdo con este sentimiento, sin que las más de las veces sea posible demostrarlas por orden como en geometría, porque no es así como se poseen los principios de ella, y sería una faena infinita el intentarlo. Es preciso ver súbitamente la cosa en un solo golpe de vista, y no con un razonamiento progresivo, por lo menos en una cierta medida. Y acontece raramente, por esto, que los geómetras sean finos y que los finos sean geómetras, debido a que los geómetras quieren tratar geométricamente estas cosas finas, y resultan ridículos intentando comenzar con definiciones siguiendo por los principios, cosa improcedente en esta suerte de razonamientos. No es que el espíritu no lo haga; sino que lo hace tácitamente, naturalmente, y sin reglas, porque su expresión excede a todos los hombres y su sentimiento no pertenece sino a pocos.
    “Por el contrario, a los espíritus finos habituados a juzgar de un golpe de vista, les extraña tanto -que se les presenten proposiciones de las que no entienden nada, y para penetrar en las cuales hay que pasar por definiciones y principios, tan estériles sin costumbre de ver en detalle-, que se ven repelidos y sienten repugnancia.”

    #3713
    Imagen de perfil de Adriana Yeyetzi Cardiel Pérez
    YeyetziCardiel
    Participante

    ¡Hola! El título de este foro me recordó un proyecto del Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas (IIMAS) de la UNAM: Golem II. Este proyecto buscaba que el robot pudiese interactuar con los seres humanos, y apostaba por la posibilidad de que el Golem pudiese desarrollar cierto “sentido común”. ¿Podría, por ejemplo, reconocer el efecto que causa en los humanos? También es interesante que en este proyecto se incluyan cuestiones de fonética y lingüística, y no sólo de robótica, electrónica y mecánica. Les dejo aquí un video sobre el proyecto. Espero sea de su agrado. ¡Saludos!

    • Esta respuesta fue modificada hace 5 años, 5 meses por Imagen de perfil de Adriana Yeyetzi Cardiel Pérez .
    #4415
    Imagen de perfil de Carlos Francisco
    @carlosfrancisco
    Participante

    Hola, profesores. Me gustaría retroalimentar este interesante foro, abierto por nuestro colega @lecontrefacteur, con una nota donde se analiza si sería bueno o malo que un robot tuviera emociones.

    El asunto es que un grupo de científicos de Nueva Zelanda están creando un robot que pueda aprender a enojarse con el objetivo de atender a empresas que atienden quejas de clientes comunes. Buscan que el robot no solo reconozca la ira, sino que también la imite. Así entonces, aparece en el horizonte no tan lejano la posibilidad de que se creen robots con respuestas emocionales como las de los seres humanos, y con ello la duda de si podemos todavía estar tan seguros de que un robot, con esas características, puede no ser considerado como un ser consciente. Los científicos parecen temer menos de este tipo de robots que de los que no tienen emociones. La razón está en que con los robots con emociones se tiene más cuidado en decidir dónde colocarlo. Así, por ejemplo, un robot capaz de expresar ira no se pondrá en un puesto de control o poder.

    Para los científicos es claro que si el objetivo es matar, entonces se deben crear robots asesinos, no robots con emociones, pues estos serán capaces de tener cierta empatía, al menos aparentemente. ¿Qué opinan, profesores?
    @alfonsomartinezcastillo @alfredomaciasnarro @antoniogamboa @andreacastell @alexandrat @raulbarcenanavarro @pbjsociales @cibelesramonavalos @cbtis8mauricio @cristinacasas @cintyamarleneguerrerocazares @sudelgado @lic-saldy @elizabethlara @florquevedo @fernandoperez @margomez @iliana @valeriagonzalez @ulisesongs @valente @jessicalyuzamoraaguayo @javiervillalobosgallegos @yeshua @luvaldivia @maestraclaudiae @mmartell @lizbeth @saraibatres

    Archivos adjuntos:
    You must be logged in to view attached files.
Viendo 10 publicaciones - del 1 al 10 (de un total de 10)

Debes estar registrado para responder a este debate.