sábado, 29 de noviembre de 2008

robotica

Robótica
De Wikipedia, la enciclopedia libre
(Redirigido desde Campusbot)
Saltar a navegación, búsqueda

Keepon es un robot que ha ganado gran fama en internet por su difusión en medios como You Tube.
La Robótica es la ciencia y la tecnología de los robots. Se ocupa del diseño, manufactura y aplicaciones de los robots [1] . La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial y la ingeniería de control [2] . Otras áreas importantes en robótica son el álgebra, los autómatas programables y las máquinas de estados.

La historia de la robótica [editar]
La historia de la robótica ha estado unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su torpedo automóvil mediante telegrafía sin hilo, el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.
Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática "Rossum's Universal Robots / R.U.R.", a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.
Fecha
Importancia
Nombre del robot
Inventor
Siglo I a.C. y antes
Descripciones de más de 100 máquinas y autómatas, incluyendo un artefacto con fuego, un órgano de viento, una máquina operada mediante una moneda, una máquina de vapor, en Pneumatica y Automata de Herón de Alexandria
Ctesibius de Alexandria, Filón de Bizancio, Herón de Alexandria, y otros
1206
Primer robot humanoide programable
Barco con cuatro músicos robotizados
Al-Jazari
c. 1495
Diseño de un robot humanoide
Caballero mecánico
Leonardo da Vinci
1738
Pato mecánico capaz de comer, agitar sus alas y excretar.
Digesting Duck
Jacques de Vaucanson
1800s
Juguetes mecánicos japoneses que sirven té, disparan flechas y pintan.
Juguetes Karakuri
Hisashige Tanaka
1921
Aparece el primer autómata de ficción llamado "robot", aparece en R.U.R.
Rossum's Universal Robots
Karel Čapek
1930s
Se exhibe un robot humanoide en la World's Fairs en los años 1939 y 1940
Elektro
Westinghouse Electric Corporation
1948
Exhibición de un robot con comportamiento biológico simple[3]
Elsie y Elmer
William Grey Walter
1956
Primer robot comercial, de la compañía Unimation fundada por George Devol y Joseph Engelberger, basada en una patente de Devol[4]
Unimate
George Devol
1961
Se instala el primer robot industrial
Unimate
George Devol
1963
Primer robot "palletizing"[5]
Palletizer
Fuji Yusoki Kogyo
1973
Primer robot con seis ejes electromecánicos
Famulus
KUKA Robot Group
1975
Brazo manipulador programable universal, un producto de Unimation
PUMA
Victor Scheinman

Véase también [editar]
Cibernética
Codificador rotatorio
Competición de robótica
Computación evolutiva
Cyborg
Domobot
Domótica
Inteligencia artificial
Microsoft Robotics Studio
URBI
Robot
Robótica pedagógica
Robótica evolutiva
Robótica autónoma

Tres leyes de la robótica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los robots (lo que hoy llamaríamos ROM). Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot.
Asimov atribuye las tres Leyes a John W. Campbell, que las habría redactado durante una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas, y que simplemente las expresaron entre los dos de una manera más formal.
Las 3 leyes aparecen en un gran número de historias de Asimov, ya que aparecen en toda su serie de los robots, así como en varias historias relacionadas, y la serie de novelas protagonizadas por Lucky Starr. También han sido utilizadas por otros autores cuando han trabajado en el universo de ficción de Asimov, y son frecuentes las referencias a ellas en otras obras, tanto de ciencia ficción como de otros géneros.

Propósito [editar]
Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo daño o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".
Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante por diez mil años más. Es lógico pensar que el nivel de desarrollo de los robots variaría con el tiempo, incrementándose su nivel de complejidad cada vez más.

Historia de las tres leyes de la robótica [editar]
Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, Robot) eran modelos poco avanzados. Era una época en donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley.
Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de "daño" según sus experiencias, y determinar niveles de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía (su amo, por ejemplo). También podría darse el caso de que un robot dañara físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.

Una cuarta ley [editar]
Uno puede llegar a encariñarse con los robots de Asimov, él que nos muestra en sus historias robots cada vez más "humanos". En El hombre bicentenario, Asimov nos narra la historia de Andrew Martin, nacido robot, y que lucha durante toda su vida para ser reconocido como un ser humano. Están también R. Daneel Olivaw y R. Giskard Reventlov, que tienen un papel fundamental en la segunda expansión de los seres humanos y la consiguiente fundación del imperio galáctico. Siendo los robots más complejos jamás creados, fueron capaces de desarrollar la ley cero de la robótica ("Zero law", en inglés) como corolario filosófico de la primera:
Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
R. Giskard murió en Robots e Imperio, tras verse obligado a dañar a un ser humano en virtud de la ley cero. El problema fundamental con esta ley es definir "Humanidad", así como determinar qué supone un "daño" para la Humanidad. R. Daneel logró asimilarla gracias al sacrificio de Giskard, convirtiéndose desde entonces en el protector en la sombra de la Humanidad. Daneel, bajo distintas identidades, se convierte en uno de los personajes más importantes del ciclo de Trántor (formado por los cuentos y novelas de robots, las novelas del imperio, y la saga de las fundaciones: 17 libros) siendo además un elemento clave en su continuidad para conseguir mayor esfuerzo.

No hay comentarios: