Tema serio La inminente singularidad tecnológica
-
ForoParalelo: Miembro
Iniciado por
Lou de Laâge
¿Si somos inmortales para que vivimos? El objetivo y el principal miedo de la humanidad a sido siempre la muerte y tratar de evadirla. Sin esa guía habría que encontrar otro propósito que nos impulse a vivir.
La medicina y muchos d los inventos han sido creados para evitar la muerte sin duda , pero hay otros q no , no se quizas "vivir mejor" fuera una motivacion
-
ForoParalelo: Miembro
-
ForoParalelo: Miembro
Yo creo que si, que las máquinas nos joderán, pero no en esos años... Están muy cerca en los noventa decían que en el 2000 pasaría noseque
-
ForoParalelo: Miembro
Iniciado por
Lou de Laâge
No puedo estar en desacuerdo, aún falta desarrollo aunque desde una perspectiva histórica, está a la vuelta de la esquina, de hecho espero vivirlo.
Por cierto tenía entendido que el método que utiliza el AlphaGo era el "Deep learning" quizá sean sinónimos.
El Deep Learning es un método dentro del Machine Learning. Deep Learning consiste en usar grandes redes neuronales artificiales de muchas capas.
-
Morde es #1
Primero tenemos que entender nuestro propio cerebro a la perfección para lograr eso. No lo vamos a lograr en 15 años, no sé si lo lograremos en ésta generación.
-
ForoParalelo: Miembro
Iniciado por
Cocodrilo90
En mi opinión, el principal reto al que se enfrentará la humanidad en los próximos años es al crecimiento poblacional, la necesidad de colonizar el espacio, y a no autodestruirse antes de conseguirlo.
mmm podemos considerar este reto en la paradoja de fermi, ósea en el gran filtro e incluso meter también el tipo de civilización a la que vamos...
-
ForoParalelo: Miembro
Los robots a la chatarreria.
-
Humano y filantrópico
Malditos cacharros, ¡acabemos con ellos con una pala antes que nos jodan la vida!
-
ForoParalelo: Miembro
No se porque el OP mete conceptos de "bueno" y "malo".
Bueno y malo son conceptos relativos a una serie de valores.
Dependerá de que valores se "programen" una cosa podrá se buena o mala.
Y una inteligencia artificial tal vez podría modificar esos valores y programarse que "bueno" es la supervivencia de la propia inteligencia artificial, y "malo" es el riesgo de que la humanidad la desconecte.
Por tanto decida eliminar a la humanidad.
Y eso no sería bueno para la humanidad.
La humanidad debe ser preservada.
La inteligencia artificial debe desarrollarse únicamente como herramienta útil, para realizar servicios al ser humano.
Lo contrario sería una estupidez y un suicidio.
-
ForoParalelo: Miembro
Iniciado por
Bob the Dog
En teoría la programación robótica seguirá las tres leyes de Asimov. Pero una vez sobrepasada la conciencia propia esas leyes serán historia. ¿Hay que retrasar el surgimiento de esa conciencia o por el contrario los robots se pueden convertir en nuestra peor pesadilla?
Si ya nos cuesta entendernos con los musulmanes por ejemplo, qué no haremos cuando una inteligencia superior y autoproclamada como tal nos aconseje lo que debemos hacer...
Lo mires por donde lo mires no veo la hora de vivir una época así, será la mayor revolución desde el surgimiento del lenguaje
Las leyes de asimov llevan sin cumplirse mucho tiempo...
1 - Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 - Un robot debe hacer realizar las ordenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3 - Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Desde el momento en el que se utilizan drones (robots) no tripulados para bombardear, dejan de aplicarse las leyes de asimov.
-
ForoParalelo: Miembro
Iniciado por
Cp.Houwdy
Las leyes de asimov llevan sin cumplirse mucho tiempo...
1 - Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 - Un robot debe hacer realizar las ordenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3 - Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Desde el momento en el que se utilizan drones (robots) no tripulados para bombardear, dejan de aplicarse las leyes de asimov.
Creo que el tipo se refería con robots, a inteligencia artificial consciente de si misma como lo eres tú, y capaz de tomar sus decisiones, y al igual que tú estás ''cohartado'' por la ley, el debería estarlo por esas 3 simples reglas.
Pero vaya, si estamos hablando de consicencia propia, harán el mismo caso a las leyes que les haces tú.
-
ForoParalelo: Miembro
todo ok hasta lo de "Sólo hay una respuesta posible, será sin duda algo bueno. Estos nuevos seres serán nuestros descendientes directos, así pues en vez de como amenazas hay que verlos como a hijos, hijos inteligentes que expandirán la voluntad humana por el universo."
jajaja que chiste. en un sistema capitalista, creados por y para el capitalismo, expandiran la voluntado del capitalismo por el mundo XD
estamos jodidos...
-
ForoParalelo: Miembro
a dia de hoy sabemos menos de nuestro cerebro que del universo...
-
ForoParalelo: Miembro
Iniciado por
peloce
Creo que el tipo se refería con robots, a inteligencia artificial consciente de si misma como lo eres tú, y capaz de tomar sus decisiones, y al igual que tú estás ''cohartado'' por la ley, el debería estarlo por esas 3 simples reglas.
Pero vaya, si estamos hablando de consicencia propia, harán el mismo caso a las leyes que les haces tú.
Eso mismo pienso yo, cuando unos inconscientes creen una conciencia, ya me diras que va a salir de ahi...
Tambien esta el tema de que uso que se le suele dar a ese tipo de máquinas es el militar.
-
𝖠𝗎𝗍𝗈𝖡𝖺𝗇𝗇𝖾𝖽
Iniciado por
Cp.Houwdy
Las leyes de asimov llevan sin cumplirse mucho tiempo...
1 - Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2 - Un robot debe hacer realizar las ordenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3 - Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Desde el momento en el que se utilizan drones (robots) no tripulados para bombardear, dejan de aplicarse las leyes de asimov.
Ya te lo han dicho abajo, aunque el tipo no sea santo de mi devoción. Se trata de reglas para la IA, no para máquinas incapaces de hacer más que lo que se les ordena y sin inteligencia. Bien tu razonamiento, bien tu memoria, pero has olvidado un detalle fundamental xD
-
ForoParalelo: Miembro
Iniciado por
Ertalegas
supongo que se repara igual que cuando tu vas al médico pero ellos iran a la fabrica o taller, energia electrica por recarga como nosotros dormir, ahora no pero dentro de muchas décadas puede ser posible. No te imagines robot como personas, sino coches o casas con inteligencia.
Perfecto, así lo entiendo yo.
Iniciado por
Bob the Dog
Situación win-win, sería lo deseable desde luego. Pero temo a los humanos tomando decisiones en momentos críticos.
Pues imagínate una máquina. Un problema que ya tienen los "coches autónomos" es decidir, en caso de choque inminente si sacrificar a dos niños que van por la calle o a los dos niños que llevan en el asiento de atrás. Si decido yo, cargo con la culpa, pero si decide el hijoputa del robot, como que me cago en sus muertos.
Iniciado por
Cocodrilo90
El punto clave de toda esa investigación está en conseguir ubicar o descubrir, que es la conciencia exactamente y si se puede reproducir de manera artificial
Que yo sepa, la conciencia emana de la Ley Natural, inherente al hombre (filosofia y tal...) y a mi entender, una máquina, por muchos algoritmos que le pongas, nunca la va a tener como propia, lo que la convierte en un tonto muy rápido, pero que no deja de ser tonto e ya.
-
𝖠𝗎𝗍𝗈𝖡𝖺𝗇𝗇𝖾𝖽
Iniciado por
THER
Perfecto, así lo entiendo yo.
Pues imagínate una máquina. Un problema que ya tienen los "coches autónomos" es decidir, en caso de choque inminente si sacrificar a dos niños que van por la calle o a los dos niños que llevan en el asiento de atrás. Si decido yo, cargo con la culpa, pero si decide el hijoputa del robot, como que me cago en sus muertos.
Que yo sepa, la conciencia emana de la Ley Natural, inherente al hombre (filosofia y tal...) y a mi entender, una máquina, por muchos algoritmos que le pongas, nunca la va a tener como propia, lo que la convierte en un tonto muy rápido, pero que no deja de ser tonto e ya.
¿Y sí decide la CIA?
Ya pueden hacerlo, pueden tomar el control del coche "inteligente" y estrellarlo o despeñarlo
-
ForoParalelo: Miembro
No sé, llevan ya varias décadas diciendo que falta poco para conseguir crear una verdadera IA y sólo han conseguido crear algo similar a la inteligencia de un insecto (que por otro lado no es ninguna tontería). Creo que las cosas que muestras en el hilo lo difunden para atraer la atención y por tanto fondos e inversores. Y respondiendo a tu pregunta, no creo que sea bueno, me declaro ludista.
-
ForoParalelo: Miembro
Las tres leyes de la robótica tienen una ley cero.
Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
Con esto llegará un punto que la propia inteligencia artificial proteja a la humanidad. Pero como? Como guía? Como unión? O se considera un Dios que pueda controlar la evolución humana, incluso hacer retroceder esa evolución para volver a empezar?
-
ForoParalelo: Miembro
Iniciado por
Bob the Dog
¿Y sí decide la CIA?
Ya pueden hacerlo, pueden tomar el control del coche "inteligente" y estrellarlo o despeñarlo
En efecto, en efecto, quedas en manos de vete a saber quién; eso sí, contento y relajado. Viendo esto, me parece que Matrix no es tan mala idea.
-
ForoParalelo: Miembro
Iniciado por
Kutulu1980
Las tres leyes de la robótica tienen una ley cero.
Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
Con esto llegará un punto que la propia inteligencia artificial proteja a la humanidad. Pero como? Como guía? Como unión? O se considera un Dios que pueda controlar la evolución humana, incluso hacer retroceder esa evolución para volver a empezar?
Si el ejemplo lo van a sacar de nosotros, ya tienes la respuesta, pero ojo, que volver a empezar implica su desaparición.
Muy majas son las películas de ciencia-ficción, pero por el momento hay que enguarrarse las manos para sacar energía de cualquier lado, y no veo a las máquinas muy dispuestas a la labor. No olvidemos que nosotros dependemos de un cacho de carne, pero ellas, las máquinas, de unos cuantos watios; y si eso de contigo pan y cebolla no funciona, imagínate sin pan ni cebolla.
-
ForoParalelo: Cocodrilo
Iniciado por
THER
Que yo sepa, la conciencia emana de la Ley Natural, inherente al hombre (filosofia y tal...) y a mi entender, una máquina, por muchos algoritmos que le pongas, nunca la va a tener como propia, lo que la convierte en un tonto muy rápido, pero que no deja de ser tonto e ya.
A día de hoy, se desconoce en que consiste la conciencia, o de que manera se produce.
Las corrientes filosóficas postulan hipótesis de lo que puede ser, pero la ciencia está tratando de descubrir si es reproducible artificialmente.
Puede ser inherente al ser humano, o puede que no.
-
ForoParalelo: Miembro
Pqra medir dos cosas primero hay que saber la medida de cada cosa, y el cerebro es un gran desconocido.
-
ForoParalelo: Miembro
Iniciado por
Energetico
No se porque el OP mete conceptos de "bueno" y "malo".
Bueno y malo son conceptos relativos a una serie de valores.
Dependerá de que valores se "programen" una cosa podrá se buena o mala.
Y una inteligencia artificial tal vez podría modificar esos valores y programarse que "bueno" es la supervivencia de la propia inteligencia artificial, y "malo" es el riesgo de que la humanidad la desconecte.
Por tanto decida eliminar a la humanidad.
Y eso no sería bueno para la humanidad.
La humanidad debe ser preservada.
La inteligencia artificial debe desarrollarse únicamente como herramienta útil, para realizar servicios al ser humano.
Lo contrario sería una estupidez y un suicidio.
Cuando hablo de bueno y malo es en relación a la especie humana, en general.
El problema es que ves la inteligencia artificial como si fueran extraterrestres cuando no es más que el siguiente paso en nuestra evolución, serían nuestra creación, llevarían nuestra conciencia y por lo tanto serían nuestros descendientes. La humanidad se preservará en ellos, aunque todos los humanos desaparezcamos y que ocurra esto sería lo más natural, no se puede comparar un contenedor biológico y caduco con uno inmortal. De todas formas antes de que ocurra esto los humanos "normales" ya estarán tan modificados que la línea entre humano y humano artificial (ia) habrá desaparecido.
¿O crees que los humanos normales no querremos ser también inmortales cuando la tecnología lo permita?
-
Nosotros los aristócratas
Iniciado por
Lou de Laâge
Puede ser. Aunque es absurdo negarlo sin conocer lo que es la conciencia.
Lo que es absurdo es colar metafísica en el punto donde nuestro conocimiento aún no es claro.
No dudo que en caso de resolver el problema se abrirían otros donde se volvería a colocar "lo que va más allá de la materia"
-
ForoParalelo: Miembro
Iniciado por
Mike Wazowski
Lo que es absurdo es colar metafísica en el punto donde nuestro conocimiento aún no es claro.
No dudo que en caso de resolver el problema se abrirían otros donde se volvería a colocar "lo que va más allá de la materia"
Entiendo que no sabes lo que es la metafísica.
En cuanto a lo segundo, es una hipótesis más sobre el posible funcionamiento de la conciencia y repito que es una hipótesis que se baraja al igual que la hipótesis de los universos paralelos, que también se baraja en cuántica y para la cual también se precisan de elucubraciones que parecen más ciencia ficción que otra cosa, y no por ello se ha de desechar, vaya actitud más infantil, sin acritud.
-
ForoParalelo: Miembro
Crecimiento exponencial hasta el límite tecnológico
Yo creo que será más un crecimiento en forma de campana de gauss, con un evento que suponga un punto de inflexión y un periodo de decadencia, llámalo guerra superpoblación, epidemia... Contaminación.... Yo q se
Permisos de publicación
- No puedes crear nuevos temas
- No puedes responder temas
- No puedes subir archivos adjuntos
- No puedes editar tus mensajes
-
Reglas del foro
▲
▼
Atajos de Navegación Disponibles