Skip to content

Tecnología y sus problemas

problemas tecnologia

Problemas Tecnológicos

A lo largo de este articulo, hemos cubierto los avances tecnológicos que han impactado nuestro estilo de vida, a menudo bajo el radar cambio que ha proporcionado eficiencia y beneficios para el consumidor, junto con daños colaterales a los trabajadores y las industrias.

Sin embargo, hay que preocuparse más a medida que cambiamos la gestión de nuestros negocios y vidas personales a sistemas de software. ¿Por qué? Debido a que los sistemas son diseñados por seres humanos, como es el software utilizado para hacer estos sistemas de trabajo. Los seres humanos cometen errores. El problema es que a medida que los sistemas se vuelven más complejos, estos errores se vuelven más difíciles de encontrar.

Los problemas de la computadora son problemas de la gente

Algunos casos en cuestión:

  • La instalación nuclear de Three Mile Island supuestamente contenía un mecanismo de seguridad que tomaría medidas correctivas y notificaría a la administración en caso de error del sistema. Un error del sistema ocurrió en 1979, pero el mecanismo de seguridad falló, conduciendo a la liberación de material radioactivo en el ambiente.
  • Un satélite lanzado en 1998 para orbitar a Marte fue inmediatamente absorbido en su atmósfera y quemado debido a un error de programación, que costó a los contribuyentes estadounidenses millones de dólares.
  • Microsoft tuvo que recordar y reemplazar Word 3.0 para Macintosh en 1987 cuando se encontró que un error de programa destruyó datos de los usuarios.
  • Y el ritmo sigue y sigue, un avión que vuela a una montaña debido a un sistema de auto-navegación defectuoso, software distribuido con un virus en el disco del programa, etc., etc.

Lo que es angustioso en este tipo de problemas es que no tenemos la seguridad de que no volverá a suceder. A medida que la potencia de los sistemas aumenta dramáticamente, la cantidad de datos que pueden ser recogidos, almacenados y analizados aumenta geométricamente. Además, a medida que las telecomunicaciones de alta velocidad nos ligan más y más, nos volvemos más dependientes de los sistemas informáticos, poniéndonos aún más en riesgo.

¿Mejor tecnología, mayores problemas?

Se nos dice que, con las herramientas de programación más recientes, un mayor control de calidad y una base de usuarios más astuta, las posibilidades de errores mayores se reducen.

El problema es que la posibilidad de errores es interminable. El 28 de febrero de 2012, el New York Times informó que en noviembre de 2010, Nicaragua “entró” en Costa Rica como parte de una operación de dragado. Cuando Costa Rica se quejó, el funcionario nicaragüense afirmó que no estaba invadiendo en absoluto, diciendo: “Vea la foto de satélite de Google, y allí ves la frontera”. Google Maps había colocado una frontera al sur de la frontera generalmente aceptada, dando a Nicaragua algunas millas más. Aunque Costa Rica se quejó tanto a Google como a Nicaragua, la frontera fue reajustada a lo que se consideraba la “frontera generalmente aceptada” (aun sobre las objeciones de Nicaragua), personas alrededor del mundo comenzaron a llamar el incidente “La guerra de Google Maps”.

El incidente suena trivial, pero ¿y si la frontera estaba entre dos largos estados en guerra? Entonces podríamos realmente tener una guerra de Google Maps!

Tecnología y Control

Considere las máquinas de nanotecnología “auto-replicantes”, nano-computadoras pequeñas construidas para entrar en el torrente sanguíneo humano para encontrar y matar células cancerosas, o para enjambrar una posición enemiga o causar que las infestaciones de insectos cesen. K. Eric Drexler, un pionero en el campo, estaba preocupado de que la auto-replicación podría salir de la mano, convirtiendo la tierra en una masa de “goo gris”.

Drexler declaró en su libro de 1986, “Motores de la Creación”, “no podemos permitirnos ciertos tipos de accidentes” y continuó con un escenario posible: “Imagínese tal replicador flotando en una botella de productos químicos, haciendo copias de sí mismo … El primer replicador monta una copia en mil segundos, los dos replicadores luego construye dos más en los próximos mil segundos, los cuatro construyen otros cuatro y los ocho construyen otros 8. Al final de las 10 horas, no hay 36 nuevos replicadores , Pero más de 68 mil millones, en menos de un día pesarían una tonelada, en menos de dos días sobrepasarían la Tierra y en otras cuatro horas excederían la masa del Sol y todos los planetas combinados si La botella de productos químicos no se había secado mucho tiempo antes. “

¿Esto suena extravagante? Considere que el 2 de noviembre de 1988, el gusano Morris (lanzado por Robert Morris, Jr.) cerró una gran parte de Internet, rompiendo hasta 6.000 servidores UNIX importantes. Morris, según su abogado y todos los que lo conocían, no era malicioso; Estaba tratando de exponer un problema de seguridad en el incipiente Internet o contar el número de máquinas realmente conectadas y operativas. Esperaba realmente “cerrar” muy pocas máquinas. Desafortunadamente, su programa muy potente incluyó alguna lógica defectuosa. Viajó a través de Internet, pero la forma en que controlaba cuántas máquinas se verían afectadas fue afectada por el error. Ahora, avance rápido a un programa que controlará cuántas máquinas nano y se replicará – ¿puede imaginar el riesgo de que un error de programación podría tener aquí?

Al menos con el gusano de Internet o el bicho de Microsoft Word, el código de programa fue escrito por humanos que podrían entonces volver atrás y mirar el programa y encontrar el error, aunque después de que los problemas hubieran ocurrido. En el mundo concebido por el informático James Martin, que como nominado para un Premio Pulitzer por su libro de 1977 “The Wired Society: Un desafío para el mañana”, esto no siempre será el caso. Martin, en su libro de 2000, “Después de Internet: Inteligencia Alienígena”, describe los programas de computadora impulsados ​​por código de auto-modificación o algoritmos. En este escenario, los seres humanos escribirán los programas originales o al menos definirán la tarea a realizar para un programa de computadora. El programa se modificará continuamente para encontrar la forma más eficiente de lograr el resultado deseado. El código optimizado, según Martin, puede ser ininteligible para los seres humanos, producto de la “inteligencia alienígena“. Sólo podremos analizar los resultados para asegurar que el programa funcione correctamente. Martin ve el mundo venir como tan científicamente complejo e interconectado que el uso de tales sistemas será obligatorio.

Las teorías y las preocupaciones de Martin se amplían en su obra más reciente, “El significado del siglo XXI“, que también es el tema de un documental narrado por Michael Douglas. Recomiendo que todos vean el documental; Es un vistazo a los desafíos que enfrentamos y la forma en que podemos cumplir con ellos.

Con poder viene gran responsabilidad

Por lo tanto, nos enfrentamos a un futuro con enorme poder informático, almacenamiento masivo, comunicaciones de alta velocidad, nanotecnología autorreplicante y código de inteligencia alienígena auto-modificable, sin mencionar muchos otros desafíos. ¡Es asombroso! Es por eso que la ciudadanía no técnica debe educarse para, al menos, entender los riesgos y peligros y exigir transparencia que nos ayudará a guiarnos a través del siglo XXI.