ETHICS IN TECH: LA FALTA DE ETICA EN LA TECNOLOGIA.

Durmiendo bajo la antena

By Vahid Razavi

Chapters

Bugsplat

“No matarás” sigue sonando una y otra vez en mi cabeza mientras pienso en algunos de los avances y aplicaciones de tecnología más siniestros. Matar se hace mucho más fácil cuando ni siquiera consideras a las personas que estás matando como completamente humanos. La deshumanización siempre ha sido parte de la lucha armada, pero la tecnología permite que nuestra especie sacie su sed de sangre de una manera nunca vista en los anales de la guerra. Sanitario para el asesino, al menos. Suelen existir efectos deshumanizantes inherentes a la aplicación de la tecnología para el negocio de la muerte y la destrucción. Tomemos el ejemplo de la guerra de drones aéreos no tripulados. La mayoría de la gente no sabe que los drones de EE. UU. que provocan tanta destrucción sobre militantes y civiles inocentes por igual en un arco que se extiende desde el norte  de  África,  Oriente  Medio  y  el sur de  Asia  no  están  controlados localmente, son controlados desde las instalaciones de los Estados Unidos, son comandados por oficiales para ejecutar misiones de vida o muerte. Lo hacen desde la comodidad y seguridad de las salas de control con aire acondicionado a medio mundo de distancia de los hombres, mujeres y niños que están matando. Es bastante fácil deshumanizar al “enemigo” en tiempos de guerra cuando te enfrentas a ellos en el campo de batalla. Es incluso más fácil racionalizar matar, mutilar, aterrorizar y desplazar a las personas cuando no tienes que verles la cara o incluso entender algo sobre sus vidas porque los hace explotar a 8,000 millas de distancia. En poco tiempo te encontrarás completamente inmerso en lo perversamente absurdo y debes elegir si nadarás en la mierda o te ahogarás.

Irak es un país que no  tuvo absolutamente nada que ver con  los ataques terroristas del 11 de septiembre de 2001, pero, sin embargo, fue citado para justificar la guerra ilegal de Bush. En preparación para la invasión y ocupación liderada por Estados Unidos en 2003, los planificadores de guerra del Pentágono crearon un modelo de computadora para estimar cuántos civiles inocentes podrían ser asesinados en un bombardeo aéreo. Llamaron a su programa “Bugsplat“, así también llamaron a sus víctimas. Cuando el ejército estaba planeando su campaña de “conmoción y asombro” de bombardeos masivos en el centro del muy poblado Bagdad, el general Tommy Franks fue informado de 22 objetivos propuestos donde el bombardeo probablemente resultaría en una “pisoteada de insectos” con  más de 30 muertes de civiles por Redada. El buen general aprobó los 22 bombardeos.92

Existe otra valiosa función pública de Ethics In Tech, y eso es aumentar la conciencia pública. Justo hoy estaba discutiendo cómo el gigante de servicios en la nube Salesforce puede beneficiarse de una de las políticas condenadas internacionalmente de la administración Trump. La compañía puede estar obteniendo ingresos de la cruel táctica de la administración de separar a los niños refugiados indocumentados, algunos de ellos solo bebés. Salesforce tiene un contrato lucrativo con la Aduana y la Patrulla Fronteriza de EE. UU. Que utiliza los productos de la compañía para cometer Abuso Infantil como parte de su Servicio.93 La mayoría de las personas no piensan en esto cuando ven a Salesforce. Si están en la industria, podrían pensar en las historias de éxito de sus clientes o en Dreamforce, la conferencia anual de extravagancia de la compañía en San Francisco. Si son del área de la Bahía, probablemente pensarán en la Torre Salesforce, el primer rascacielos de San Francisco que ahora se cierne sobre el resto del reluciente horizonte de la ciudad. Pero muy pocas personas, si es que hay alguna, están pensando en el papel de Salesforce para  reforzar las políticas y  acciones racistas de  la  administración  Trump dirigidas a inmigrantes documentados e indocumentados. Eso es porque no lo saben. Parte de lo que hace Ethics In Tech es aumentar la conciencia pública sobre los delitos y las fechorías de las empresas tecnológicas y otros actores de la industria a quienes el público generalmente ve de manera positiva o neutral.

Se ha gastado una considerable cantidad de tinta en explorar cuestiones éticas derivadas del uso previsto de la tecnología, pero también debemos considerar y planificar lo mejor posible las consecuencias y usos no deseados de la tecnología. Toma Facebook, por ejemplo. Cuando sus acciones se desplomaron en medio de acusaciones de mal uso y consecuencias del escándalo de Cambridge Analytica, no solo afectó a Facebook; fue una baja para casi todo el sector tecnológico. ¿Y quién se hubiera imaginado que Facebook se utilizaría como una de las plataformas líderes para el acoso en línea? 94 Algunos han argumentado que la tecnología se encuentra en un estado de crisis que requiere gerentes capacitados para encontrar soluciones. Ian I. Mitroff, profesor emérito de la Marshall School of Business y de la Annenberg School of Communications de la Universidad del Sur de California, afirma que necesitamos una agencia gubernamental similar a la Administración de Alimentos y Medicamentos para controlar el impacto social de la tecnología y proteger a la sociedad de sus peligros:

 

Debemos establecer paneles compuestos por padres, científicos sociales, expertos en desarrollo infantil, especialistas en ética, autoridades de gestión de crisis, y niños, para pensar en todas las formas posibles sobre cómo una tecnología podría ser abusada y mal utilizada.95

Mitroff argumenta que este no es solo el paso ético correcto, sino que también es bueno para los resultados de las empresas:

Idealmente, las compañías tecnológicas harían esto por su cuenta. De hecho, la investigación ha demostrado que las empresas que son proactivas en anticipar y planificar las crisis son mucho más rentables que las que simplemente son reactivas. La gestión de crisis no es solo lo ético, es bueno para los negocios; evita crisis importantes antes de que sean demasiado grandes para solucionarlas.96

Please follow and like us:
Share