Villa Educación

Martes 20 de noviembre de 2018

.: Filtro de Proyectos :.



SABER MÁS... PETRICOR SE LE LLAMA AL OLOR QUE SE PERCIBE CUANDO LLUEVE

Con seguridad, cualquier persona habrá notado que cuando comienza a llover, puede percibirse un olor peculiar, fuera de los lugares cerrados. Dicho olor se denomina petricor y se produce cuando las moléculas derivadas de la descomposición de plantas o animales se unen con las superficies y se recombinan. Al caer la lluvia y el aire levantar las moléculas se percibe el aroma petricor, sobre todo si antes hubo un período largo de sequía.

 

El olor que se advierte cambia dependiendo del lugar. En las ciudades por ejemplo, las moléculas provienen del concreto y el asfalto; mientras que en el campo proceden de la tierra y las plantas. El nombre petricor se utilizó por primera vez para describir este fenómeno en 1964, por los científicos australianos Isabel Joy Bear y R. G. Thomas.

Fuente : CONACYT




SABER MÁS... LAS HECES DE LAS LOMBRICES AYUDAN A FERTILIZAR EL SUELO

Las lombrices de tierra, con las que algunos niños pequeños se entretienen al explorar los jardines, suelen verse como bichos desagradables. Sin embargo, estos invertebrados, junto con otros insectos y microorganismos, son fundamentales para mantener la fertilidad del suelo.

 

Según Esperanza Huerta, investigadora del Colegio de la Frontera Sur, las lombrices de tierra ayudan a que el agua que cae sobre la superficie penetre en el suelo, también sirven para que el suelo se aireé y participan en la dinámica de descomposición de la materia orgánica. Además, los desechos fecales de las lombrices, llamados turrículos, contienen diversos elementos concentrados, como el nitrógeno, que las plantas pueden aprovechar.

Para la investigadora, un suelo fértil y ecológicamente sano es aquel que tiene una alta diversidad de organismos (microorganismos, meso y macro-invertebrados) y en el que la materia orgánica está disponible para las plantas. Este tipo de suelo da lugar a buenos rendimientos en los sistemas agrícolas o vegetación sana en los sistemas naturales.

Fuente : CONACYT




7 HABILIDADES BÁSICAS PARA LOS EMPLEOS DEL FUTURO

Ciudad de México. 25 de agosto de 2018 (Agencia Informativa Conacyt). De acuerdo con el estudio Towards an AI strategy in Mexico: harnessing the AI revolution, realizado por el gobierno federal de México, Oxford Insights y C Minds, la inteligencia artificial impactará a 19 por ciento de los trabajos en México.

“9.8 millones de empleos se verán afectados por la automatización en las próximas dos décadas, lo cual contempla desde tareas que son facilitadas por los sistemas automatizados, hasta empleos que serán reemplazados completamente”, indica el estudio.

Ante este panorama, la Secretaría del Trabajo y Previsión Social (STPS), el Consejo Nacional de Ciencia y Tecnología (Conacyt), la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y el Centro de Investigación y Docencia Económicas (CIDE) organizaron el Foro Internacional Mundo 4T: Tecnología, Trabajo, Transformación para Todos.

En este evento, que se celebró del 22 al 24 de agosto en la Ciudad de México, un grupo de investigadores, responsables de las políticas educativas del país, directivos de universidades y empresarios se reunieron para revisar cuáles son los desafíos y oportunidades que traerá la automatización en los próximos años.

 

Los empleados del futuro

En el marco de este evento, se realizó la conferencia Nuevas habilidades ante el cambio tecnológico exponencial, en la cual los especialistas debatieron respecto a las competencias y habilidades que tendrán que desarrollar las personas en los próximos años para incorporarse al mercado laboral.

Durante su participación, Oscar Camacho Nieto, director de Educación Continua del Instituto Politécnico Nacional (IPN), subrayó que en México existe un desajuste entre la demanda y la oferta de habilidades y competencias.

“Por un lado, 42 por ciento de las empresas tiene dificultades para contratar personal, ya que muchos de los conocimientos que se imparten en las escuelas no preparan al cien por ciento a las personas para el mundo laboral. Hay muchas habilidades que son muy necesarias y que no están contempladas en los planes de estudios”.

En tanto, Jesús Alberto Almaguer, director general del Consejo Nacional de Normalización y Certificación de Competencias Laborales (Conocer), señaló que muchas veces los planes de estudios de las carreras no están actualizados o están enfocados en ciertos puestos de trabajo.

“De acuerdo con Información del Foro Económico Mundial, 65 por ciento de los empleos que tendrán cuando concluyan sus estudios de licenciatura o posgrado quienes hoy están entrando al bachillerato, los desconocemos. Entonces, debemos apostarle al desarrollo de habilidades, conocimiento y aptitudes que permitan poder incorporarse a los puestos de trabajo que la economía requiera en México”.

Para el doctor, es necesario que todas las personas tengan una base sólida de conocimiento, así como de competencias básicas que sean transversales como conocimiento de ciencias, matemáticas y el dominio de la comunicación.

“Se debe tener una buena base de matemáticas para fomentar el razonamiento lógico; aprender y dominar bien el lenguaje y la comunicación; y entender las cuestiones básicas de ciencia para tener un pensamiento crítico. Solo si tenemos esta base, seremos aptos para desarrollar las habilidades que el futuro nos demande”.

Las instituciones que ya lo están haciendo son las universidades tecnológicas y politécnicas, así lo manifestó Alejandro Jaimes García, coordinador general de dichas universidades.

“Lo que hicimos fue quitar seis por ciento de las horas que los jóvenes dedican a su formación para que se dediquen a desarrollar competencias que la fuerza laboral nacional e internacional demanda… Antes de que concluya este año, debemos tener 33 estándares de competencias que se utilizarán en los empleos del futuro”.

En tanto, Armando Cantú, director de Personal y Relaciones de Bimbo, destacó que las habilidades de las personas deben ir cambiando conforme se registran los cambios tecnológicos.

“El cambio siempre ha sido el factor principal de movilidad, yo me acuerdo que hace algunas décadas contratábamos secretarias cuyo requisito era solo que supieran mecanografía, hoy se les pide que tengan conocimiento de paquetería de computación y un idioma. Lo que tenemos que hacer es descubrir cuáles serán las competencias que se necesitarán”.

Subrayó que tanto las empresas como el personal se deben preparar para las tendencias; todos aquellos empleos que son repetitivos se tendrán que modernizar y hacer algo nuevo para lograr permanecer.

“A nosotros cuando nos alcanza la tecnología, hacemos una reingeniería laboral para no despedir a nadie o a la menor cantidad posible y aprovechar ese talento que ya se desarrolló con nosotros en alguna otra área. Las empresas que queramos sobrevivir en los próximos años tendremos que saber aprovechar y potenciar el talento de nuestra gente”.




VULCANOLOGÍA: CIENCIA PARA ENTENDER LA FURIA DE LA NATURALEZA

Guadalajara, Jalisco. 22 de agosto de 2018 (Agencia Informativa Conacyt). A casi cuatro mil metros sobre el nivel del mar se eleva el Volcán de Colima; localizado en los límites de Jalisco y Colima, este coloso es considerado el volcán más activo del país y debido a su actividad está en constante monitoreo para evitar que ocurran tragedias.

El doctor Carlos Suárez Plascencia, jefe del Departamento de Geografía y Ordenamiento Territorial de la Universidad de Guadalajara (UdeG), explica que desde esa institución se realiza una serie de monitoreos de la actividad volcánica y de las características del Volcán de Colima para así trazar estrategias junto con las autoridades para disminuir los riesgos.

El investigador detalla que desde 1987 se trabaja en el monitoreo del volcán, en el que participan estudiantes de posgrado y científicos de Colima y Jalisco; a través de estos estudios se elaboran mapas de riesgos para que se apoyen las autoridades al crear estrategias de prevención y evacuación para las poblaciones aledañas al coloso.

Por otra parte, se realiza un monitoreo constante de las estaciones sísmicas instaladas alrededor del volcán, y también se sobrevuela el cráter para conocer las características del volcán y así detallar las condiciones en que se encuentra.

“El objetivo es ver la morfología en el cráter, ver si hay cambios, agrietamientos, nuevos domos, fumarolas, se vigila toda la estructura también para encontrar indicios de daños estructurales o fracturamiento en el edificio volcánico, que pueda representar otro tipo de riesgo”, detalla el investigador.

Suárez Plascencia explica que en el pasado, la formación de volcanes en la zona trajo consigo el derrumbe de la estructura de los volcanes, como el Volcán Nevado de Colima, que llegó a colapsar para terminar con su actividad y dar pie al nacimiento del Volcán de Paleofuego, que también se apagó y lanzó material que llegó hasta Colima.

 

Monitoreo para prevenir catástrofes

Este tipo de trabajos, señala el investigador, son útiles para evitar episodios como ese, ya que el Volcán de Colima es el más activo de México y existe un registro para 20 mil habitantes que viven en el polígono de 15 kilómetros, que es considerada la zona más vulnerable en caso de que haya una explosión.

El doctor Carlos Suárez es uno de los investigadores que monitorea el Volcán de Colima.

“Elaboramos informes para Protección Civil de Jalisco y Colima y se envía al Cenapred (Centro Nacional de Prevención de Desastres) para que conozcan el estado. También se observan las barrancas para ver su estado sobre el material depositado en ellas, como arena o rocas, porque en temporal de lluvia son fácilmente removibles y provocan los lahares”.

Los lahares son una mezcla de fragmentos de rocas y agua que caen por las pendientes, valles o barrancas de un volcán; el doctor Suárez Plascencia agrega que estos episodios han afectado a las poblaciones de la parte baja del coloso, por lo que también se trabaja en identificar zonas de riesgo e implementar medidas para evitar pérdidas materiales y humanas.

El investigador relata que en 2011 en la barranca de Atenquique, al este del Volcán de Colima, se observó un incendio y se advirtió a las autoridades sobre un posible riesgo de caída de lahares, por lo que se amplió el cauce de un arroyo cercano a las poblaciones y se avisó a la ciudadanía sobre el riesgo de inundaciones, lo que derivó solo en pérdidas materiales.

 

El latido del volcán

Además del monitoreo visual que se realiza con sobrevuelos y a pie en el volcán, también se elabora un diagnóstico con base en la información obtenida de las estaciones sísmicas que ha colocado la Universidad de Colima y la UdeG alrededor del Volcán de Colima. El investigador detalla que cada institución tiene alrededor de siete estaciones instaladas en la región.

“Esas estaciones están sintiendo el ‘latir’ del volcán. Ellas revisan la actividad que existe en la cámara magmática y el ascenso de material, entonces se puede analizar la posibilidad de un evento eruptivo, de qué magnitud sería y con días de antelación, con esa información Protección Civil puede implementar sus planes operativos”.

El profesor investigador del Centro de Sismología y Vulcanología de Occidente, del Centro Universitario de la Costa (CUCosta) de la UdeG, Francisco Javier Núñez Cornú, menciona que desde hace 20 años se trabajó en instalar una red sísmica en el estado, con 25 estaciones instaladas en los litorales de Jalisco, así como ocho más en los alrededores del volcán.

“Tenemos cuatro estaciones en el edificio volcánico y otras cuatro rodeándolo, vamos a instalar otra más en el norte, ya tenemos los equipos listos, solo faltan los enlaces telemétricos; de esa forma, tendremos nueve estaciones que por un lado estudian el volcán y la sismicidad de Colima, que es grave porque ahí se han originado muchos terremotos históricos”.

Núñez Cornú señala que con el uso de instrumentos y estaciones se pueden conocer cuáles son los eventos o actividades previas a un episodio explosivo, lo que permite llevar a cabo estrategias de evacuación para evitar pérdidas.






LA RELEVANCIA DEL USO DE LA COMPUTADORA EN AL ECONOMÍA Y EL TRABAJO.

Por Felipe Sánchez Banda

Saltillo, Coahuila. 13 de agosto de 2018 (Agencia Informativa Conacyt).  Actualmente en México, cerca de 50 por ciento de la población nunca ha usado una computadora y poco más de 60 por ciento no ha utilizado Internet. Estos datos representan la existencia de una brecha digital que se traduce en desigualdad de oportunidades y, en consecuencia, un desarrollo económico limitado para el país, además de una desventaja que afecta a aquellos que desconocen el manejo de la computadora y desean progresar laboralmente.

Esto afirman científicos del Centro de Investigaciones Socioeconómicas (CISE) de la Universidad Autónoma de Coahuila (Uadec) y de la Facultad de Economía Internacional (FEI) de la Universidad Autónoma de Chihuahua (Uach), quienes desarrollan el tema de las tecnologías de la información y comunicación (TIC) en México y su relación con el desempeño económico y el mercado laboral.

Los especialistas trabajan este tema desde hace cuatro años, tomando como punto de partida el uso de computadora por parte de la población y las empresas como herramienta básica dentro de las TIC.

Aparentemente, la computadora tiene una importante presencia en todos los sectores y niveles sociales. Sin embargo, los investigadores buscan confirmar qué tan socializado es el uso de computadora, su relevancia y remuneración a nivel laboral y empresarial. O, por el contrario, confirmar esta brecha digital en el país, como parte de una silenciosa forma de exclusión social.

La presencia de la computadora

Las tecnologías de la información y la comunicación representan un concepto muy disperso, debido a la creciente dinámica de las innovaciones y desarrollos que surgen constantemente; sin embargo, es necesario precisarlas como punto de partida de cualquier investigación, afirmó el doctor Aldo Torres García, profesor investigador de la FEI de la Universidad Autónoma de Chihuahua y Candidato al Sistema Nacional de Investigadores (SNI).

“Las tecnologías de la información se definen como todo el conjunto de elementos, dispositivos y herramientas de telecomunicaciones que permiten la generación, transmisión y la acumulación de la información en patrones digitales. Estos patrones digitales donde viaja la información es necesario visualizarlos y trabajarlos, lo que da origen a dispositivos tales como computadoras, celulares, Internet, entre otros”.

El análisis de las TIC y su relevancia en el desarrollo económico y mercado laboral comenzó con el análisis de la computadora como pilar dentro de este tipo de herramientas, su difusión en la población y en el sector industrial.

“Tiene que ver con el uso de las tecnologías de la información y comunicación, pero con un fuerte énfasis en el uso de la computadora. En concreto de la PC, de la computadora de escritorio o laptop, en eso nos enfocamos. El análisis está dirigido a dos aspectos: uno de ellos es el efecto y las consecuencias que tiene el uso de ese dispositivo por parte de las empresas; y otro es el efecto y consecuencia que también tienen en el mercado laboral y, en concreto, en los trabajadores”, explicó el doctor Gustavo Félix Verduzco, profesor investigador del Centro de Investigaciones Socioeconómicas de la Uadec.

Este tema forma parte de la línea de investigación de Cambio Tecnológico y Mercado Laboral que desarrollan ambos investigadores desde 2014, e iniciaron a través de la tesis de doctorado en economía regional del CISE del doctor Torres García, concluida en 2016.

El proyecto tiene dos vertientes. Por el lado empresarial, se estudió si la aplicación de este tipo de tecnologías, particularmente la computadora, contribuyen al desarrollo industrial y cómo repercute en la rentabilidad de las empresas. La otra vertiente aborda las habilidades de uso de la computadora por parte de los trabajadores y si estas habilidades se traducen en la mejora su productividad, por lo que las empresas estarían dispuestas a pagar mayores salarios.

“Hay una hipótesis en economía conocida como la hipótesis del cambio tecnológico sesgado, que se puede aplicar tanto a trabajadores como a las empresas. Lo que dice esta hipótesis es que el cambio tecnológico, que puede representarse por el uso de la computadora, tiene un efecto sesgado en el sentido de que va a favorecer tanto el empleo como las remuneraciones de los individuos habilitados, o bien la rentabilidad de las empresas que tengan mayor capital humano con capacidad de utilizar estos dispositivos, esto en detrimento de trabajadores y empresas no capacitadas para el uso productivo de las nuevas tecnologías”, detalló Félix Verduzco.

La computadora para las empresas y para el usuario

El proyecto está dividido y desarrollado en tres bloques principales sobre las TIC, específicamente la computadora, y su relevancia con la industria y el mercado laboral.

El primer bloque aborda la dispersión conceptual de las TIC y su relación con el desempeño económico. Se estudió cómo las TIC influyen en las remuneraciones, ganancias, producción, generación de valor agregado y en la generación de riqueza para las empresas. Fueron empleados métodos estadísticos para encontrar la relación entre las empresas que utilizan TIC y, en este caso, cómo la computadora genera una correlación positiva y hace más rentable la empresa.

En la segunda parte, se abordó la relación de las TIC con el mercado laboral. Cómo las empresas, al tener mayor rentabilidad por el uso de TIC, incrementan la demanda de personal calificado en el uso de estas herramientas. Estos trabajadores con habilidad especializada, en este caso en el manejo de PC o laptop, obtienen mayor ingreso debido a este distingo, que en 2014 representaba hasta 9.4 por ciento de aumento salarial.

En el tercer bloque, los especialistas manejaron el tema de la brecha digital como una nueva forma de exclusión social. De acuerdo con los investigadores, se tiene la creencia que las TIC están muy socializadas en la población; sin embargo, esto no es así. Indicaron que, según estadísticas del Módulo sobre Disponibilidad y Uso de Tecnologías de la Información en Hogares 2015, cerca de la mitad de la población no ha utilizado una computadora y 65 por ciento desconoce el manejo de Internet, principalmente en entidades del sureste del país como Oaxaca, Guerrero y Chiapas.

“México está a un nivel muy bajo, incluso a nivel Latinoamérica. Pensamos que es un tema muy común que seamos usuarios de computadora, pero realmente cerca de la mitad del país no utiliza una computadora, nunca la ha visto en su vida”, enfatizó Torres García.




MUSEO TROMPO MÁGICO, CIENCIA EN MOVIMIENTO

(Agencia Informativa Conacyt). Los pasillos del Museo Trompo Mágico suelen estar repletos de niños curiosos. En cada uno de los salones del recinto hay risas, preguntas y caras de asombro frente a las exposiciones, y a diferencia de otros museos, aquí los niños y adultos aprenden sobre arte y ciencia divirtiéndose.

Con una trayectoria de 15 años, el Museo Trompo Mágico es un recinto representativo para los tapatíos, pero también es una opción familiar para aprender de ciencia, arte, tecnología o historia. Fenómenos como el funcionamiento de la electricidad o el cuidado de los arrecifes son solo algunos temas que los niños, y no tan niños, pueden disfrutar en estos días del año.

Rodrigo Limón Torres, director del Área Educativa y Museográfica del Museo Trompo Mágico, explica que la institución dedica entre 30 y 40 por ciento de sus exhibiciones a la divulgación de temas relacionados con la ciencia y se cuenta con 34 módulos pequeños que explican fenómenos físicos o temas relacionados con el cuerpo humano, ecología o química.

“En este periodo tenemos Electrópolis, una exhibición que busca explicar la generación de la electricidad y cómo funciona, cómo se produce y cómo se distribuye. También mostramos temas sobre la producción de electricidad de manera sustentable”, detalla.

Por otra parte, Fátima Mendoza, encargada de Desarrollo de Contenidos en Ciencia del Museo Trompo Mágico, explica que otro de sus principales atractivos esta temporada es la exhibición Vive el arrecife, donde se busca concientizar a los visitantes sobre los cuidados de estos organismos y su importancia en el equilibrio de los ecosistemas marinos.

Esta exposición fue el resultado de la Convocatoria de Apoyo a Proyectos de Comunicación Pública de la Ciencia, la Tecnología y la Innovación 2017 del Consejo Nacional de Ciencia y Tecnología (Conacyt).

Un espacio para chicos y grandes

Aunque el Museo Trompo Mágico es una institución que busca acercar la ciencia y otras disciplinas a los más pequeños, también es un punto de encuentro para otros sectores de la población, señala Limón Torres, quien comenta que es común ver a grupos de jóvenes adultos o adolescentes visitando el museo, pero lo que impera es la presencia de familias completas.

“Sí vienen chicos de más de 17 años, aunque en menor proporción que los niños, también vienen adultos sin niños, pero prevalecen las familias. En nuestras exhibiciones lo que buscamos es que sean autónomas y no requieran de un mediador para entenderlas, de esa forma fomentamos la conversación entre nuestros visitantes”.

Limón Torres refiere que desde el museo se trabaja en elaborar pequeños módulos de exhibición que impliquen una interacción con el visitante. Fátima Mendoza agrega que desde la planeación se busca que estas muestras tengan información pertinente sobre ciencia, historia y arte, y que estos sean de utilidad para los espectadores.

Gracias a la facilidad para interactuar con los módulos, Fátima Mendoza asegura que se fomenta la interacción entre las familias, pues se plantean dudas a través de las demostraciones que pueden ser discutidas o explicadas de padres a hijos, o viceversa.

Ciencia divertida

Fátima Mendoza indica que también hay salas especializadas para niños de menos de tres años, donde se imparten actividades relacionadas con la música o movimientos motrices. Además, recalca que el Museo Trompo Mágico también está sirviendo como taller a Luis Téllez, quien trabaja en el desarrollo de la que será la primera película mexicana en stop motion.

Respecto a este taller, Limón Torres asegura que está la opción de visitar ciertas áreas donde se trabaja para conocer sobre esta técnica de animación y sobre el proceso de producción del largometraje.

La encargada de Desarrollo de Contenidos en Ciencia menciona que actualmente en el museo hay módulos que fomentan la experimentación en actividades como radio, música o cine, pero tres de ellos se enfocan especialmente en ciencia, como Hiloramas, que aborda la relación entre matemáticas y arte, y la Cámara Oscura, que enseña sobre óptica y luz.

Por su parte, Rodrigo Limón Torres asegura que además de que el museo es un recinto de conocimiento y recreación para niños, también se trabaja con instituciones educativas para impulsar la relación entre los maestros y el recinto y que estos utilicen las instalaciones del museo para complementar sus métodos de enseñanza.




LA BRECHA DIGITAL, UNA NUEVA FORMA DE EXCLUSIÓN SOCIAL

(Agencia Informativa Conacyt). En la actualidad, el uso de la computadora y navegar por Internet se percibe como una actividad cotidiana, sobre todo en las zonas urbanas. Incluso lo más probable es que este texto lo estés leyendo desde una computadora o un teléfono celular usando Internet; sin embargo, no todos tienen esa posibilidad.

La brecha digital es un concepto que surgió casi en paralelo a la socialización de la computadora de escritorio en los años noventa. Mientras la innovación y posibilidades de las tecnologías de la información y comunicación (TIC) cautivaban a muchas personas, otras tantas no tuvieron (y siguen sin tener) acceso a esta tecnología.

De acuerdo con el Instituto Nacional de Estadística y Geografía (Inegi), en 2017, 45.4 por ciento de los hogares de México cuentan con computadora, en proporción con el total de hogares. Es decir, menos de la mitad de los hogares en México tiene computadora.

En entrevista para la Agencia Informativa Conacyt, el doctor Aldo Josafat Torres García, profesor investigador de la Facultad de Economía Internacional de la Universidad Autónoma de Chihuahua, explica la brecha digital, su magnitud, importancia y alternativas para reducirla y así evitar que se consolide como una nueva forma de exclusión social.




LA HUMANIDAD CONTRA LOS ASTEROIDES

(Agencia Informativa Conacyt). El 30 de junio de 1908, la trayectoria de un asteroide coincidió con la posición de la Tierra. A su entrada en nuestra atmósfera, el objeto celeste fue desintegrándose poco a poco hasta explotar sobre el bosque siberiano, y aunque su tamaño era relativamente pequeño (entre 35 y 45 metros, según estimaciones), destruyó una superficie de dos mil kilómetros cuadrados, relató el doctor Sergio Camacho Lara, secretario general del Centro Regional de Enseñanza de Ciencia y Tecnología del Espacio para América Latina y el Caribe (CRECTEALC).

De 2010 a 2013, el doctor Camacho Lara participó en un grupo internacional auspiciado por la ONU para el establecimiento de una Red Internacional de Alerta de Asteroides (IAWN, por sus siglas en inglés), con el objetivo de buscar y monitorear los objetos cercanos a la Tierra (NEO, por sus siglas en inglés) y determinar un umbral de probabilidad de colisión con nuestro planeta.

Los NEO incluyen cometas y asteroides que orbitan cerca de la Tierra. En el caso de asteroides, se les denomina NEA (Near Earth Asteroids). El Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) es miembro fundador de la red IAWN y realiza observaciones de estos objetos con sus telescopios en Tonantzintla, Puebla, y Cananea, Sonora.

Durante el mismo periodo, e igualmente bajo el auspicio de la ONU, se trabajó para la creación del Grupo Consultivo de Planificación de Misiones Espaciales (SMPAG, por sus siglas en inglés), conformado por diversas agencias espaciales del mundo. Este grupo trabaja en resolver escenarios en los que un asteroide se dirige en curso de colisión con la Tierra, con el objetivo de ganar tiempo ante una posible amenaza.

“Cuando un asteroide llegue a ese umbral, que actualmente se encuentra en 10 por ciento, IAWN pasaría la información al grupo de agencias espaciales y gobiernos que pudieran ser afectados para que decidan qué acciones van a tomar. Poco tiempo después de eso se daría la información a los medios para que se informe a todo el mundo”, explicó.

Los escenarios varían, por lo cual se trabaja en encontrar soluciones para diferentes asteroides, se contemplan diversos tamaños, velocidades y trayectorias, ya que no es lo mismo que un asteroide se dirija a un desierto, una ciudad o a la costa, y las consecuencias pueden ir desde heridas leves, hasta la destrucción total de ciudades o de la infraestructura costera a lo largo de cientos de kilómetros.

En caso de que un asteroide se dirija a nuestro planeta y el choque sea inminente, la planificación y toma de decisiones por parte de los gobiernos afectados y de agencias espaciales capaces de desviar un asteroide son cuestiones sumamente delicadas. A nivel político, se debe tomar en cuenta qué países realizarán las misiones. A nivel técnico, se deben analizar las posibilidades de destruir, frenar o acelerar el asteroide con el fin de desviarlo.

 “La probabilidad de que un objeto pegue con la Tierra es muy pequeña pero las consecuencias podrían ser devastadoras. Por la distribución de tamaños de los asteroides cercanos a la Tierra, las probabilidades son más grandes cuando se trata de objetos pequeños. Todas las noches hay una cantidad de estos pequeños objetos que se queman en la atmósfera y los vemos como estrellas fugaces, pero hay algunos que por su composición y su ángulo de entrada a la atmósfera, penetran y pueden llegar a tierra o estallar a pocos kilómetros de altura. Parte de la idea de este día internacional es que poco a poco la gente vaya conociendo cómo reaccionar ante un evento como este”.

Objetos cercanos a la Tierra

El Centro de Planetas Menores (MPC, por sus siglas en inglés), bajo el auspicio de la Unión Astronómica Internacional, es la institución encargada de recopilar observaciones de asteroides y cometas, calcular sus órbitas y determinar en primera instancia sus probabilidades de impacto a la Tierra. De acuerdo con información del MPC, hasta el 27 de junio de 2018, se contabilizaron 18 mil 337 NEO, de los cuales, mil 877 se acercaban a menos de ocho millones de kilómetros de la órbita de nuestro planeta y son considerados potencialmente peligrosos.

Entre estos objetos se encuentra Apofis, un asteroide de más de 300 metros descubierto en diciembre de 2004 y cuya órbita lo llevará a pasar cerca de la Tierra el 13 de abril de 2029, y podrá ser visible en el territorio europeo.

“Se está vigilando muy de cerca para ver cómo lo afecta la gravedad de la Tierra. No conocemos bien su composición, pero se están haciendo cálculos de cómo afectará la Tierra la órbita de Apofis”.

Cuando el asteroide se acerque a la Tierra, se lanzarán misiones para colocar satélites y obtener imágenes que ayuden a estudiarlo, pues al obtener más parámetros sobre su órbita, se podrá conocer con más precisión si impactaría la Tierra en abril de 2036 y el lugar donde podría tocar tierra. Asimismo, se está evaluando, porque eso alteraría su órbita, la posibilidad de impactarlo para obtener muestras de su composición.

Los asteroides son residuos de la formación del sistema solar. Se dividen principalmente en dos tipos: rocosos y metálicos, dependiendo de su constitución, resultan más o menos peligrosos en caso de entrar en contacto con nuestro planeta, explicó el doctor José Guichard Romero, director del CRECTEALC, campus México.

Como objetos provenientes del espacio llaman mucho la atención de la gente, y aunado al hecho de que en México no es ilegal vender o comprar asteroides, muchas personas —principalmente astrónomos aficionados— comercian con ellos. Por otro lado, su composición también los pone en la mira de empresas, pues en su interior se pueden encontrar metales valiosos.

“Los asteroides tienen una gran cantidad de metales, pueden contener platino (Pt), iridio (Ir), oro (Au) y elementos que conforman el grupo de las tierras raras. Por eso, algunas personas y compañías tienen la idea de hacer minería de asteroides para extraer minerales que son poco abundantes en la Tierra”.




LOS RETOS ÉTICOS DEL BIG DATA

(Agencia Informativa Conacyt). El doctor Federico César Lefranc Weegan, profesor investigador del Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (Infotec), considera que el derecho actual tiene el gran reto de lograr que el desarrollo tecnológico recupere su carácter humanístico para construir una sociedad de la información centrada en la persona.

Dentro de este problema del desarrollo tecnológico, destaca la relación entre la ética y los grandes volúmenes de datos generados día con día en nuestras actividades en línea. Lefranc Weegan indicó que existen cuatro dudas primordiales al estudiar las implicaciones éticas del big data: ¿quién quiere esos datos?, ¿cómo se obtienen y cómo se gestionan?, y lo más importante, ¿con qué fin?

Aunque el término big data no tiene una definición rigurosa, se puede decir que designa al tratamiento de grandes volúmenes de datos mediante algoritmos matemáticos con el fin de establecer correlaciones que ayuden a predecir tendencias y tomar decisiones. Además, indicó que en unos años cambiará su sentido, pues lo que hoy consideramos como una cantidad masiva de datos, en el futuro será rebasada.

De acuerdo con el investigador, los datos no se recopilan solo porque sí, sino que esos grandes volúmenes de información se utilizan para predecir desde comportamientos, hábitos de consumo, cuántos años puede llegar a vivir una persona o de quién se va a enamorar.

Continuamente desarrollamos actividades utilizando sistemas tecnológicos de mediana y gran escala que recopilan una gran variedad de datos personales, como la posición geográfica, información financiera y hasta el ritmo cardiaco. Como usuarios de estos sistemas nos enfrentamos a cuatro fenómenos que amenazan el correcto uso de los datos.

Federico César Lefranc Weegan

Doctor en derecho público. Es profesor investigador del Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación y miembro nivel I del Sistema Nacional de Investigadores (SNI). Su investigación se desarrolla en el campo de las interpretaciones jurídicas y filosóficas de la dignidad humana y la epistemología jurídica y dogmática de los derechos fundamentales.

El primero de ellos es la falibilidad de los sistemas. Todo aquello creado por el hombre aspira a la perfección, pero siempre existirán imperfecciones que no se alcanzan a observar, ocasionando que sus fallas y consecuencias sean imprevisibles.

Luego tenemos la vulnerabilidad, que se relaciona estrechamente con la falibilidad, y se refiere tanto a los sistemas de gestión de datos, como a los aparatos físicos. El investigador explicó que en muchas ocasiones las personas que vulneran la seguridad de los sistemas lo hacen para demostrar que pueden vencer a la máquina.

“¿Por qué se intenta vulnerar un programa o un aparato? Hay personas que piensan en ir más allá de un programa en una búsqueda de la perfección, demostrando que el software no les va a ganar. No es una maldad específica como a veces se presenta, sino una cuestión inherentemente humana de ir más allá”.

La obsolescencia tiene dos momentos, uno es el deterioro propio de cualquier invención del hombre, pues no existen cosas que duren para siempre. Por tanto, los aparatos o sistemas llegarán a un punto en el cual ya no puedan realizar las tareas para las cuales fueron pensados.

El segundo es la obsolescencia programada, que se originó con la imposición de la racionalidad de mercado, es decir, los aparatos empezaron a ser diseñados para funcionar durante un periodo específico de tiempo, y una vez cumplido ese plazo, comienzan a presentar fallos que los hacen poco funcionales o inútiles.

“Se fabrican aparatos de manera que ya hayan envejecido en seis meses, pero no es real, podríamos usar el teléfono de hace tres o cuatro años y funcionaría perfectamente (…) La tecnología informática y de comunicaciones se convirtió en una cuestión de mercado privado en manos de unas cuantas gigantescas corporaciones y eso le da sus características de las cuales no podemos escapar”, explicó Lefranc Weegan.

Por último, está la dependencia de los individuos, las instituciones y los Estados con respecto a las megacorporaciones, quienes son las responsables de diseñar, desarrollar y distribuir programas y aparatos. En el caso de México y otros países, la gestión pública de datos se encuentra montada sobre plataformas privadas y, por consiguiente, los datos de millones de personas son gestionados por corporaciones privadas.

¿Quién conoce y usa mis datos?

El investigador indicó que los datos de todas las personas son recabados continuamente y de todas las maneras imaginables, sin importar que sean o no usuarias de los aparatos y sistemas tecnológicos. Si bien algunos de estos datos son proporcionados conscientemente por las personas, muchos otros son obtenidos sin autorización.

Como ejemplo dijo que la administración pública utiliza las cámaras de videovigilancia de las ciudades para registrar los sucesos; mientras que en el sector privado, existen sistemas de monitoreo satelital que toman imágenes de la superficie terrestre a diferentes niveles de acercamiento.

En el caso de los dispositivos personales, estos recaban la información de los perfiles de redes sociales, incluyendo edad, sexo, orientación sexual y domicilio, además de fotografías, videos e información contenida en sistemas de mensajería. Lefranc Weegan dijo que no es fácil proteger y exigir protección de nuestros datos porque los manejan corporaciones privadas frente a las cuales nosotros aceptamos sus condiciones de uso.

“Aunque es una especulación que no está tan fuera de la realidad, se piensa que haciendo un análisis muy riguroso nada más de los likes que una persona pone en Facebook, se podría obtener un perfil muy completo de ella. Ahora imaginemos con el resto de los datos”.

Agregó que no se debe comprar el discurso de que la tecnología está hecha para satisfacer las necesidades de la gente, sino que está pensada básicamente para un mercado, e insistió en que una de las mejores formas para proteger nuestra información es proporcionando la menor cantidad posible —es decir, únicamente la estrictamente requerida— y no identificarnos a nosotros mismos como un conjunto de datos, pues se reduce la propia concepción como seres humanos.

Asimismo, reconoció que la problemática del big data no puede resolverse desde la ética ni desde las leyes, sino que debe ser atacada haciendo uso de la misma tecnología. En el caso de los algoritmos predictivos, se está promoviendo el uso de algoritmos que evalúen los algoritmos predictivos para verificar que sean neutrales y evitar así un uso indebido de los datos.