Villa Educación

Miércoles 13 de noviembre de 2024

.: Filtro de Proyectos :.



COMPUTADORAS CUÁNTICAS

Ordenadores Clásicos

Un qubit es un bit que se encuentra en una superposición de estados, de forma que, entre comillas, "puede valer 1 y 0 a la vez"…

En 1947, aparece el transistor, un dispositivo electrónico que permitía regular y controlar el paso de la corriente eléctrica. Así, se inició el desarrollo de las actuales computadoras, al permitir transmitir impulsos eléctricos, es decir, bits de información. En 1959, aparece el primer chip o circuito integrado, lo que redujo el tamaño de los ordenadores al minimizar el cableado. La cuarta generación de computadoras aparecería en 1971 con la fabricación del primer microprocesador, el Intel 4004, formado por miles de chips, constituyendo así el elemento central del cálculo y procesado de la información.

En la primera década del siglo XXI, las computadoras más potentes han alcanzado los 1.75 petaflops, es decir, las 1,750 millones de operaciones por segundo, siendo su crecimiento exponencial.

Sin embargo, la tecnología actual permite fabricar pistas conductoras de 0.18 micras, 500 veces más delgadas que un cabello humano. Las capas de aislante que las separan pueden tener un espesor de cuatro o cinco átomos. La meta es poder crear pistas conductoras de 0.10 micras, con lo que los transistores poseerían tan solo 100 átomos cada uno. Pero al producir dimensiones tan pequeñas, las leyes de la física comienzan a perder validez y es donde la física cuántica entra en acción.

Procesadores Cuánticos

Estas computadoras cuánticas utilizan para procesar la información partículas individuales (como átomos, moléculas de tamaño atómico o fotones) que pueden trabajar en dos estados cuánticos, constituyendo así el bit cuántico o cubit’, con los que se forman la memoria y el procesador del ordenador. Los cubits interactúan unos con otros y pueden realizar ciertos tipos de cálculo avanzado con una velocidad exponencialmente mayor que las computadoras actuales. Una computadora de este tipo podría ejecutar todos los cálculos posibles de una sola vez ya que la unidad de energía de un procesador cuántico es capaz de realizar 10 cuatrillones más de operaciones en un segundo que el más poderoso procesador de la actualidad. Por ejemplo, la computadora cuántica sería capaz de descomponer en números primos códigos de seguridad de 400 dígitos en algunas horas. Operación que a una computadora actual le demandaría unos 15 mil millones de años.

En 2009, la empresa canadiense D-Wave Systems, conjuntamente con la NASA, desarrolló un ordenador cuántico de 128 cubits. Rainer contiene 128 dispositivos físicos (pequeños aros de metal niobidio) que a muy baja temperatura actúan como sistemas cuánticos con dos niveles (es decir, cubits) como consecuencia de la superconductividad.

Mediante el frío y un campo magnético variable, se logra la llamada «computación cuántica adiabática”. Puede ser programado mediante pulsos de radiofrecuencia y ser detectadas con instrumentos de resonancia magnética nuclear similares a los utilizados en hospitales y laboratorios químicos.

La potencia de Rainer es tal que si durante la ejecución de un algoritmo es capaz de entrelazar los 128 qubits (no ha sido demostrado por D-Wave Systems que se logre) entonces sería capaz de procesar o explorar “simultáneamente” estados diferentes del problema, casi el número de átomos que tiene la Tierra.

Límites Cuánticos

Sin embargo, los procesadores cuánticos también poseen un límite. Según científicos de la Universidad de Massachusetts en Boston, este crecimiento finalizará hacia el 2065, ya que el tamaño de los microprocesadores (cuanto más pequeño es su tamaño, mayor es su velocidad de procesamiento) no podrá ser más pequeño. Para obtener la cifra de esos límites, utilizaron una ecuación que calcula el periodo más pequeño de tiempo en el que un procesador cuántico podría realizar la más básica de las funciones: ese lapso será el límite último de cualquier computadora posible…

 




Centellas Tormentosas

 

En un rayo el potencial eléctrico es tan grande que el aire se convierte en conductor eléctrico...

La fascinación y temor por los fenómenos meteorológicos es un fenómeno que nos acompaña desde la antigüedad. Los antiguos griegos, por ejemplo, asociaban los rayos con Zeus, su dios más poderoso. Según la mitología nórdica, el fuego producía los relámpagos al cortar con su espada las nubes en su lucha contra los dioses.

En los Estados Unidos mueren unas 100 personas al año a causa del impacto por rayos, siendo el estado de Florida el que presenta un mayor número de casos, un número mayor al causado por los huracanes y tornados combinados.

El Rayo

El rayo corresponde a una descarga eléctrica en la atmósfera, que se produce entre una nube y la superficie, o entre dos nubes. El aire, desde el punto de vista eléctrico es un buen aislante. Sin embargo, cuando la diferencia de potencial eléctrico entre dos puntos supera un cierto valor límite, en torno a los 30,000 voltios, se produce la ruptura dieléctrica de éste, haciendo que el aire sea conductor eléctrico y se produzca una masiva descarga eléctrica en la forma de un rayo.

En su trayectoria, el rayo transporta corrientes eléctricas que pueden llegar como término medio a 30,000 amperios (en el hogar, las intensidades eléctricas están en torno a los amperios con voltajes de 220V) durante millonésimas de segundo con potenciales que se han llegado a estimar en valores que sobrepasaban los 15 millones de voltios, pudiendo llegar incluso a los 200 millones.

El aumento de temperatura en los puntos por donde pasa la descarga (hasta un valor cercano a 30,000°C) y el brusco aumento de presión debido al calentamiento asociado generan una gran luminosidad (relámpago) y ondas de sonido que constituyen el trueno. La velocidad de propagación del sonido en el aire es del orden de 1,200 km/h, de modo que el tiempo transcurrido entre el avistamiento del relámpago y el trueno permite estimar la distancia del observador al punto de ocurrencia del rayo.

El rayo que cae al suelo produce la fulgurita (del latín fulgur, relámpago), nombre que se le da en mineralogía a las rocas cuya superficie ha sido fundida por rayos y también a los agujeros característicos que se forman en las rocas a causa del mismo agente. Cuando golpean rayos sobre las superficies desnudas de las rocas, el aumento repentino de temperatura puede producir cierto grado de fusión, especialmente cuando las rocas son secas y la electricidad no circula con facilidad.

Diariamente en el mundo se producen unas 44,000 tormentas y se generan más de 8,000,000 de rayos según el sistema de detección mundial de meteorología. Se calcula que aproximadamente sólo el 60% de los rayos producen truenos. Esto se debe a que, a menudo, las ondas de varios rayos consecutivos se mezclan para formar uno, o se anulan mutuamente.

El sonido tiende a rebotar en las moléculas que hay en el aire lo que hace que el sonido viaje en todas direcciones, por lo tanto, mientras más lejana esté la fuente, más distorsionado será el sonido. Por lo tanto, cuando se escucha el estruendo repetido de un trueno, la descarga eléctrica ocurrió lejos. Si se escucha el "crack" o "boom” seco de un trueno, es porque la descarga eléctrica ha ocurrido cerca (<100 m).

Aunque parezca increíble, sobrevive el 80% de las personas que reciben la descarga de un rayo. El 30% lo recibe de un teléfono, dentro de sus casas. De los sobrevivientes, el 50% queda con alguna secuela: problemas psicológicos, como miedo a las luces y al aire libre; problemas fisiológicos, como cataratas, problemas de audición, quemaduras en la piel, pérdidas de memoria. Las quemaduras suelen ser superficiales al actuar la piel como un escudo, generando vapor de agua por el intenso calor de la corriente eléctrica, lo que hace ésta circule por el vapor, que es mejor conductor.

Otros fenómenos eléctricos

“Fuegos de San Telmo" son brillos verdosos o azulados que aparecen sobre objetos puntiagudos ubicados en tierra. La luminosidad es creada por las moléculas de aire excitadas por el campo eléctrico que se genera, que generan un flujo continuo de pequeñas chispas, por lo general invisible.

Se han descubierto hace poco las denominadas descargas de gran altitud, relámpagos coloridos que se producen por encima de las tormentas. Se les han dado muy diferentes nombres como: "duendes rojos" (red sprites); "chorros azules" (blue jets); y "elfos verdes" (green elves), que se refieren a sus diferentes formas. Se descargan desde la parte superior de las tormentas al mismo tiempo que se producen descargas de rayos dentro de las nubes.

Los relámpagos en forma de bola o descargas esféricas (Ball lightning), a veces conocido por su nombre alemán de Kugelblitz, son cuerpos luminosos esféricos, o en forma de guisante, con un contorno difuso que flota en un movimiento lento y errático, que acompañan a las tormentas más violentas. Su existencia no está demostrada, afirmando algunos científicos que las bolas luminosas son simplemente una ilusión óptica, explicándolos por el brillante resplandor que produce el relámpago al romper, y que el observador, deslumbrado, cree ver una imagen persistente y fácilmente confundible con una bola luminosa.

Los "duendes rojos" se producen a media altitud en la atmósfera (mesosfera) y su forma recuerda el tallo de una planta de zanahoria. Aunque los duendes son bastante raros, aproximadamente uno de cada veinte rayos surgidos de la parte superior de la nube tienen suficiente energía para producir duendes.

Los "chorros azules", que están restringidos a la parte de la atmósfera ubicada por debajo de 40 km de altitud, son difíciles de observar. Por esta razón la observación de estos fenómenos requiere ir por encima de la parte densa de la atmósfera baja. Estos extraños conos de luz azul fueron registrados por primera vez en una intensa tormenta producida en Arkansas, EEUU, en 1994. Estos chorros luminosos surgen de la parte alta de las nubes de tormenta a una velocidad de alrededor de 120 km/s.

Los pulsos electromagnéticos producidos por la descarga de fuertes rayos crean "elfos", que son, en esencia, intensos destellos de estática de radio que se propaga a la velocidad de la luz en todas direcciones. Cuando la onda frontal del pulso, de forma esférica, llega a cierta altura crítica de la atmósfera (alrededor de 75 a 100 km), el campo eléctrico que contiene acelera electrones con gran eficiencia. Los electrones chocan con las moléculas de aire, excitándolas hasta que emiten luz. Este mecanismo genera anillos de luz que se van expandiendo junto con la intersección del pulso esférico y la capa crítica de la alta atmósfera. Esta intersección se ensancha velozmente (de hecho, a la velocidad de la luz), de modo que los anillos en expansión aparecen a la vista como discos achatados.

 

 

 

 

 




Abejas y abejorros

 

Abejas y Abejorros

La abeja melífera o doméstica, las abejas sin aguijón, las abejas de las orquídeas, las abejas parásitas, los abejorros y los abejorros carpinteros pertenecen a la familia de los ápidos (Apidae).

Las abejas normalmente son sociales, aunque también las hay solitarias e incluso parásitas, es decir, que ponen sus huevos en los nidos de otras abejas. La abeja doméstica (Apis mellifera) posee el grado más avanzado de socialidad, con colonias permanentes. En el caso de los abejorros, la reina inicia anualmente una colonia nueva.

Dentro de la sociedad de las abejas hay distintas castas: las reinas, que se dedican a la reproducción; las obreras, que hacen todas las tareas de mantenimiento del nido, siendo no reproductivas y muy numerosas; las nodrizas, abejas obreras jóvenes que alimentan a las larvas; y los machos o zánganos, cuyo cometido principal es fertilizar a la nueva reina.

El zángano muere tras finalizar la cópula en pleno vuelo. La abeja reina copula con varios zánganos (más de 15) en los diversos vuelos de fecundación. Los zánganos no poseen aguijón, ya que el aguijón es en realidad un contenedor de huevos modificado.

Las abejas, además de las feromonas, tienen un sistema de comunicación propio, mediante movimientos vibratorios, con el que se indican la distancia y orientación, con respecto al sol, de la fuente de alimento.

Abeja Doméstica o Europea

Las colmenas más avanzadas, que pueden albergar hasta 100,000 individuos, se comportan como un superorganismo, ya que el efecto producido por la interacción entre los componentes de un sistema hace que el todo sea más que la suma de las partes individuales.

La abeja reina pone los huevos en primavera aunque el momento exacto depende de las condiciones climáticas que está condicionada por la información que recibe desde el exterior (flujo de néctar, recolección de polen, duración del día, temperatura, etc.).

La reina deposita sus huevos en celdas hexagonales de cera que han sido construidas por las obreras sobre los panales. Las celdas son hexagonales porque esta es la mejor forma de agruparlas en un espacio  tridimensional limitado y así dejar el mínimo espacio vacío.

                Las abejas trasladan los granos de polen adheridos a su cuerpo en una especie de “cesta” formada por su tercer par de patas

Después del tercer día, el huevo, alimentado con jalea real, se transforma en una pequeña larva, que es alimentada por las abejas nodrizas con polen. En torno a una semana después, las larvas son selladas en su celda por las abejas nodrizas, produciéndose el estadio de ninfa o pupa. Aproximadamente una semana después (dependiendo de la especie), la ninfa emerge como una abeja adulta.

Las abejas reina viven un promedio de tres años, mientras que las obreras viven de promedio 46 días.

Las abejas reinas gobiernan la colmena por medio de la emisión de feromonas, sustancias químicas que son eyectadas en el aire teniendo un amplio alcance. Las abejas obreras también producen feromonas para comunicarse entre ellas.

Las abejas melíferas han desarrollado en el tercer par de patas una especie de “cesta” denominada corbícula, con el que trasladan los granos de polen que se adhieren a su cuerpo a la colmena.

                La alimentación con jalea real de las larvas provoca que una larva se convierta en reina y no en obrera…

Las abejas obreras alimentan a las larvas, también se encargan de limpiar la colmena y algunas de ellas son guardianes, protegiendo la entrada de la colonia. Otras ventilan la colmena, aleteando 26,400 veces por minuto; y otras diseñan, construyen y sellan las celdas de cera donde se depositará la miel.

Las abejas obreras, tienen como misión  proteger la colmena y atacan al intruso inyectándole un veneno. Ello lo hacen clavando su aguijón, que se desprende de su abdomen, dejándolas fatalmente heridas

Alimentación Mágica

La abeja doméstica genera unas encimas que depositan sobre el polen que almacena en los panales. Posteriormente, lo tapa con una capa de miel, a fin de que sea un proceso de fermentación anaeróbico, para que una semana después el polen resulte digerible, obteniéndose de él todas las proteínas, grasas, minerales, etc.

Las larvas durante los primeros tres días de vida se alimentan a base de polen con jalea real, una sustancia segregada por las abejas nodrizas que sirve de alimento a todas. Posteriormente, se alimentarán con una mezcla de miel, agua y polen.

Las larvas reales (aquellas que se convertirán en reinas) son alimentadas desde su primer día con jalea real pura (sin polen). Esta alimentación tan exquisita es lo que hace que una hembra se desarrolle como reina y no como obrera. La larva de la abeja reina en tan sólo cinco días ha alcanzado dos mil veces su peso inicial y doblado la longitud con respecto a sus compañeras obreras. Las reinas también se alimentan de este energético sustento.

La jalea real se compone de: casi un 60% de agua, azúcares, proteínas, lípidos y ceniza. Contiene vitaminas B1, B2, B6, B5, B8, E, PP y ácido fólico. Tiene también antibióticos, gammaglobulina, albúminas, y aminoácidos. Además minerales como hierro, oro, calcio, cobalto, silicio, magnesio, manganeso, níquel, plata, azufre, cromo y cinc.

Entre las propiedades más destacables de la jalea están: estimula el sistema nervioso; mejora la oxigenación cerebral; regulariza los trastornos digestivos; aumenta la resistencia al frío y la fatiga; aumenta el contenido de hemoglobina, leucocitos y glóbulos rojos en la sangre; retarda el proceso de envejecimiento de la piel y mejora su hidratación y elasticidad; estimula el sistema inmunitario; etc.

Las abejas obreras también recolectan néctar, una solución acuosa concentrada de azúcares, aminoácidos, minerales y sustancias aromáticas, producido por muchas flores utilizadas como atrayentes y recompensa para los animales que realizan la polinización. El néctar es la materia prima más importante para la producción de la miel por la abeja doméstica.

Usando a las Abejas

Las abejas se usan ampliamente en la agricultura como agente polinizador. Sin su servicio, numerosas especies vegetales y por ende animales tienden a la desaparición.

El uso más conocido es la recolección de la miel, para lo cual se humea la colmena con dióxido nitroso que anestesia a las abejas guardianes, con lo que éstas pueden alertar a sus compañeras de la invasión intrusa. Además, las abejas obreras, al percatarse del peligro (humo), cogen miel hinchándose el abdomen, haciéndose más difícil el poder doblarlo para picar.

El veneno de abejas o apitoxina se ha usado terapéuticamente a lo largo de la historia para tratar numerosas afecciones como la artritis, la artrosis, la fiebre reumática, los tumores, el Parkinson o el Alzheimer.

Entre los factores de riesgo o enfermedades que padecen las abejas se encuentra, La varroa que es un ácaro cuya hembra realiza la puesta en el interior de las celdas de las larvas de abeja, por lo que una vez que salen las abejas adultas al exterior lo hacen debilitadas, por la succión de la hemolinfa del ácaro. Los individuos aparecen más pequeños de lo normal, sin alas, etc., por lo que al poco tiempo mueren. Este parásito ha hecho disminuir el número de abejas.

Otro factor también causante de la disminución de las abejas a nivel mundial es el uso de productos químicos pesticidas en la agricultura, que las desorienta con lo que no son capaces de retornar a las colmenas o se ven incapaces de localizar las zonas de alimento.

La varroa es un ácaro parásito de las abejas que produce su debilitamiento...

 Las colmenas se humean para que las abejas guardianes no puedan alertar al resto de compañeras…

Algunas abejas obreras ventilan la colmena, aleteando 26,400 veces por minuto…

 




VISUAL THINKING - QUÉ ES, QUÉ NOS APORTA, USOS Y APLICACIONES.

Los profesores que hemos estado frente a un grupo de estudiantes (sin importar el nivel) hemos utilizado de manera intuitiva el Visual Thinking que se contempla actualmente como una estrategia innovadora en la enseñanza y bien este pensamiento visual lo hemos empleado en diversas disciplinas de la educación básica, en preescolar y los primeros años de la educación primaria las educadoras y docentes “preparan2 cotidianamente los materiales y las actividades que realizarán con sus alumnos, utilizando carteles, mapas conceptuales mapas geográficos, procesos y rutas críticas, así como imágenes específicamente seleccionadas para el tema en estudio, etc. De hecho antes de que el termino Visual Thinking fuera acuñado los maestros ya lo utilizábamos. 

Este concepto está ganado importancia dentro del grupo de los thinking, que son un conjunto de formas de enseñar y aprender que forma parte de las metodologías activas.

El siguiente video nos explica qué es el visual thinking, aplicándolo como recurso para entenderlo, qué es, qué nos aporta, y por qué supera el uso intuitivo que pudimos hacer de las imágenes en la enseñanza.

Además es una constante entrar a un aula de clases y ver los diferentes diseños que ambientan y dan contexto al espacio escolar en que cada maestro y sus estudiantes día a día construyen nuevos y útiles aprendizajes.

https://www.youtube.com/watch?time_continue=79&v=qwpQbVBAlj0

 

Entonces, el visual thinking nos brinda muchos beneficios. Ingrid Mosquera Gende, autora de un blog especializado en educación, nos detalla esta relación de ventajas que esta metodología activa tiene sobre el uso de la palabra como único recurso para la enseñanza:

Involucra todos los sentidos en el proceso.

Mejora la memoria, la atención y la concentración.

Colabora en el desarrollo creativo y emocional.

Supone un papel protagonista y activo del alumno.

Ayuda a ordenar y organizar las ideas de forma lógica.

Promueve la reflexión sobre el propio aprendizaje.

Permite ver la información desde un punto de vista global.[1]

 El Visual Thinking, tal como se percibe desde el punto de vista de las metodologías activas, incluye tres fases [2]:

La primera observación: Esta permite aproximarse a la imagen que contiene los conceptos de una manera llana, sin ideas preconcebidas. Nos permite ver el concepto en imágenes por primera vez.

Selección de lo que se ve: En este momento, el estudiante analiza las imágenes y adopta un papel activo al seleccionar las que capturan su interés y utilizarlas para explicarse a sí mismo fenómenos o procesos, problemas o conceptos.

Trascender a la imagen: Es la fase final del Visual thinking y la meta hacia la que apunta esta práctica educativa, en ella, el alumno elabora sus propios esquemas mentales de lo que ha visto. Puede expresarlos mediante imágenes que él mismo elabore, o bien, sintetizar su propia representación del tema con los medios que prefiera, incluida la palabra, en cuadros sinópticos, presentaciones o mapas mentales.

Experimentar con este recurso de aprendizaje nos sorprenderá ya que muchos de los niños en la educación primaria lo utilizan y van aprendiendo de sus maestros a construir materiales en forma de carteles, mapas mentales y los utilizan en presentaciones diversas (de acuerdo a sus habilidades digitales).

Es importante revisar algunas herramientas en línea para desarrollar esta práctica, a los estudiantes les gusta aprender mediante la acción y esta es un verdadero motivo para mantenerlos interesados en la actividad en sí misma y aprender mediante las imágenes los conceptos o ideas que nos comparten, estamos seguros que encontrarán muchos aspectos positivos en todo el proceso.

[1] Mosquera Gende, I. (2019). Visual Thinking: dibujando el aprendizaje | UNIR. Recuperado el 4 de octubre de 2019, de https://www.unir.net/educacion/revista/noticias/visual-thinking-dibujando-el-aprendizaje/549203599112/

[2] Vives, V. (2019). 6 Herramientas para aplicar el Visual Thinking en el aula. Recuperado el 4 octubre de 2019, de https://blog.vicensvives.com/6-herramientas-para-aplicar-el-visual-thinking-en-el-aula/

[3] mindmaps. (2019). Recuperado el 4 de octubre de 2019, de https://www.mindmaps.app/




Big data

 

Big Data es la capacidad de generar datos.

Hoy en día muchos dispositivos celulares están conectados a internet por tanto está ocasionando un intercambio de datos constantemente.

La cantidad de datos y el volumen no pueden ser procesados por un software convencional.

La característica que Big data tiene es Volumen, velocidad y la variedad de fuentes, veracidad y valor.

Los datos de gran tamaño pueden ser divididos y distribuidos entre varios procesadores.

Para abordar el análisis de todos estos datos se utiliza la lógica en base de algoritmos y puede emplear inteligencia artificial.

Como resultado estos datos son arrojados en forma de patrones de comportamiento y predicciones de compra, entre otros.

 Sus beneficios se están aplicando en múltiples sectores como la gestión del tráfico, el marketing, política, ciencia, salud, etc.

Un mundo de posibilidades se está abriendo gracias a esta tecnología que nos simplifica el uso de información. 

Podríamos decir que la Big data es un acelerador de la producción de conocimiento y como tal es parte de la economía de la información, es la parte donde hablamos de la convergencia de los servicios y tareas, la virtualización de servicios.

Para muchas personas es la “cuarta ola” la cuarta revolución industrial, algunos se animan a mencionarla como “industria 4.0”, hablamos de que la Big Data existe gracias al internet, sin internet no hay Big data y esa es una premisa importante, ya que en internet se producen diariamente 25,000 millones de gigabytes de información.

 




METODOLOGÍAS, LA INNOVACIÓN Y LA TECNOLOGÍA.

Los docentes que recién egresan de las Instituciones formadoras han desarrollado habilidades en el manejo de las computadoras y cualquier herramienta con tecnología (TIC) son hábiles en las redes sociales y saben cómo utilizarlas de manera muy eficiente.

Sin embargo, los resultados en el aprendizaje de asignaturas como las matemáticas o las habilidades en la comprensión lectora no han alcanzado grandes modificaciones (incluso en el pasado los docentes obtuvimos mejores logros), así que la pregunta es:

 ¿La innovación y las TIC aplicadas en las metodologías de la enseñanza mejoran el aprendizaje de los estudiantes?

 

Metodologías Educativas.

Las metodologías educativas suelen girar alrededor de las teorías del aprendizaje (basadas en la psicopedagogía) como son el conductismo, cognitivismo, constructivismo y últimamente el conectivismo. Cada paradigma tiene sus procesos, actividades y métodos de actuación.

Que me perdonen los expertos en pedagogía, pero utilizaré un método de clasificación basado en lo que día a día hacemos en nuestras aulas, laboratorios y despachos. Hay metodologías que utilizamos a diario, otras las utilizamos excepcionalmente y otras sencillamente no las utilizamos (porque requieren mucho esfuerzo, no las conocemos o simplemente no queremos usarlas).

 

1.- METODOLOGÍAS EDUCATIVAS UTILIZADAS HABITUALMENTE

Son las que utilizamos de forma mayoritaria en la formación (primaria, secundaria, bachillerato, universidad,…); estas son las más conocidas y habituales:

  • Clases magistrales.  La teoría de toda la vida; basta con un gis y un pizarrón, aunque también se utilizan presentaciones por computadora, videos y el pizarrón electrónico (última tecnología disponible, muy eficaz por cierto).
  • Clases prácticas. La mayoría de las veces es una clase teórica; pero en lugar de transmitir conceptos abstractos se resuelve un problema; es decir, desde el punto de vista metodológico es idéntica a las clases magistrales.
  • Clases de Laboratorio. Se suelen utilizar en materias más técnicas y los alumnos manejan dispositivos donde se comprueba la validez de las teorías. Desde el punto de vista metodológico requiere la adquisición de determinadas habilidades prácticas.
  • Tutorías. Se suelen utilizar las tutorías denominadas reactivas (el profesor responde a una demanda de información del alumno); es un instrumento muy potente, pero desgraciadamente poco y mal utilizado.
  • Evaluación. Se suele utilizar la modalidad de evaluación sumativa (la utilizada para evaluar los conocimientos adquiridos) y obtener una calificación. Actualmente, y de forma oficial, se utiliza la evaluación continua, aunque en muchos casos no se utiliza correctamente.
  • Planificación. Se suele hacer al inicio del curso, básicamente son guías donde el alumno puede conocer con antelación los objetivos de la asignatura, el programa, el método de evaluación, la carga docente, actividades, condiciones, ….

Trabajos individuales y en grupo de tipo caja negra. Son trabajos que el profesor define el tema y alcance; los alumnos lo hacen por su cuenta y una vez finalizado se le presenta al profesor.

¿Cómo puede ayudar la innovación educativa a estas metodologías?, la mayoría de las personas aplican innovación educativa para sustituir estas metodologías; sin embargo, la innovación educativa se debe utilizar PARA MEJORARLAS NO PARA SUSTITUIRLAS, por ejemplo, si el objetivo de la clase magistral es transmitir unos conceptos para que los alumnos los asimilen, la innovación educativa debe ayudar a transmitir esos conceptos y a que los alumnos los adquieran con menos esfuerzo.

En este caso la innovación educativa produce un cambio, no metodológico pero sí de eficacia.

 

2.-METODOLOGÍAS EDUCATIVAS CONOCIDAS POR EL PROFESORADO PERO NO UTILIZADAS.

Son metodologías que cualquier docente conoce, pero que normalmente no se aplican porque el esfuerzo que requieren es muy alto. Suelen estar relacionadas con los paradigmas basados en el aprendizaje.

  • Evaluación diagnóstica. Es la evaluación que se realiza para conocer las condiciones de las que parte cada alumno; es muy eficaz, ya que permite conocer lo que el alumno sabe, lo que no sabe y lo que cree saber.
  • Evaluación por evidencias. Es el futuro, de la misma forma que al navegar por Internet se deja “evidencias” de todo lo que se ha realizado, el aprendizaje basado en TIC deja todo tipo de evidencias. Si a esto le unimos las evidencias que puede dejar el alumnado al realizar formación continua, entonces tenemos un proceso riguroso y preciso para realizar evaluación.
  • Evaluación formativa. Se emplea para ayudar al alumno con su proceso de formación; se trata de comprobar el aprendizaje para, en caso de que no vaya como debiera, tomar acciones correctoras.
  • Formación personalizada. Se trata de adaptar los recursos y estrategias formativas a las condiciones personales de cada alumno. Su realización es complicada por el esfuerzo y recursos requeridos. Sin embargo, en la actualidad existen TIC que pueden facilitar dicha labor. Se puede adaptar la formación, por ejemplo, al ritmo de aprendizaje, a los conocimientos previos, al resultado de ciertas actividades  e incluso al perfil de cada alumno.
  • Trabajos individuales y grupales tipo caja blanca. Son trabajos en los que el profesor participa como miembro del equipo de trabajo; básicamente hace unas veces de director (las menos) y otras de asesor del grupo.

 

¿Cómo puede ayudar la innovación educativa en este tipo de metodologías? Este tipo de metodologías son conocidas por todos, están muy relacionadas con el paradigma centrado en el alumno; pero tienen un gran problema: “el esfuerzo para realizarlas”, se imaginan que tengo que hacer una evaluación diagnóstica a cada alumno, una planificación personalizada, una evaluación formativa, re-planificar y participar en cada trabajo en grupos. Imposible dirán.

Muchas personas piensan que la innovación educativa se basa, precisamente en introducir estas metodologías en la formación; sin embargo, El objetivo de la innovación educativa en este tipo de metodología es reducir el esfuerzo para implantarlas, dicho de otra forma, utilizarlas sin aumentar el esfuerzo actual.

 

3.- METODOLOGÍAS EDUCATIVAS DESCONOCIDAS.

Se suele creer que en este grupo de metodologías se engloban las correspondientes a los últimos avances, esto es así, pero también hay otras “muy antiguas” pero nada conocidas.

  • Tutoría proactiva. Se basa en anticiparse a la demanda de información por parte del alumno; es una metodología altamente eficaz, ya que el objetivo es resolver la duda en el momento en que se produce (realmente antes de que se produzca).
  • Trabajo cooperativo. Se basa en aprovechar los recursos creados por los propios alumnos y profesores. Se confunde bastante con el trabajo en grupo pero no tiene nada que ver; básicamente actúa como una cooperativa donde todos sus miembros son constructores y beneficiarios de la cooperación.
  • Ciclo de Kolb. Esta metodología se basa en la acción como efecto transformador del conocimiento; entre acción y acción se relaciona el resultado con los conocimientos abstractos. Es una metodología muy eficaz para asignaturas en las que se quiera enfocar hacia la adquisición de habilidades y capacidades.
  • Inteligencia Colectiva. El planteamiento es gestionar el conocimiento que produce el grupo (por ejemplo en una clase) de tal forma que se sumen conocimientos. El resultado de los conocimientos del grupo se denomina inteligencia colectiva y se puede aplicar para mejorar el aprendizaje individual.

 

Estas metodologías se suelen asociar a paradigmas basados en el aprendizaje, pero también al enfoque basado en la práctica. 

 

¿Cómo puede ayudar la innovación educativa a estas metodologías? Básicamente a plantear las asignaturas de una forma completamente distinta.

Las innovaciones más fáciles de conseguir son las que afectan a las metodologías que más se utilizan y pienso que es un buen comienzo, ya que no requieren que se cambie el planteamiento de las asignaturas; sobre este tipo de innovaciones es fácil realizar “políticas educativas”.

Las innovaciones sobre las metodologías poco utilizadas pero conocidas, requieren unas herramientas tecnológicas concretas; por lo tanto hay que formar a los profesores en el manejo de habilidades.

Finalmente las innovaciones sobre las metodologías no conocidas, requieren una capacitación distinta y lamentablemente en algunas asignaturas no se pueden llevar a cabo.




INVESTIGADORES MEXICANOS Y ESTADOUNIDENSES DESCUBREN EN VENENO DE ALACRÁN, UN COMPUESTO EFECTIVO PARA MATAR BACTERIA DE LA TUBERCULOSIS.

*De acuerdo con la Organización Mundial de la Salud, 350 millones de personas en el mundo padecen tuberculosis.

El veneno de la especie de alacrán mexicano Diplocentrus melici, nativo de Veracruz, contiene dos compuestos que podrían ayudar a combatir las bacterias causantes de tuberculosis, sin afectar el tejido pulmonar.

Es un hallazgo que tiene repercusión importante en la salud pública, pues abre la posibilidad de obtener un nuevo antibiótico y que, probablemente, ayude a controlar la enfermedad.

 

De acuerdo con la Organización Mundial de la Salud (OMS) 350 millones de personas en el mundo padecen tuberculosis, una enfermedad cuyo tratamiento dura seis meses. Los pacientes precisan cuatro antibióticos diferentes; cuando el enfermo presenta una mejoría es común que abandone los medicamentos, provocando la resistencia de las bacterias, entonces es indispensable confinar al individuo y aplicar ocho fármacos durante un periodo de dos años. Esto es un problema de salud pública importante.

El doctor Lourival Possani, investigador del Instituto de Biotecnología de la Universidad Nacional Autónoma de México (UNAM), el químico Richard Zere de la Universidad de Stanford y el patólogo Rogelio Hernández-Pando del Instituto Nacional de Ciencias Médicas y Nutrición Salvador Zubirán, comprobaron la efectividad de los compuestos para eliminar infecciones provocadas por stafilococos aurus y bacterias causantes de la tuberculosis.

En entrevista para el Conacyt, el académico del Instituto de Biotecnología explica el proceso que llevó al descubrimiento, el trabajo de colaboración y el futuro de estos compuestos.

 

¿En qué consiste el descubrimiento?

Mientras extraíamos el veneno de Diplocentrus melici, vimos que cambiaba de color en contacto con el aire, al investigar en el laboratorio este inusual cambio, encontramos dos compuestos químicos involucrados; sin embargo, debido a que en el Instituto de Biotecnología no tenemos el know how y el equipo necesario para determinar la estructura molecular de éstos, buscamos la colaboración de Richard Zare de la Universidad de Stanford, quien es experto en identificar y sintetizar sustancias químicas.

 

¿Qué tipo de estructura molecular tienen esos compuestos?

Una cantidad muy pequeña del veneno que contiene los compuestos fue analizada en la Universidad de Standford, donde se determinó que su estructura molecular consiste en dos benzoquinonas (una clase de moléculas tipo anillo con propiedades antimicrobianas): una roja y otra azul.

Para realizar los análisis clínicos en ratones infectados con bacterias que causan la tuberculosis, contamos con la colaboración del doctor Rogelio Hernández-Pando, patólogo reconocido a nivel internacional por su investigación sobre esa enfermedad, quien, junto a su equipo de trabajo, encontró que la benzoquinona roja era eficaz para matar bacterias de stafilococos aurus, mientras que la azul eliminó las cepas de bacterias que provocan la tuberculosis.

Gracias a esta colaboración tripartita y multidisciplinaria podemos decir que tenemos un antibiótico eficaz para el tratamiento de la tuberculosis. A partir del descubrimiento de estas dos benzoquinonas, se diseñó un fármaco gracias al trabajo del doctor Zare de Stanford, que generó dichos compuestos de forma química, ya que la cantidad de veneno que se consigue es muy pequeña y, finalmente, las pruebas realizadas por el doctor Hernández-Pando

 

¿Cuál es el siguiente paso?

Debido a que ya comprobamos la eficacia del fármaco porque mata las bacterias sin causar efectos secundarios como daños al tejido pulmonar; lo siguiente fue registrar una patente internacional y publicar un artículo. Durante los últimos dos años trabajamos en el tema, no asistimos a congresos y tampoco comunicamos algo, hasta ahora. Finalmente, todo salió bien y es público.

Tenemos experiencia en esta materia, pues hace 15 años escribimos sobre el veneno de alacrán y obtuvimos otra patente internacional que fue registrada en 20 países. Actualmente, ese producto está en manos de una compañía farmacéutica que realiza las pruebas clínicas

Actualmente, estamos a la espera de que alguna compañía farmacéutica se interese en ese fármaco y decida comprar los derechos de la patente para concluir los experimentos clínicos, hasta el momento, contamos con los análisis preclínicos, los cuales se realizan en animales, obtuvimos muy buenos resultados; sin embargo, antes de utilizarlo en la población es necesario probarlo en humanos y eso cuesta millones de dólares. Tal vez en cinco años se anuncie a nivel mundial, si la farmacéutica trabaja rápido y cuenta con los recursos económicos.

 

¿Qué significa este hallazgo en un país con numerosos casos de picadura de alacrán?

En México se presentan altos índices de picaduras de alacrán, alrededor de 300 mil personas cada año, aunque existe un antiveneno eficiente y seguro, hay quienes se resisten a aplicárselo en las siguientes dos horas posteriores a la picadura. Actualmente, se registran hasta 90 muertes anuales porque la gente no confía en el antídoto. Anteriormente morían entre 700 y 800 mexicanos víctimas del veneno de alacranes.

 

¿Cuál es el beneficio para los científicos mexicanos y para la ciencia de nuestro país?

Esta noticia ya se dio a conocer en Estados Unidos y Europa, eso significa que los mexicanos son capaces de realizar investigación de primer mundo. Somos el grupo más importante en lo que se refiere a venenos de alacrán y aún falta descubrir más usos potenciales de la toxina.




WEREQUE, LA PLANTA MEXICANA QUE PODRÍA ACABAR CON EL CÁNCER

Por Redacción

Ciudad de México. 14 de mayo de 2019 (Ciencia MX). El mexicano Max Vidal Gutiérrez, estudiante de doctorado en la Universidade Estadual Paulista, en Brasil, desarrolla dos fitofármacos con la planta Ibervillea sonorae, mejor conocida como wereque o guareque, que gracias a su actividad antitumoral podría convertirse en una opción eficaz en el tratamiento del cáncer.

Esta planta es popular en el norte del país, principalmente en Sonora y Sinaloa, en donde ha sido usada tradicionalmente por las comunidades Mayo, Opata, Seri y Yaqui para tratar padecimientos de la piel.

Vidal Gutiérrez, quien es egresado de Universidad de Sonora (Unison), explicó que su investigación comenzó luego de conocer los resultados obtenidos por el docente Heriberto Torres Moreno, sobre moléculas presentes en la raíz de la planta con potencial actividad antitumoral, las cuales pueden ser utilizadas como marcadores en la elaboración de fitofármacos.

Detalló que hay dos etapas de gran importancia en el desarrollo de un fitofármaco: la parte química y la biológica, y que el proyecto comprende la integración de estas dos etapas haciendo uso de herramientas de química analítica, como: HPLC, espectrometría de masas y resonancia magnética nuclear.

Además, reiteró, fueron estudiados los perfiles fitoquímicos de los fitofármacos previamente diseñados para su uso en la investigación contra el cáncer.

Más adelante, cuando se realicen los estudios biológicos, se hará uso de modelos in vitro e in vivo de cáncer, para determinar la actividad antitumoral de estos dos fitofármacos, subrayó.

Las etapas química y biológica de esta investigación se encuentran respaldadas por los prestigiados investigadores Wagner Vilegas, de la Universidade Estadual Paulista y Ramón E. Robles Zepeda, de la Universidad de Sonora, resaltó Vidal Gutiérrez durante una presentación que ofreció en el marco del Seminario del Departamento de Ciencias Químico Biológicas y Agropecuarias, de la Unison, unidad Caborca.

 

Impulsan vocaciones científicas

Heriberto Torres Moreno, Julio César López Romero y Efraín Lugo Sepúlveda, docentes del campus Caborca y coordinadores del seminario, coincidieron que uno de los objetivos de esta actividad es estimular a los estudiantes de licenciatura a participar en proyectos de investigación.

“Se pretende divulgar la existencia de otras áreas de estudio donde puedan aplicar los conocimientos obtenidos en la carrera, pero sobre todo dejar claro que el programa de licenciatura en el que se encuentran, les dará las herramientas necesarias para poder realizar una carrera en el área de la investigación”, indicó Torres Moreno.

Los egresados poseen los conocimientos necesarios para cursar posgrados en áreas como Materiales, química, química orgánica, bioquímica, ciencias Químico-biológicas, ciencias de la salud y ciencias farmacéuticas, entre otras, agregó.

Explicó también que en el departamento de Ciencias Químico-Biológicas y Agropecuarias del campus Caborca se están desarrollando proyectos en conjunto con la Universidade Estadual Paulista, trabajo colaborativo que ha permitido la obtención de buenos resultados y la integración de estudiantes y profesores a estos proyectos.

“Queda siempre la invitación de nuestros docentes a participar en los proyectos de investigación, así como también a continuar asistiendo a nuestras sesiones semanales del Seminario”, concluyó.




¿QUÉ ES UN AGUJERO NEGRO?

Los agujeros negros son objetos extremadamente compactos que alguna vez fueron estrellas masivas y colapsaron debido a su propia gravedad. Como consecuencia de ello, los agujeros negros son muy densos. Si no fuera por los efectos que los agujeros negros producen sobre los objetos que están alrededor de ellos, no nos sería posible detectarlos.

Un agujero negro es un objeto celeste que posee una masa extremadamente importante en un volumen muy pequeño. Como si la Tierra estuviera comprimida en un dedal o el sol únicamente midiera 6 km de diámetro, explicó Guy Perrin, astrónomo del Observatorio de París-PSL.

Los agujeros negros, imaginados a inicios del siglo XX por el físico Albert Einstein y teorizados por su colega Stephen Hawking en los años 70 a partir de la radiación que emiten, son una masiva concentración de materia comprimida en un área pequeña que genera un campo gravitatorio que engulle todo lo que le rodea, incluida la luz.

Esta es la imagen de un agujero negro que se ha presentado en los días recientes y que ha causado un gran revuelo, considerando que para lograrla se requieren de una increíble cantidad de datos y la conjugación de imágenes de los 8 observatorios más importantes del planeta, de los cuales uno de ellos se encuentra ubicado en la Sierra Negra al Sureste de la ciudad de Puebla y por supuesto de un complejo algoritmo matemático diseñado por una joven científica del MIT. Katie Bouman.

Esta imagen fue presentada en Bruselas y simultáneamente en otras importantes ciudades del mundo, explicando que la imagen es en realidad un rompecabezas formado por varias imágenes generadas a través de ondas de radio por el proyecto “Telescopio del Horizonte de Sucesos” (EHT).

Explicaron que se trata de el agujero negro supermasivo ubicado en el centro de la galaxia M87, localizada a 53.3 millones de años luz de la Tierra, al que los científicos hacen referencia como “estrella M87”.

“Lo que vemos en la foto es la silueta, la sombra, el perfil,… es como una especie de halo, el agujero negro atrapa y desvía luz. Todo lo que haya brillante detrás del agujero negro lo vemos en el borde y por eso se ve brillante”, es la explicación dada por el científico español Eduardo Ríos, Coordinador del Departamento de Radio Astronomía/Inferometría de muy larga base del Instituto Max Planck de Bonn (Alemania).

Un agujero negro tiene un poderoso campo gravitacional que atrapa a todo lo que está cerca de él. Los científicos creen que algunas galaxias tienen grandes agujeros negros en su centro que liberan enormes cantidades de energía y que producen eventos energéticos espectaculares dentro de estas galaxias. Creen además que el combustible de los agujeros negros podría estar formado por el gas, las estrellas y el polvo que son atrapados por el agujero. El gas que es atrapado por el agujero negro cae dentro del mismo siguiendo órbitas espiraladas como si fuera un remolino. Usando espectroscopía, el Telescopio Espacial Hubble tiene la capacidad de medir la velocidad de este gas mientras gira alrededor de la entrada del agujero. La velocidad con que el gas gira es considerada la firma o la característica del agujero negro. Conociendo la velocidad del gas, se puede calcular la masa del agujero negro. ¡Se ha calculado que un agujero negro en el centro de la galaxia M87 en la constelación de Virgo, la cual está a 53.3 millones de años luz de distancia, tiene una masa igual a 3000 millones de Soles! Una forma aún más efectiva de estudiar los agujeros negros es a través del uso de observaciones en rayos X. Los rayos X tienen la capacidad de penetrar a través del gas y el polvo mejor que la luz visible. Con los datos tomados por observaciones en rayos X y el Telescopio Espacial Hubble, los científicos ahora creen que la presencia de agujeros negros explica muchos de los poderosos eventos cosmológicos que ocurren en el universo.




¿POR QUÉ UNA MÁQUINA PUEDE SUSTITUIR A UN CONTADOR, PERO NO A UN PELUQUERO?

POR PABLO RODRÍGUEZ CANFRANC

La revolución digital promete acabar con muchas profesiones y generar desempleo. La inteligencia artificial puede desempeñar muchos trabajos basados en habilidades intelectuales y, sin embargo, por ahora es incapaz de reemplazar algunas tareas físicas que realizamos los humanos. Es lo que se conoce como la paradoja de Moravec.

La sustitución de trabajadores humanos por máquinas en el entorno laboral, y la pérdida de empleos consecuente, es una de las grandes preocupaciones de las sociedades actuales. El vertiginoso avance de la tecnología parece habernos tomado por sorpresa, y no parecemos ser capaces de dar una respuesta social y política a la perspectiva catastrofista de un futuro cercano caracterizado por el desempleo masivo.

En 2013, dos académicos de la Universidad de Oxford, Carl Benedikt Frey y Michael A. Osborne, abrieron la caja de Pandora con un estudio que postulaba que prácticamente la mitad de los empleos de Estados Unidos podían ser desempeñados por máquinas. En concreto, en el trabajo calculaban la probabilidad de que una determinada ocupación pueda ser automatizada. Los medios dieron a las conclusiones del trabajo un barniz apocalíptico, al sugerir, en ciertos titulares, que los robots iban a sustituir al 47% de los trabajadores del país.

La realidad es mucho más compleja y, aunque efectivamente la inteligencia artificial tiende a desplazar la mano de obra humana, no está tan claro en qué medida y a qué empleos afectará más directamente. Para Frey y Osborne, solamente las ocupaciones muy creativas se librarán de ser automatizadas; otros en cambio extienden el reino del maquinismo incluso a campos que parecían acotados en exclusiva para el ingenio humano, como la redacción periodística.

Trabajos más recientes han matizado la visión negativa. Pascual Restrepo de la Universidad de Boston y Daron Acemoglu del MIT, presentaron a principios del pasado año un análisis en el que concluyen que los aumentos de la productividad derivados del maquinismo compensaran en gran medida la pérdida de empleo.

En el marco conceptual que contemplan, la tendencia en la misma: la inteligencia artificial reemplaza la mano de obra y desplaza a los trabajadores. Sin embargo, defienden la existencia de una serie de fuerzas que compensan esa destrucción. La automatización reducirá los costos de producción e impulsará la productividad, además de favorecer la acumulación de capital y de permitir el desarrollo de nuevos avances tecnológicos en las máquinas ya en funcionamiento. Para los autores, estos factores tendrán efectos positivos sobre la aparición de tareas intensivas en mano de obra, equilibrando la pérdida de empleo.

En cualquier caso, la visión ortodoxa prevé, en primer lugar, la destrucción del empleo menos cualificado –basado en tareas repetitivas y en gran medida manuales- y más adelante, a medida que las máquinas más inteligentes van avanzando en sofisticación, también la sustitución de cada vez más trabajadores especializados. Numerosas actividades financieras y de seguros o la atención al cliente, por poner dos ejemplos, son susceptibles de ser realizadas por algoritmos informáticos.

Y, sin embargo, parece ser que mientras que las máquinas son muy buenas acometiendo funciones que para los humanos suponen retos intelectuales, fallan bastante en actividades relacionadas con la percepción, la motricidad y la destreza fina. Sorprendentemente, esto podría implicar que muchos empleos manuales que requieren muy poca cualificación –como peluquero, limpiador o jardinero- podrían resistir el empuje de la automatización y seguir siendo desempeñados por humanos. Es lo que se conoce como la paradoja de Moravec.

 

La paradoja de Moravec

Hans Peter Moravec es un experto austriaco en robótica del Robotics Institute de la Carnegie Mellon University, en Pittsburgh, Pennsylvania. En la década de los ochenta, desarrolló, junto con Rodney Brooks y Marvin Minsky, una teoría según la cual, mientras que resulta relativamente fácil -o por lo menos alcanzable- aplicar con éxito la inteligencia artificial para reproducir las habilidades intelectuales de los humanos, en cambio, resulta muy complejo programar en un robot nuestra capacidad de percepción y nuestras habilidades sensomotoras.

En suma, lo que Moravec defendía –y parece que treinta años después sigue teniendo razón- es que resulta mucho más sencillo crear algoritmos de inteligencia artificial para llevar a cabo tareas basadas en el cálculo y las matemáticas, que robots inteligentes que sean capaces de interactuar físicamente con el entorno.

O dicho de otra manera más gráfica, como dejó escrito el propio Moravec en su libro de 1988 Mind Children: “Es comparativamente fácil crear ordenadores que presenten un nivel adulto en la ejecución en tests de inteligencia o jugando a las damas, y difícil o imposible el dotarles de las habilidades de percepción y movilidad de un bebe de un año”.

Una máquina inteligente nos supera en capacidad de cálculo; puede procesar millones de datos y establecer un dictamen en tiempo record -como, por ejemplo, al analizar e identificar patrones de síntomas de enfermedades más rápido que un médico-, pero le cuesta sobremanera andar a dos patas como los humanos (a pesar de los avances realizados en este campo por empresas Boston Dynamics) o coger de una estantería objetos de distintas formas o tamaños, con la naturalidad con la que lo hacemos nosotros.

Hans Moravec achaca esta paradoja a la evolución de las partes motoras y sensoriales del cerebro humano, un proceso que ha durado de miles de años, y que nos ha dotado de la experiencia que tenemos sobre el mundo físico que nos rodea y de la capacidad para sobrevivir en él. Por el contrario, el proceso que conocemos como razonamiento es la “más fina capa de barniz” de la mente humana, y su efectividad se basa en el mucho más poderoso conocimiento sensomotor -, que ponemos en práctica continuamente, de manera inconsciente, en nuestra vida diaria.

 

Acerca de la destreza robótica

La percepción de las máquinas, algo que ciertamente constituía un tema pendiente en la época en que Moravec anunció su teoría, ha evolucionado de manera espectacular en las primeras décadas de este siglo. Tanto los sistemas de reconocimiento de voz –presentes en nuestros móviles y altavoces inteligentes-, como las tecnologías de identificación de imágenes, han mejorado notablemente la forma en que los sistemas inteligentes se relacionan con su entorno y con nosotros los humanos.

La destreza física es otro tema. Los fabricantes de robots suelen vender el término “destreza” como una ventaja competitiva del producto. Sin embargo, es muy difícil establecer un nivel de destreza estándar –incluso los propios expertos suelen manejar distintas definiciones de este concepto- y, resulta quizá más adecuado, fijarse en las tareas específicas que debe realizar el autómata a la hora de establecer sus habilidades.

De esta forma, de cara a establecer el nivel de destreza que necesita un robot para manipular objetos, hay que tomar en consideración cuestiones como las siguientes:

  • El tamaño de los objetos: ¿cómo son de pequeños? ¿son todos del mismo tamaño o no? ¿cómo afecta lo anterior a la capacidad de alcanzarlos del robot?
  • La forma de los objetos: ¿qué forma tienen? ¿tienen complicadas aristas o son una forma geométrica simple? ¿son esféricos y, en consecuencia, difíciles de agarrar?
  • La estrategia de agarrado: ¿existen distintas formas para agarrar el objeto? ¿se trata de objetos delicados que requieran una manera especial de ser manipulados?
  • Alcance: ¿cuánto tiene que alargarse el robot para alcanzar los distintos puntos de su espacio de trabajo? ¿es necesario utilizar todo el espacio de trabajo del robot o solo una parte? ¿debe aproximarse a una localización determinada desde distintos ángulos?
  • Velocidad: ¿a qué velocidad debe realizar cada acción?

La complejidad que requiere preparar a un sistema inteligente para realizar determinadas acciones físicas podría justificar que las ocupaciones relacionadas con ellas sigan siendo desempeñadas por trabajadores humanos.

 

Consecuencias para el mercado de trabajo

Los algoritmos de inteligencia artificial de esta primera mitad del siglo veintiuno amenazan directamente a los trabajadores cualificados, especialmente del sector servicios. Se trata de ocupaciones muy dependientes del manejo de datos –contables, auditores, tomadores de seguros, meteorólogos, e incluso, empleados del comercio minorista o profesiones relacionadas con la atención al cliente…-, que constituyen un campo en el que el aprendizaje automático de las máquinas demuestra su eficiencia y en donde supone un ahorro de costes respecto a la mano de obra humana.

Otras de las candidatas a la automatización son las ocupaciones que demandan muy baja cualificación y que están basadas en tareas repetitivas. Pero en cambio, en muchos otros trabajos manuales, no es tan fácil aplicar máquinas.

 

La adaptación de los robots para realizar determinadas tareas es muy lenta y trabajosa.

Un algoritmo para realizar una tarea cognitiva es un software muy sofisticado que, una vez desarrollado y testado, puede distribuirse a usuarios de todo el mundo sin apenas coste. Un robot, en cambio, es algo bastante más complejo, que requiere la imbricación adecuada de la ingeniería mecánica, la inteligencia artificial aplicada a la percepción y la capacidad de manipulación fina. Una vez que es fabricado, debe ser probado y ajustado, y cuando es vendido, requiere ser transportado, instalado y mantenido allá donde opera. Todo esto complica y ralentiza la difusión de la robótica.

De esta forma, la inteligencia artificial tiende a eliminar, en primer lugar, los trabajos manuales más simples y, después, aquellos que están basados, aunque sea implícitamente, en los datos y el álgebra, es decir, en el manejo de información. Y estos últimos empleos son los que tradicionalmente ha desempeñado la clase media –empleos de cuello blanco generadores de rentas intermedias-, lo que lleva a algunos a afirmar que la revolución tecnológica está “vaciando la clase media”.

 

La destrucción de las clases medias

El ritmo de innovación ya no solamente afecta a los trabajadores menos cualificados, como en la Revolución Industrial; ahora los sistemas inteligentes amenazan directamente con eliminar muchos trabajos cualificados, lo que puede condenar –en el peor de los escenarios- a las clases medias de las sociedades avanzadas al desempleo crónico y la pobreza.

Por otro lado, seguirán creándose empleos manuales en ocupaciones difíciles de robotizar, y de esta manera se produce una polarización de la sociedad. Todo ello dentro de un nuevo orden mundial, como predice el experto taiwanés Kai-Fu Lee, dominado por China y Estados Unidos, en el que cualquier nación que no haya llegado a despuntar en el campo de la inteligencia artificial quedará relegada a un segundo plano.

Este excedente del mercado de trabajo en lo que el historiador israelí Yuval Noah Harari ha definido como la “clase inútil”. Se trata de grandes porcentajes de la población incapaces de obtener un empleo remunerado dentro de un nuevo mercado de trabajo dual caracterizado, por una parte, por la existencia de empleos muy especializados y muy bien remunerados ocupados por unos pocos, y por otra, por una demanda de trabajadores manuales que, dado el exceso de mano de obra, ofrece salarios muy bajos y condiciones precarias.

 

Las profesiones automatizables

El experto en inteligencia artificial anteriormente citado Kai-Fu Lee ha llevado a cabo un ejercicio de predicción del riesgo de desaparición de las distintas profesiones, en su reciente libro AI Superpowers. China, Silicon Valley and the New World Order.

Para ello, las clasifica en cuatro grupos: las que están en zona de peligro, las que tienen un barniz humano (human veneer), a las que considera que la automatización se les va acercando “reptando lentamente” (slow creep) y las que están en una zona de seguridad.

A su juicio, las ocupaciones clasificadas como en zona segura no corren ningún riesgo a medio plazo de ser desempeñadas por máquinas. En el caso de aquellas basadas en el trabajo físico, serían las que requieren una gran destreza en un entorno no estructurado, lo que dificulta el uso de robots, y que además tienen un componente de habilidades sociales. Entre los ejemplos señalados, están los cuidadores de personas mayores, peluqueros, fisioterapeutas, o educadores de perros.

Por su parte, las profesiones basadas en el trabajo cognitivo que están fuera de peligro son aquellas que demandan creatividad o estrategia, y habilidades sociales, como, por ejemplo, cargos directivos, psiquiatras, directores de relaciones públicas, trabajadores sociales o abogados criminalistas.

En la zona de peligro de las profesiones más físicas, nos presenta aquellas que no requieren mucha destreza manual, que se desarrollan en un ambiente estructurado y que no dependen de habilidades sociales. Son fácilmente automatizables en un futuro cercano los perfiles como los de los cajeros, los empleados de locales de comida rápida, cocineros, conductores, horticultores o trabajadores de la industria textil, entre otros.

Las tareas intelectuales que no requieren demasiadas habilidades sociales y que pueden ser desempeñadas por algoritmos son las relacionadas con profesiones como las de radiólogo, traductor, las que tienen que ver con la atención al cliente, asesor fiscal, tomador de seguros, telemarketing o las relacionadas con servicios financieros, como la concesión de préstamos.

Después de la zona de peligro y de la zona de seguridad, aparecen dos categorías más ambiguas. La que Kai-Fu Lee denomina con barniz humano, incluye profesiones basadas en tareas que ya pueden realizar las máquinas, pero que la interacción social que requieren impide automatizarlas en masa. En el caso de los trabajos manuales, serían empleos como los relacionados con la hostelería, como barman, camarero o recepcionista. Por la parte de los intelectuales, hablaríamos de profesores, médicos generalistas, guías turísticos o asesores financieros, entre muchos otros.

Finalmente, el grupo bautizado como slow creep, incluye trabajos que no requieren importantes habilidades sociales, pero sí una destreza manual y capacidad para desenvolverse en entornos no estructurados, en el caso de profesiones físicas, y de creatividad, en el de las intelectuales. Con el tiempo, el desarrollo de las máquinas probablemente conseguirá desplazar a los trabajadores de estos empleos. Serían, en el caso de las tareas físicas, ocupaciones como taxista, fontanero, trabajadores de la construcción, limpiador o mecánico aeroespacial. Y en el caso de las intelectuales, hablaríamos de científicos, artistas, investigadores médicos, diseñadores gráficos, analistas legales y financieros o redactor periodístico.

 

Notas.

Elliott, L. (2017) “Robots will not lead to fewer jobs – but the hollowing out of the middle class” en The Guardian. Disponible en: https://www.theguardian.com/business/2017/aug/20/robots-are-not-destroying-jobs-but-they-are-hollow-out-the-middle-class

Bibliografía

Acemoglu, D. y Restrepo, P (2018) “Artificial Intelligence, Automation and Work”. Disponible en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3098384

Ashley, H. (2018) “Moravec’s Paradox Is Why the Easy Stuff Is Hardest for Artificial Intelligence” en Curiosity. Disponible en: https://curiosity.com/topics/moravecs-paradox-is-why-the-easy-stuff-is-hardest-for-artificial-intelligence-curiosity/

Bathia, R. (2018) “Understanding Moravec’s Paradox And Its Impact On Current State Of AI” en Analytics India Magazine. Disponible en:  https://www.analyticsindiamag.com/understanding-moravecs-paradox-and-its-impact-on-current-state-of-ai/

Benedikt Frey, C. y Osborne, M. A. (2013) “The future of employment: ¿how susceptible are jobs to computerisation?” Disponible en: https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

Elliott, L. (2017) “Robots will not lead to fewer jobs – but the hollowing out of the middle class” en The Guardian. Disponible en: https://www.theguardian.com/business/2017/aug/20/robots-are-not-destroying-jobs-but-they-are-hollow-out-the-middle-class

Lee, Kai-Fu (2018) “AI Superpowers. China, Silicon Valley and the New World Order”. Houghton Mifflin Harcourt. Boston-NewYork, 2018.

Montes. L. (2018) “Los robots han llegado: estos son los trabajos que pueden ser sustituidos” en Business Insider. Disponible en: https://www.businessinsider.es/robots-han-llegado-estos-son-trabajos-que-pueden-ser-sustituidos-202076

Owen-Hill, A. (2019) “How Much Dexterity Does a Robot Need?” en Robotiq. Disponible en: https://blog.robotiq.com/how-much-dexterity-does-a-robot-need

Stanek, M. (2017) “Moravec’s paradox” en Medium. Disponible en: https://medium.com/@froger_mcs/moravecs-paradox-c79bf638103f

Tornafoch Yuste, X. (2019) “La Historia nos recuerda los efectos del paro y la precariedad laboral” en The Conversation. Disponible en: https://theconversation.com/la-historia-nos-recuerda-los-efectos-del-paro-y-la-precariedad-laboral-113134