El código genético

El código genético es, a grandes rasgos, el conjunto de mandamientos para la síntesis de aminoácidos. Es un conjunto de reglas que establecen cómo se da el proceso de traducción del RNA para la síntesis de aminoácidos y proteínas. Es un código universal, común en todos los seres vivos (aunque haya pequeñas excepciones).

El código genético establece la relación entre los nucleótidos presentes en el material genético y los aminoácidos. La secuencia de material genético está compuesta por “piezas” llamadas nucleótidos, que contienen una molécula llamada base nitrogenada, que puede ser de cinco tipos. La adenina (A), timina (T), citosina (C) y guanina (G) están presentes en el ADN y la adenina, guanina, citosina y uracilo (U) en el ARN. 

A cada secuencia de tres nucleótidos se le llama codón, y los codones codifican aminoácidos. Como si de una traducción de idiomas se tratara, una determinada secuencia de material genético se “lee” por codones, por nucleótidos en grupos de tres, para traducirlos a aminoácidos; como las secuencias que se traducen son mucho más largas que 3 nucleótidos, el resultado de la traducción es un conjunto de aminoácidos, que formarán proteínas con estructuras y funciones específicas.

La cantidad de codones posibles es de 64; de estos, 61 codifican aminoácidos (los 3 restantes son señales de STOP, que marcan el final de la traducción). Existen 20 aminoácidos que forman proteínas, y, por tanto, más de un codón puede codificar la misma proteína.

Código genético que muestra los diferentes codones y los aminoácidos que codifican.

¿Qué conclusiones se pueden extraer del hecho de que todos los seres vivos tengan el mismo código genético?

La primera conclusión es que, efectivamente, todos los organismos vivos del planeta tienen un ancestro en común. La improbabilidad de que el código genético sea fruto de una evolución convergente es tan grande, que es posible tomarse la libertad de decir que el último ancestro común de todos los organismos ya tenía este código genético. Voy a justificar esta conclusión con una comparación a una escala diferente:

Una de las características distintivas de los mamíferos es la presencia de pelo (los marinos no, pero vamos a obviarlos para el ejemplo). Si tener pelo es un rasgo que se mantiene en todos los mamíferos es porque es un rasgo útil y beneficioso en los entornos en los que han evolucionado. Tenemos dos opciones para explicar la presencia de pelo. La primera es, que el ancestro en común de todos los mamíferos tuviera pelo, y que precisamente este rasgo siga siendo de utilidad en todos los medios en los que han evolucionado los mamíferos. La segunda opción es que el último ancestro en común no tuviera pelo, pero, al ser una característica útil en mamíferos, todos ellos lo hayan desarrollado en algún punto a lo largo de sus historias evolutivas hasta llegar al presente, donde todos ellos tienen pelo. La segunda opción, aunque posible, es improbable. Si extrapolamos este ejemplo al del código genético, sería realmente improbable que prácticamente todos los seres vivos desarrollaran en sus propias historias evolutivas este código genético; por eso, podemos concluir con altas probabilidades que todos los organismos tienen un ancestro en común y que, además, contiene el código genético que conocemos.

Relacionado con esto, podemos concluir que la universalidad del código genético es evidencia de su naturaleza óptima. Como hemos dicho, es un rasgo compartido por todos los seres vivos y aquí se incluyen organismos tan ancestrales como las bacterias y las arqueas, que llevan en la Tierra miles de millones de años. El hecho de que se haya mantenido y no haya sufrido muchos cambios significantes durante tanto tiempo muestra que tiene una expresión óptima. Con esto no quiero decir que el código genético se haya mantenido intacto durante miles de millones de años, sino que el formato y expresión del código genético son los más adecuados para la función que cumple.

Por último, podemos concluir que la base de la vida es la misma en todos los organismos. A pesar de todas las formas de vida que existen (y han existido) desde las células más minúsculas hasta los saurios más gigantescos, los cimientos de la vida son los mismos. Absolutamente todo lo que conocemos, inánime o no, está formado por átomos de unos elementos concretos, organizados y conectados en una infinidad de maneras. A una escala diferente, podríamos decir que la traducción del RNA y la posterior síntesis de aminoácidos y proteínas es equivalente a los átomos. Los cimientos son los mismos en todos los seres vivos, y es la reorganización y modificación de estos aminoácidos los que crean la gran variedad de estructuras y vidas que conocemos.

La conexión biológica y cultural

La evolución biológica y la cultural se han desarrollado de la mano, quizás no de una manera paralela y proporcional, pero sí en un proceso de retroalimentación mutua. A lo largo de la historia, todas las especies, la humana y las no humanas, han ido modificándose como respuesta adaptativa a diversos cambios en el medio, como cambios climáticos, geográficos y cambios en la dinámica entre las mismas especies. En ello reside la evolución biológica, en la óptima adaptación al medio, aunque la semilla del cambio sea fruto de las mutaciones que dependen del azar.

El resultado de esta evolución es uno de los órganos más increíbles: el cerebro. Y aunque en el reino animal haya cerebros e inteligencias fascinantes, ninguna de ellas es equiparable a la del ser humano. La divergencia desde el último ancestro común entre homínidos y el ser humano supuso el punto de partida para la evolución del cerebro humano, que ha ido aumentando tanto en tamaño como en complejidad a lo largo de la historia.

La aparición de diferentes culturas en el transcurso de la historia es, en mi opinión, consecuencia de la evolución biológica, y en particular, del cerebro y la inteligencia. Gracias a la inteligencia y a las “herramientas” que su cerebro ha ido desarrollando, el ser humano ha podido adaptarse mejor a las condiciones de los entornos que ha habitado. Y es en esta adaptación a las realidades particulares cuando comienzan a definirse las civilizaciones, y comienzan a desarrollarse los aspectos culturales como el conocimiento, los códigos y valores morales, o las tradiciones, entre otras. La inteligencia y la evolución en la complejidad del cerebro han permitido que las civilizaciones hayan aprovechado su entorno y se hayan adaptado a él al máximo, y evidencia de ello es la enorme diversidad cultural que ha existido y sigue existiendo en el mundo.

Pero no creo que la relación entre evolución biológica y cultural sea un proceso unidireccional, sino que existe un feedback y una dependencia mutua entre ambas. De la misma manera en que la evolución biológica ha permitido la aparición de las culturas, es necesaria la existencia de estas para el desarrollo y la continua evolución del ser humano. La cultura es hereditaria, y los aspectos y estímulos culturales son transmitidos de generación en generación, desde el momento del nacimiento. Creo que son precisamente estos estímulos los que permiten modelar nuestro cerebro, los que aumentan su plasticidad, y consecuentemente, mejoran la respuesta a los constantes cambios de nuestro entorno.

Bebidas energéticas… ¿o azucaradas?

Las bebidas energéticas elegidas han sido Monster, Burn y la marca blanca del supermercado Día, “Energy drink”, las tres con el mismo formato de 500 ml. El refresco “control” con el que se han comparado las bebidas energéticas ha sido Coca Cola.

La cantidad de cafeína en las tres bebidas energéticas es la misma, 32mg/100ml, que, convertido al volumen total de la bebida, serían 160 ml de cafeína por lata. La botella de Coca Cola no señala los miligramos de cafeína en su envase, pero tras consultarlo en Internet, una botella de 500 ml contiene aproximadamente 50 mg.

Evidencias científicas exponen que una dosis mínima de 75 mg de cafeína mejora ciertos procesos cognitivos relacionados con un aumento en la atención, memoria o aprendizaje, y por eso la European Food Safety Association o EFSA establece un mínimo de 75 mg de cafeína por dosis de cada producto. Si nos fijamos en la cantidad de cafeína que contienen las bebidas energéticas podemos comprobar que es más del doble de ese mínimo.

En cuanto al azúcar, la bebida Burn es la que más contiene, con una impactante cantidad de 70 gramos por lata. En segundo lugar, tenemos la marca blanca del Dia, con 60 gr de azúcar por lata, y de cerca le siguen Monster y Coca Cola, con 55 y 53 gramos de azúcar, respectivamente.

Tras ver los resultados, conviene reflexionar acerca del arma de doble filo que suponen las bebidas energéticas. Estas bebidas contienen altos niveles de cafeína, que científicamente, están asociados a mejorar el rendimiento, la memoria o el aprendizaje. A priori, esto no supone ningún problema porque todas contienen el mínimo establecido por la ley. Pero, ¿qué pasa con el límite máximo? Puede parecer lógico para muchas personas que, por tener el doble de cafeína, el consumidor obtendrá el doble de beneficios; pero lo cierto es que no existen pruebas científicas que lo afirmen, y no se puede asumir que es así.

 Por otra parte, dado que contienen suficiente cantidad como para aportar los beneficios mencionados, ¿puede recomendarse esta bebida? ¿Qué pasa con los 70 gr de azúcar que lleva Burn en su mochila para que el consumidor pueda disfrutar de los beneficios de la cafeína? El problema reside en un dichoso “movimiento” llamado nutricionismo, en el que es posible atribuir los beneficios de un único ingrediente a todo el producto, sin tener en cuenta el efecto del alimento final. En este caso, las ingentes cantidades de azúcar quedan escondidas bajo la premisa de que, gracias a los niveles de cafeína, las bebidas energéticas pueden llegar a ser beneficiosas para la atención, la memoria o el aprendizaje.

Introducción al algoritmo A*

El algoritmo A* es un algoritmo de búsqueda diseñado para encontrar, dentro de un grafo, la ruta de un nodo inicial a uno final, minimizando la heurística y el coste al máximo; dicho de otra manera, es un algoritmo utilizado para encontrar el camino más corto y eficiente de un punto a otro.

El algoritmo A* se considera “informado”, porque utiliza la información y características específicas de cada estado o nodo (el equivalente a una posición concreta en un camino) dentro del recorrido, para poder elegir el mejor próximo nodo que conduzca a la meta. A esta información se le llama heurística, y es esencial para realizar una búsqueda eficiente. Pero además de esto, es necesario que, encontrando el recorrido más eficiente, su coste sea mínimo, y estos son los factores que el algoritmo A* tiene en cuenta para realizar la búsqueda.  

El pathfinding o búsqueda de recorrido que realiza el algoritmo acumula en su memoria toda la información considerada para moverse de un nodo a otro, y precisamente gracias a esta acumulación de información es posible trazar todo el recorrido del punto inicial hasta el final.

Las limitaciones del algoritmo A* podrían ser, por ejemplo, problemas con grafos demasiado grandes con una gran cantidad de nodos, en la que la acumulación de información para poder trazar el recorrido sea incompatible con la memoria del operador. Otra limitación podría ser una mala función heurística, en la que el algoritmo A* no realice la búsqueda de manera optimizada.

El test de Turing

La prueba de Turing es una medida para evaluar la capacidad de una máquina de actuar como un ser humano. Fue propuesta en 1950 por el informático y matemático inglés Alan Turing en su ensayo “Computing machinery and intelligence” sobre Inteligencia Artificial, en el que Turing se preguntaba “si las máquinas podían realmente pensar”.

Para intentar dar respuesta a esta cuestión tan compleja (¿cómo se define con exactitud “pensar”? ¿a qué nos referimos con máquina?), Turing hizo una pequeña modificación de “El juego de la imitación”. Originalmente, consistía en dos jugadores, A (hombre) y B (mujer), que mantenían una conversación de texto online con una tercera persona, C, en una habitación aislada y que desconocía el género de A y B; el propósito del juego era que, mediante preguntas, C adivinara el género de los otros dos. La propuesta del matemático, llamada test de Turing, fue sustituir A o B con una computadora, y mediante preguntas y respuestas, C debería adivinar cuál de los dos era la máquina. Si C fuese incapaz de adivinarlo, si la computadora conseguía pasar desapercibida, la máquina habría superado con éxito el test de Turing.

La naturaleza del experimento no era comprobar que la máquina supiese todas las respuestas o que respondiera en la mayor brevedad posible a cuestiones matemáticas complejas; el objetivo era comprobar que la máquina fuese capaz de generar respuestas similares a las de un ser humano.

A día de hoy no existen máquinas que hayan pasado, al menos sin controversias, el test de Turing. En 2001 tres científicos crearon a Eugene Goostman, un bot conversacional, con la personalidad de un niño ucraniano de 13 años; en un concurso sobre el test de Turing en 2012, Goostman pasó la prueba, aunque existen muchas críticas y poco consenso acerca de su “victoria”.

Como curiosidad, me he topado con un artículo de Xataka Ciencia en el que se menciona una versión del test de Turing en el día a día: los captcha o Completely Automated Public Turing Test to tell Computers and Humans Apart. Son las letras y dígitos distorsionados o preguntas del tipo “Señala las imágenes con pasos de peatones” en algunas páginas de internet, que sirven para proteger algunos contenidos al asumir que un robot no podría superar la prueba.  

Conociendo las neuro-armas

Hay investigadores que piensan que Neuro se ha convertido en un prefijo vacío, una estrategia de mercadotecnia como en su tiempo fue Bio o Eco, mientras que otros creen que entender la influencia del cerebro y los comportamientos puede suponer un salto hacia adelante en diversos campos.

Este es el punto de partida del ejercicio semanal en Neurociencia, y a raíz de esto he oído por primera vez el término neuro-arma. Según James Giordano, profesor de Neuro-ética en la Universidad de Georgetown (Washington DC) y el nombre más repetido en las lecturas recopiladas, “el cerebro es el nuevo campo de batalla del siglo XXI”, y para él, las neuro-armas son “cualquier cosa con la que acceder al cerebro para enfrentarse a los demás”.

Estas neuro-armas están comprendidas dentro del contexto de ciencia y tecnología neurocognitiva, y, según el equipo de Giordano, son cada vez más países los que reconocen que el desarrollo de los conflictos globales requieren nuevos métodos y técnicas para manipular al adversario, entre ellas, usando el conocimiento proporcionado por la neurociencia como arma de doble filo.

Lo cierto es que la bibliografía acerca del neuro-armamento es difusa y diversa, porque es un tema relacionado con la diplomacia, con agencias secretas y estrategias geopolíticas no muy transparentes. Una de las noticias más accesibles a la hora de buscar información sobre el tema, es un incidente que ocurrió en 2017 en La Habana con algunos diplomáticos estadounidenses. Varios agentes de la embajada estadounidense en Cuba informaron haber sido expuestos a un fuerte sonido, seguido por un pitido incesante en los oídos, vértigos, mareos y varias horas después, deficiencias cognitivas leves. El mismo doctor Giordano, experto en las aplicaciones militares de la neuro-tecnología, espetó que se trataba de una neuro-arma que provocó una cavitación o bolsa de aire en los fluidos del oído interno, que viajaron por el torrente sanguíneo cerebral provocando micro-derrames en las víctimas.

Otros autores consideran que hay neuro-armas químicas, y que son, por ejemplo, los fármacos usados para tratar trastornos psicológicos y neurológicos en sujetos sanos, para provocar cambios cognitivos y conductuales.

Estoy de acuerdo con que conocer el cerebro y avanzar en neurociencia es primordial y es la base para poder avanzar en diversos campos más, pero es un tema con repercusiones éticas evidentes. Son herramientas, al igual que las armas químicas y biológicas, muy poderosas, con consecuencias potencialmente devastadoras e imprevisibles.

            Por otra parte, me parece un buen ejemplo del mal uso que se le puede dar a algo positivo. No es la primera vez que el avance científico se desvía para cumplir intereses corruptos y/o bélicos, y son precisamente este tipo de iniciativas las que siembran el miedo y el rechazo a la ciencia en la sociedad.

REFERENCIAS BIBLIOGRÁFICAS

https://ndupress.ndu.edu/Portals/68/Documents/prism/prism_8-3/prism_8-3_DeFranco-DiEuliis-Giordano_48-63.pdf

https://www.aspistrategist.org.au/information-warfare-and-neuro-weaponry/

https://thebulletin.org/2017/10/neuroscience-and-the-new-weapons-of-the-mind/

https://thebulletin.org/2016/10/when-neuroscience-leads-to-neuroweapons/

https://www.nationaldefensemagazine.org/articles/2018/9/6/exclusive-doctors-reveal-details-of-neuroweapon-attacks-in-havana

Efectos lunares en la Tierra

La Luna ejerce una serie de efectos en la Tierra necesarios para que la vida se haya dado, y se siga dando, tal y como la conocemos. Para poder entender mejor las funciones de la Luna sobre nuestro planeta, es necesario retroceder unos pocos millones de años, aproximadamente 4.500 millones, hasta el momento en el que se formó nuestro satélite.

En un lugar concreto del Sistema Solar, dos cuerpos de tamaño parecido chocaron en una inmensa colisión, produciendo lo que hoy en día son la Tierra y la Luna; esta última se creó a partir de la aglomeración de las partículas expulsadas en el impacto. La Tierra tuvo que pagar un precio por ese choque: su eje de rotación, perpendicular a la órbita del Sol, sufrió una inclinación de aproximadamente 23.4º. A partir de este momento, la Luna comenzó a ejercer una fuerza gravitacional sobre nuestro planeta, que, a su vez, desencadenó una serie de efectos que han permitido, ni más ni menos, que hayamos llegado hasta aquí.

La Luna ha ralentizado la velocidad de rotación de la Tierra. Después de la formación de la Luna, esta estaba mucho más cerca de la Tierra, y la fuerza de gravedad que ejercía sobre nuestro planeta, provocó que la Tierra rotara a una velocidad cada vez más baja. De hecho, antes, la rotación de la Tierra sobre su eje, o, dicho de otra manera, el día, duraba 6 horas; gracias al efecto de la Luna, la velocidad ha ido ralentizándose hasta producir los días de 24 horas que la humanidad conoce. Esta ralentización está relacionada con la velocidad de los vientos; cuanto más rápida sea la velocidad de rotación de la Tierra, más rápidos son también los vientos, lo que evidentemente, afecta al clima.

Por su parte, la Luna tuvo que compensar este efecto producido en la Tierra; mientras la velocidad de rotación del planeta deceleraba, el suyo fue acelerando, y este incremento de velocidad hizo que cada vez se alejara más de la Tierra. Este proceso sigue ocurriendo a día de hoy, y se estima que se aleja casi 4 cm cada año.

La inclinación de 23. 4º que sufrió la Tierra fue en realidad un paso esencial para que hoy en día existan las estaciones durante el año. Debido a esta inclinación, nuestro planeta se mueve como una peonza, realizando un movimiento circular alrededor de la perpendicular al plano de órbita (creando un cono), en un proceso llamado precesión y que dura aproximadamente 26.000 años.

Gracias a la Luna, la inclinación y el movimiento de precesión es estable; sin ella, la Tierra giraría como una peonza inestable a punto de pararse. Sin la estabilidad de la Luna, Júpiter y el Sol, dos gigantes espaciales, ejercerían una fuerza de gravedad tan extrema sobre la Tierra, cada uno tirando hacia su lado, que la inclinación podría pasar de 23. 4º a 80º: ¡casi podría alinearse el eje de rotación de la Tierra con el Sol! Es decir, una mitad del planeta quedaría permanentemente bajo insolación, y la otra mitad en una penumbra absoluta y heladora. Esta inclinación, dentro de sus parámetros estables, varía mínimamente entre los 22. 1º y 24. 5º, en un proceso cíclico que dura aproximadamente 41.000 años.

Imagen del ángulo de inclinación de la Tierra.

Otro de los efectos de la Luna, quizás el más conocido, son las mareas. La fuerza de gravedad del satélite afecta a todo el planeta, pero es especialmente evidente en los océanos. En la parte de la Tierra enfrentada a la Luna, los océanos se abomban, produciendo la pleamar. Pero, aunque la Luna ejerza sobre los océanos, la Tierra sigue girando, e inevitablemente el agua crea una fuerza de inercia, intentando contrarrestar la gravedad lunar. De esta manera, los océanos que se encuentran en la cara terrestre no iluminada por la luna, se mantienen relativamente estables, y precisamente por eso existen dos pleamares y dos bajamares diarias en prácticamente todas las partes del mundo.

Representación de las mareas (en azul oscuro) producidas por la fuerza gravitacional lunar.

Las mareas son esenciales para la vida en la Tierra, tanto para los humanos como para muchísimos animales más: las mareas agitan los océanos, facilitan la disponibilidad de nutrientes, permiten que existan los ecosistemas intermareales, la pesca, etc. Además de esto, hay varias especies marinas que directamente dependen de las mareas, como algunas tortugas; realizan la puesta de los huevos en la arena teniendo en cuenta la marea que habrá cuando nazcan, ya que esta determinará su supervivencia desde que salen de los huevos hasta que llegan al mar.

Como hemos observado, las interacciones gravitatorias entre la Tierra, la Luna y el Sol afectan al clima, y, por tanto, a la vida en el planeta. El astrónomo serbio Milutin Milankovitch desarrolló en la década de los 20 modelos matemáticos que relacionaban las variaciones cíclicas en la órbita de la Tierra con los cambios en la radiación solar que llegaban a la superficie del planeta, y por tanto, en el clima de esta. De esta manera, teorizó que, debido a las interacciones entre objetos del Sistema Solar, tres parámetros variaban cíclicamente a lo largo del tiempo. Dos de ellos, mencionados en este artículo, son el movimiento de precesión y el ángulo de inclinación, con variaciones en ciclos de 26.000 y 41.000 años aproximadamente. El tercer parámetro es la excentricidad, que es la forma de la órbita de la Tierra en torno al Sol (elíptica), que varía a lo largo de dos ciclos superpuestos, de 100.000 y 413.000 años.

Representación de los ciclos de Milankovitch y su periodicidad.

Estos cambios cíclicos son los denominados ciclos de Milankovitch, que, avalados por evidencias fósiles, sirven para explicar la periodicidad de algunos cambios climáticos a lo largo de la historia, como las glaciaciones.

REFERENCIAS BIBLIOGRÁFICAS

https://beta.iop.org/how-does-moon-affect-earth#gref

https://elpais.com/elpais/2015/12/15/ciencia/1450179769_533306.html

https://www.bbvaopenmind.com/ciencia/grandes-personajes/la-historia-de-la-tierra-al-ritmo-de-los-ciclos-de-milankovitch/

Estrategias… ¿saludables?

El primer ejemplo es el de unas galletas con frutas y frutos secos. Es un alimento funcional que anuncia no tener conservantes, pero sus asteriscos nos especifican que no tiene conservantes “de acuerdo con la legislación”.

Es una técnica muy sutil de engaño publicitario. Cuando se utiliza el reclamo “Sin conservantes” normalmente se hace referencia al gran grupo de aditivos alimentarios, necesarios para que los alimentos se conserven en buen estado y mantengan las propiedades, pero temidos por muchísima gente por culpa del nutricionismo. Un consumidor, al ver la etiqueta de “sin conservantes”, pensará que es un producto “natural”, sin ningún aditivo y, por tanto, aunque erróneamente, más sano que otros del mercado. Sin embargo, los asteriscos indican que, de acuerdo con la legislación, no tiene conservantes; efectivamente, al comprobar los ingredientes no aparecen conservantes, aunque sí aditivos como gasificantes y emulsionantes, sin mencionar el azúcar y las grasas.

Ingredientes de las galletas.

Insisto, los conservantes, gasificantes y demás aditivos son erróneamente temidos, y un producto no va a ser mejor (ni peor) únicamente por la ausencia de estos. Sin embargo, en este caso, se ha recurrido a la generalización y demonización de los conservantes para aparentar ser un producto más saludable.

El segundo ejemplo son unos cereales con trigo integral, en los que se publicita “que te ayudan a sentirte con fuerza” (el producto dice “Powering you”, pero en su web esa es la traducción directa). Este producto es el ejemplo de una estrategia publicitaria utilizada muy a menudo.

Cereales special K con el mensaje «Powering you».

La Autoridad Europea de Seguridad Alimentaria (EFSA) permite atribuir declaraciones saludables de un ingrediente al producto entero, si este ingrediente se encuentra en las concentraciones adecuadas para la ingesta diaria.

De esta manera, el asterisco del mensaje “Powering you”, nos lleva al siguiente recuadro azul, en el que se establece que una porción de estos cereales contiene, como mínimo, el 15% del Valor de Referencia de Nutrientes como la vitamina D, la B12, B3, B1, Fe, Zn, etc.

Leyenda de los asteriscos en referencia a «Powering you» (*) y «100% integral» (**).

Estos nutrientes, de manera individual, presentan suficientes evidencias científicas para atribuirles beneficios saludables, como contribuir al metabolismo energético normal o ayudar a disminuir la fatiga. Debido a la legislación vigente, es posible atribuir estos beneficios individuales al producto final; por tanto, lleva al consumidor a pensar que, al incluir el porcentaje mínimo de algunas vitaminas, el producto entero “le ayudará a sentirse con fuerza” y le proporcionará esos beneficios.

Introducción a la Inteligencia Artificial

La Inteligencia Artificial (IA) es una disciplina cada vez más en auge, y “escondida” en tareas tan cotidianas como buscar información en Google. Lo primero que me viene a la mente al pensarlo es un mundo futurista, con robots y muchas “máquinas poderosas”; quizás algunas películas de ciencia ficción tienen parte de la culpa de estas ideas preconcebidas, pero también, sin duda, el desconocimiento; mío, y tomándome la molestia, de gran parte de la sociedad.  

            Considero que es una disciplina científica, como muchas otras, aunque sea una fusión de ciencia y de ingeniería; dicho de otra manera, de “conocimiento y aplicación”, ya que se trata de una disciplina enfocada a la práctica, y de la que podemos ver y experimentar sus usos reales en el día a día.

            Definir los objetivos de la IA me parece complejo, pero facilitar la investigación y el avance del ser humano mediante su enorme capacidad de procesamiento y uso de datos es un comienzo.

En cuanto a los riesgos que pueda presentar, me parecen relativos al uso que se le dé y los objetivos específicos con los que se utiliza. No sería la primera vez que una disciplina científica produce miedo o rechazo, pero son sentimientos enraizados en el desconocimiento, en los que la transparencia y el flujo entre ciencia y sociedad constituyen un arma importante para hacerles frente.

Neurociencia para niñas y niños

El objetivo del juego será aprender cómo es el proceso de percepción de los estímulos y la respuesta emitida por el cerebro, de manera muy simplificada. La dificultad del juego y de los conceptos enseñados puede variar dependiendo del nivel de los niños. En Educación Primaria, se incluye en los contenidos curriculares el cuerpo humano, los aparatos y sistemas y las 3 funciones principales, entre ellas el de relación, y esta puede ser una buena herramienta.

Para ello, el grupo se dividirá en 3 grupos: un grupo constituirá el cerebro (grupo 3), otro grupo interpretará a las neuronas (grupo 2) y otro grupo serán los estímulos externos (grupo 1). En un extremo de la clase se colocarán los estímulos; recorriendo la clase y hasta el otro extremo, en una fila, se colocarán las neuronas, y en el lado contrario al estímulo, en diagonal, se colocará el cerebro.

Propuesta de distribución de los alumnos para el juego.

El grupo 1 deberá pensar en estímulos externos, relacionados con cualquiera de los sentidos: un balón que se acerca, el agua demasiado caliente, una avispa grande que se acerca, … La decisión debe ser unánime, y un portavoz deberá contarle al oído a la primera neurona cuál será el estímulo. Después, al oído, las neuronas deberán comunicar de uno en uno el estímulo hasta hacerlo llegar al cerebro, y cuando llegue allí, el grupo 3 deberá pensar en conjunto en una respuesta, que volverá hasta el grupo 1 de la misma manera secuencial.

El juego consistirá en hacerlo lo más rápido posible, pero al mismo tiempo, lo más bajito posible para que el mensaje “no se pierda”, imitando el trabajo de las neuronas en el cuerpo humano. Además de aprender, a grandes rasgos, el proceso de percepción y respuesta del sistema nervioso, los niños podrán desarrollar la creatividad a la hora de pensar en los estímulos y a la hora de sopesar la respuesta adecuada para ese estímulo. Los grupos podrían ir rotando para que todos participen en los tres grupos.

Diseña un sitio como este con WordPress.com
Comenzar