miércoles, 31 de mayo de 2017

LA EVOLUCIÓN GENÉTICA

LA  EVOLUCIÓN GENÉTICA
(Tertulia del 31 de Mayo de 2017. Jesús Lobillo Ríos, Doctor en Medicina)(Aforo:32 asistentes).
INTRODUCCIÓN
Según un arraigado concepto religioso en general y bíblico en particular, Dios nos creó a su imagen y semejanza. Este concepto es propio de los llamados creacionistas o seguidores literales de la interpretación de la Biblia, que mantiene que Dios nos creó directamente por su mano tal  y como somos, y se ha mantenido hasta el siglo XIX en que no hubo más remedio que aceptar la idea evolucionista.
Según esta idea, admitimos, aunque nos queda mucho por saber, que los humanos somos también animales, pero animales distintos, animales evolucionados, y no solo en nuestra anatomía (miembros pequeños y cabeza grande), también en nuestra evolución biológica y sobre todo en nuestro comportamiento porque en nosotros, en el hombre, se ha dado lugar al origen y utilización del lenguaje, a la elaboración de creaciones culturales e institucionales y tecnológicas, artísticas y del pensamiento. Se ha desarrollado, por tanto, una capacidad  suprabiológica, que continúa evolucionando, con avances espectaculares especialmente en las ciencias biomédicas (sobre todo en la genética y en la biología molecular) que han abierto la posibilidad, incluso, de que el mismo humano pueda manejar eficientemente su propia evolución con todos sus interrogantes éticos, legales, religiosos y sociopolíticos, que ello conlleva.

EVOLUCIONISMO
El origen de la vida sobre la tierra ocurrió hace unos 3.500 millones de años y durante el 80% de este tiempo esta vida fue exclusivamente microscópica porque los primeros seres multicelulares aparecieron 2.700 millones de años después, es decir, hace 800 millones de años. Y 100 millones de años más tarde los primeros animales. Hace 500 millones de años que aparecieron los primeros vertebrados y hace 200 millones de años los primeros mamíferos. Los homínidos tienen 60 millones de años y el homo sapiens apenas 150.000 años de existencia.
Charles Robert Darwin nació en 1809, hijo y nieto de médico que tras culminar su primera enseñanza en la escuela local, mostró cierta apatía vital. Comenzó a estudiar medicina que abandonó tras dos cursos y aceptó la idea de hacerse sacerdote en cuya formación conoció a un biólogo y entomólogo, Jhon Henslow, que lo convenció de dedicarse a la geología y le proporcionó la oportunidad de embarcarse en el “Beagle”, un barco que iba a dar la vuelta al mundo realizando experimentos y medidas. El viaje duró cinco años, de 1831 a 1836, en los que Darwin comenzó observando las costas y los efectos del mar y terminó anotando los animales que veía, sus variaciones y sus relaciones morfológicas y vitales. Tras leer a Malthus, que relaciona el aumento de la demografía con el bienestar y los recursos, y viceversa, comprendió claramente que la diversidad animal se fundaba igualmente en una reacción a su medio natural.
En 1859, Darwin publicó “El origen de las especies” en donde demuestra que este diseño viviente que contemplamos hoy, es producto de una selección, de una lucha por la vida, de una adaptación progresiva de los seres vivos a su medio ambiente, es decir, este diseño complejo ha ido surgiendo de una forma gradual y acumulativa por adaptación a la variabilidad del entorno cambiante, variabilidad que nuestras posibilidades hereditarias han sido capaces de asumir.
El hombre por lo tanto no es el centro del universo, es un producto más, puede que el último, de una evolución cuya complejidad es consecuencia de un proceso natural de selección y adaptación constante a esas condiciones cambiantes.
La selección natural implica que determinados genes y combinaciones genéticas se transmitan a las generaciones siguientes en detrimento de otras combinaciones, en un proceso creativo progresivo incluso perfeccionista. La selección natural es producto de la interacción de las propiedades biológicas y fisicoquímicas, cuya consecuencia es la multiplicación diferencial de los seres vivos, es decir, que no está prevista ni predeterminada, es un proceso oportunista y depende de las variables, preexistentes o no, del ambiente y de las mutaciones que emergen al azar, cuya diversidad ha dado lugar a la complejidad que actualmente conocemos.

BASES DE LA EVOLUCION
Las bases de esta evolución, que implican la existencia de una selección natural, es una teoría comprobada por los hallazgos obtenidos de la observación de los fósiles y contrastada por el estudio de la anatomía comparada y del desarrollo embrionario y la biogeografía. Y sobre todo por los avances espectaculares de la biología molecular.
Los fósiles son las huellas que nos han quedado de los organismos vivos pretéritos. La paleontología es la ciencia que los estudia y los sitúa en su época y en su similitud y diferenciación con los organismos actuales.
La anatomía comparada estudia la comparación de la morfología de los fósiles con los animales actuales, estableciendo la homología entre ellos (origen común para un uso distinto) o la analogía (origen distinto para un uso común), que demuestra la capacidad de adaptación a variables exigencias ambientales, o funcionales que en muchas ocasiones dejan restos vestigiales.
Pero, sin embargo, ha sido el enorme desarrollo de la biología molecular, iniciado 100 años después de la muerte de Darwin, lo que ha facilitado su demostración más evidente. Gracias a ella sabemos que tan solo  cuatro nucleótidos  forman parte del DNA en todos los seres vivos, y por tanto, este hecho nos  confirma la unidad de la vida. La interacción secuencial de estos elementos para formar sus proteínas, nos demuestra el funcionamiento universal a nivel enzimático de los seres vivos.
Los nucleótidos  son cada una de las unidades que agrupadas forman los ácidos nucleicos (DNA), son compuestos orgánicos formados por la unión de una base nitrogenada, un azúcar y ácido fosfórico.
La base nitrogenada puede ser purínica (formada por un hexágono y un pentágono unidos), o pirimidínica (un hexágono solo). Estas bases pueden ser adenina, guanina, timina y citocina (el código genético).
El azúcar es una pentosa, o sea, que tiene cinco enlaces de carbono.
Y el ácido fosfórico puede tener uno, dos, o tres enlaces, mono, di o trifosfórico (unidos por puentes de hidrógeno), el primero es estable pero los otros dos están llenos de energía  que se liberan en las reacciones celulares.
 Estos cuatro nucleótidos se organizan de dos en dos en cadenas lineales dando origen al ADN, formando largas cadenas de doble hélice  enrolladas en espiral que tienen la capacidad de replicarse, o sea de hacerse copias de sí mismo, y cuando se separan en el momento de la replicación, cada una sirve de molde negativo para la síntesis de la hebra complementaria que se está formando (previa su transcripción a un RNA mensajero).
La información genética, que transmiten, es idéntica en todas las células del individuo, y está contenida en la secuencia lineal (es decir, en el ordenamiento) que se lleva a cabo mediante la formación de tripletes o codones, o sea, tres nucleótidos seguidos en un orden que no es casual porque cada triplete es la llave o código que determina a su vez la fabricación o síntesis de los aminoácidos,  las proteínas y los enzimas que son responsables de los procesos vitales del organismo y de la naturaleza del organismo en cuestión, es decir, que un tomate, una estrella de mar o un caballo, tienen esta misma estructura química básica pero diferente ordenamiento o secuenciación porque este orden es  específico de cada uno.
Esta correspondencia universal entre lenguaje lineal del DNA (codones) y de las proteínas elaboradas (aminoácidos) nos descubren la correspondencia familiar de cada especie animal o planta que puede ser tan exacta y precisa como se desee. Las diferencias (mutaciones) que se observan de unos seres vivos a otros nos manifiestan las diferencias ocurridas y el tiempo necesario para lograrlas.
La correlación o traducción del mensaje o información genética de los nucleótidos que forman el DNA para convertirse en proteínas se realiza a través del RNA mensajero que funciona como una fotocopiadora selectiva de lo que se quiere fabricar. Para ello el gen o cadena de codones  mediante sus exones, trozo de gen codificante, (frente a los intrones o trozos que no codifican) expresan o transcriben o transfieren su mensaje al  RNA mensajero que los empalma o esplicita eliminando los intrones no codificantes y los trasladan a los ribosomas que son orgánulos celulares capaces de leerlos y fabricar los aminoácidos y proteínas que todavía tendrán que ser activados en el tejido en donde deben realizar su función.
Los aminoácidos son la base de todo proceso vital porque son absolutamente necesarios en todas las funciones metabólicas. Sus funciones más importantes son el transporte óptimo de nutrientes y la optimización del almacenamiento de todos estos nutrientes (agua, grasas, carbohidratos, proteínas, minerales y vitaminas). Constituyen la base sobre la que se forman nuestros tejidos y las funciones que desarrollan. Un conjunto de aminoácidos forman una proteína.
Cualquier DNA de un gen está formado por cientos de nucleótidos, y cada tres de ellos forma un codón que codifican a un aminoácido determinado característico de ese organismo, y un conjunto de aminoácidos forman una proteína también característica, constituyendo, todo ello, una información específica que se transmite a la célula hija, en la mitosis o división celular. Como ya hemos mencionado, la herencia es un proceso conservador, pero no es fidedigna porque entonces  la selección natural no podría tener lugar, ya que la selección se basa en los errores o mutaciones que se producen.
Estas alteraciones o mutaciones se producen por fallos o errores en la colocación del orden de los nucleótidos, por ausencia de  uno  o por destrucción de otro de ellos. También pueden ocurrir por adición de cromosomas (órganos que contienen el material genético) o sustracción de ellos. Cada uno de estos trastornos alterará las cantidades de ADN. Y cada una de estas alteraciones dará lugar a la aparición de enfermedades o ausencia de habilidades o capacidades, e incluso a incremento anormal de las mismas.
Las mutaciones pueden ser puntuales o génicas (que alcanzan a unos pocos genes), o cromosómicas que afectan a muchos genes
Las variaciones genéticas son abundantes en todas las especies y se reordenan continuamente en la reproducción sexual (la meiosis), de forma que la variación de los individuos es prácticamente infinita. Pero esta variabilidad en la herencia no genera cambios evolutivos ni oportunidades para la selección natural. Existe, por tanto, un equilibrio genético que se altera levemente por las pequeñas mutaciones, la emigración y la deriva génica.
En definitiva la selección natural protege a  las especies y contribuye a su adaptación al medio en que se desenvuelve porque dentro de ello existe la macroevolución, o anagenésis, que da lugar a las grandes transformaciones en la misma especie y la llamada cladogénesis mucho más difícil de apreciar y que consiste en las variaciones contundentes que dan lugar a la separación de los linajes de las especies.

HOMINIDOS
Con respecto al hombre debemos de afirmar que somos primates pero un tipo distinto de primate, porque nuestro linaje se apartó del chimpancé hace seis o siete millones de años, cuando nuestros ancestros comenzaron a caminar erguidos: los ardipitecus, los australopitecus, el homo habilis, el homo ergaster, el homo erectus, el homo heidelbergensis,  el homo neandertalensis y el homo sapiens. Todos ellos caracterizados por la posición bípeda (cambios en los pies, pelvis y columna) y aumento del volumen cerebral y aparición de la capacidad de manejo de herramientas.
La aparición de los humanos modernos parece que puede datarse en el continente africano hace unos cien mil años y que su instalación en Europa y Asia se debe a un reemplazamiento de la población autóctona por el éxito biológico superior de estos humanos modernos poseedores de un lenguaje gesticulante y una capacidad de comunicación que contribuirían a mejorar las posibilidades de viajar, explorar, fabricar utensilios y por tanto imponerse biológicamente. Existe una congruencia entre las familias lingüísticas y las poblaciones genéticas aunque la evidencia directa solo puede establecerse con la escritura que aparece solo cinco mil años atrás.
Los humanos modernos pasaron, por tanto, hace 100.000 años de África a Asia y colonizaron extremo oriente hace 60.000 años y Australia hace 40.000 años y las islas de la Polinesia hace 3.500 años al desarrollar sus capacidades náuticas. Y hace unos 15.000 años pasaron por Alaska al continente americano. La colonización europea y española tuvo lugar hace unos 35.000 años siendo los vascos el grupo más inicialmente diferenciado y cuya lengua no está relacionada con ninguna de las restantes europeas que son lenguas  indoeuropeas, es decir,  que se originaron en Persia o Iran. Los vascos son por tanto protoeuropeos de cuya cultura ancestral dan testimonio las cuevas de Altamira y de Lascaux.
La mayor parte de la información genética se encuentra en los cromosomas, en el núcleo de la célula humana. El DNA humano se compone de seis mil millones de nucleótidos (tres mil en el caso de los gametos), mientras que en las mitocondrias existe apenas 20.000 nucleótidos en su DNA, pero este DNAmitocondrial tiene un patrón de herencia matrilineal que reciben hijos e hijas pero que solo transmiten las hijas.
El estudio de las secuencias del DNAmitocondrial de los humanos modernos coalescen en una Evamitocondrial africana de hace 200.000 años, es decir, que esta Eva es el ancestro de los humanos modernos (cada humano recibe DNAmit de su madre de su abuela y de sus bisabuelas). En cambio el cromosoma “Y”, la contrapartida genética del DNAmt, se hereda de padres a hijos y está involucrado en la maduración testicular y del esperma y su coalescencia se eleva a 270.000 años con escasas variaciones.

GENES
La diversidad de nuestro planeta o del universo es posible gracias al proceso evolutivo. Los cambios en la forma y la función están subordinados a los cambios genéticos porque el material hereditario, el DNA, puede cambiar de generación en generación, y esto explica el cambio desde un microbio que mide menos de una diezmilésima de milímetro a las secuoyas gigantes de California que pueden llegar a pesar 1.500 toneladas.
Los genes son segmentos de DNA, unidades de información, que según los estímulos ambientales determinan cómo son  los organismos, si tendrán flores o patas, piel o plumas, si nadará o reptará, según sea su ordenamiento o secuenciación. Esta información está codificada en esa secuencia de nucleótidos, moléculas de cuatro tipos diferentes (A, C, G, T), que forman el DNA que se encuentra empaquetado en los cromosomas en el interior del núcleo, y que ha debido de variar aumentando su cantidad y tipos dentro de cada organismo y entre organismos. Un gen típico contiene mil o más nucleótidos que se conforman en una secuencia definida con tanta precisión como las letras de una frase, o sea, que llevan un sentido y una información. Esta estructura genética se denomina genoma.
La cantidad de DNA es distinta según la complejidad animal y las necesidades proteínicas que están codificadas en sus nucleótidos y que habitualmente están en el núcleo celular, pero también es verdad que una gran proporción de estos nucleótidos  no codifican proteínas por lo que no son genes propiamente dichos.
La formación de los genes se produce por varios mecanismos. El más sencillo es “por elongación” y consiste en que a cada división celular “irregular” (=mutación) se añade un “exón” o “intrón” (parte mínima del gen) hasta que se forma un gen nuevo y por tanto con nuevas propiedades, es decir, codifican otras proteínas necesarias para el organismo.
Otro mecanismo de formación de genes es el de “combinación”, es decir unión de genes primarios con distintas funciones (distintas proteínas codificadas) que se unen para dar proteínas con funciones más complejas como por ejemplo las inmunoglobulinas que van mejorando su función y complejidad conforme la escala se eleva.     
El tercer mecanismo de formación de genes nuevos es la “duplicación” de genes ancestrales que da lugar a la aparición de nuevas funciones como ocurre con la hemoglobina que son moléculas con dos cadenas codificadas en los cromosomas 11 y 16, en donde una antigua duplicación génica ha dado lugar a la aparición de dos funciones: la hemoglobina que transporta oxigeno en la sangre y la mioglobina que almacena oxigeno en el músculo. Estas duplicaciones génicas con aparición de funciones diferentes explican la generación de diversos enzimas digestivos especializados en nuestra digestión.
Como ya hemos mencionado antes la formación de nuevos genes da lugar a nuevas cadenas, algunas de las cuales aparentemente no tienen función, no codifican lo que no debe de querer decir que no son útiles, solo que nosotros no sabemos aún para que sirven. En realidad tan solo el 1%  de las letras que componen el genoma son las que dirigen nuestro desarrollo, el resto son repeticiones y repeticiones de fragmentos ancestrales (residuos arqueológicos) posiblemente destinados a desaparecer del genoma, o bien, son reguladores de funciones o controladores de funciones desaparecidas, que mientras tanto nos muestran nuestra historia y nuestra procedencia.
La gran variedad del fenotipo humano se debe a la extraordinaria movilidad humana y a su adaptación a los distintos climas y condiciones de vida que configuran sus caracteres raciales y responsabilizan a un corto porcentaje de genes como son el color de la piel, del cabello, la respiración o el funcionamiento intestinal.

EL HOMO SAPIENS
El genoma humano posee dos series de veintitrés cromosomas, cada serie procedente de cada  uno de sus padres. El genoma procedente del padre es transmitido por medio del espermatozoide que fecunda el huevo de la madre. El de la madre está inserto en el núcleo del huevo que incluye además los recursos alimentarios necesarios para el desarrollo inicial del huevo fertilizado.
Como ya hemos repetido, el DNA es una molécula en forma de fibra delgadísima formada por dos hélices complementarias en la que se alinean de forma variable cuatro componentes químicos o nucleótidos: A, C, G, y T, que son las letras del alfabeto genético cuya ordenación secuencial contiene la información genética y que se leen de tres en tres, lo que quiere decir que hay 64 combinaciones posibles de cuatro letras leídas de tres en tres, pero como muchas son sinónimas, en realidad se reducen a combinaciones de 20 símbolos, cuya variedad de mensajes es virtualmente infinita (como lo es en el alfabeto normal).  
El número total de letras de DNA en cada serie de cromosomas es de unos tres mil millones, por lo que la diversidad humana es infinita. Para hacernos una idea, si estimamos que “El Quijote” contiene tres millones de letras y espacios, necesitaríamos mil volúmenes de su tamaño para escribir el genoma humano.
Considerando la evolución biológica del ser humano, no cabe duda de que el hombre comparte  sus cadenas de nucleótidos y sus aminoácidos con los primates, o sea, las reacciones químicas o procesos biológicos que ocurren en el núcleo celular, con el resto de los seres vivos en general y con los antropoides superiores en particular y se distingue de ellos en razón de tres variantes: la posición bípeda, la capacidad manual y la capacidad cerebral.
La postura erguida y la marcha bípeda son posibles gracias, o a consecuencia, de sus diferencias adquiridas a nivel de la columna vertebral y la pelvis, la adaptación del pié al suelo y las correcciones dinámicas de su estabilidad.
La liberación de los miembros superiores para realizar “manualidades inteligentes”, los ha hecho menos poderosos pero más agiles y flexibles, y ha dotado a las manos y dedos de una habilidad no existente en los demás animales semejantes. Por este motivo la boca ha dejado de ser un instrumento de trabajo y ha disminuido, junto con los dientes, su volumen dulcificando la apariencia facial
Antes o después, o a la vez, se desarrolló una capacidad inteligente radicada en un aumento del cerebro y particularmente de sus convoluciones o giros cerebrales que añaden unas  características especiales como es el relacionar las palabras con su significado y las acciones con un fin.
Íntimamente unido al desarrollo inteligente se encuentra el desarrollo del lenguaje que es privativo de la capacidad humana de relación, y establece la evolución cultural como un paso más elevado de la evolución biológica. El origen del lenguaje es aún desconocido, se sabe que comienza con la gesticulación y que ello está asociado al desarrollo cerebral y que se centra en el hemisferio izquierdo y particularmente en el lóbulo temporal izquierdo, y que al ser aprendido, nos sugiere que lo biológico son sus bases.
La capacidad inteligente de establecer la relación causa-efecto de sus actos y por tanto la posibilidad de elección en cuanto a sus consecuencias inmediatas o remotas, y que esta elección se realiza en beneficio de su propia supervivencia o de la de sus descendientes,  quiere decir que la moral y la ética de estas decisiones forman parte de esta evolución biológica o suprabiológica antes incluso del establecimiento de las normas sociales o educacionales de comportamiento.
Es de notar que la capacidad de acción y reacción animal a los estímulos externos marcados por su tendencia a  la supervivencia no pasan de ser respuestas condicionadas que se mantienen inalterables en todos los linajes evolutivos. Solo en el humano suficientemente desarrollado existe la capacidad  de abstracción y relación y la capacidad de decisión necesaria para la existencia de una capacidad ética y moral.
El aumento gradual de las capacidades cerebrales humanas se produce desde el nacimiento. En un principio el tamaño del cerebro está sin desarrollar con objeto de permitir el parto pero lleva ya implícitas las características genéticas que permitirán su desarrollo. Su dependencia biológica de sus mayores para su crecimiento es claramente aceptada, es decir, es genética, porque lo contrario determinaría su exterminio pero la aceptación en la madurez de las normas sociales de convivencia, o de las normas morales, religiosas o no, dependen de una capacidad de aprendizaje y de elección desarrolladas bajo el influjo de los estímulos ambientales del momento, que van cambiando según nuestra forma de vida y enjuiciamiento de los hechos que ocurren a nuestro alrededor. Nuestro adquirido comportamiento moral, según nuestra elección ética, es un paso más en la evolución biológica de adaptación a las influencias externas.
De cualquier forma el hombre no es una máquina genética y aunque la expresión genética tiene lugar interaccionando con el entorno, la cultura o conjunto de actividades y creaciones humanas no puede considerarse estrictamente biológica más bien suprabiológica. La herencia humana es por tanto biológica y suprabiológica o cultural, algo que ningún animal inferior puede conseguir.
La herencia, por tanto, puede ser biológica y cultural, o bien, orgánica y supraorgánica, o sistema endosomático y exosomático de la herencia. Esta herencia cultural que se basa en un sistema de enseñanza-aprendizaje nos lleva a considerar la evolución del conocimiento, es decir, la adaptación cultural al medio que nos rodea, cuya velocidad de transmisión de conceptos adquiridos es mucho mayor que la de la evolución genética, es decir, que se produce gracias a modificaciones epigenéticas que no precisan de las mutaciones a largo plazo ya consideradas y que se producen por transmisión acumulativa, haciendo posible la evolución cultural.   
LOS ENIGMAS PENDIENTES
1º.-Transformación huevo-adulto.
Las instrucciones del desarrollo ontogenético están inscritas en el código hereditario. Los genes determinan la síntesis de los enzimas que catalizan todas las reacciones químicas que posibilitan el desarrollo del ser vivo que debe de tener unos sistemas de control, es decir, de activación y desactivación de las reacciones cuyo descubrimiento en los insectos va avanzando pero no todavía en los mamíferos.
En el ser humano hay un billón de células de trescientos tipos distintos derivadas de divisiones continuadas que van especializándose continuamente. La capacidad pluripotencial de las distintas células de ser células madres va incluido epigenéticamente en el código del DNA, cuyos circuitos de control (genes Hox u Homeobox como se les llama) están capacitados para ello, y de los que se conocen muchos en los estudios de la Drosophila.
2º.-Transformación simio-humano.
En qué momento y porqué la evolución genética inicia la postura erecta y sus transformaciones en pelvis y columna y el desarrollo volumétrico del cerebro. El código genético del chimpancé es parecido al humano, pero en éste han aumentado los factores de  transcripción tipo RNA, y aparecido genes beneficiosos tipo FXPO2 involucrados en el desarrollo del lenguaje.
3º.-Transformación cerebro-mente.
El origen o inicio del paso de la biología a la cultura y a la tecnología. Ya no tenemos que  esperar a las transformaciones genéticas de adaptación al medio ambiente, ahora adaptamos el medio ambiente a nuestra capacidad de sobrevivir inventando la calefacción, la refrigeración, la ropa, la obtención de alimentos y medicación, el automóvil, el barco o el avión.
 La aparición de la consciencia no es un problema insondable, es un problema a resolver. La ciencia y el conocimiento científico observan y explican la naturaleza corroborando experimentalmente los hechos hasta ese momento desconocidos, pero no tiene papel, todavía, en la explicación de principios por el momento inmateriales. 
EL FUTURO DE LA SELECCIÓN NATURAL
El camino evolutivo de la humanidad es continuo y progresivo en el sentido de mejora constante en su adaptación al medio natural, aunque no siempre sea unidireccional e irreversible, pero conlleva una expansión evidente de la vida, con la novedad de las posibilidades de manipulación genética que la capacidad humana ha conseguido.
Las técnicas del DNA recombinante hacen posible la construcción de moléculas híbridas que pueden ser vehiculizadas al interior del genoma humano a fin de que puedan suplir o sustituir o manipular una función deficitaria del huésped con eliminación o no del fragmento genético alterado.
Un ejemplo de estas técnicas se ha extraído del conocimiento de que los virus atacan a las bacterias inyectándoles su material genético, el cual reprograma a la bacteria para fabricar más virus y cuando esta muere, éstos quedan el libertad para atacar a otras bacterias, las cuales se defienden utilizando enzimas que destruyen los ácidos nucleicos de los mismos virus, que obtienen del almacenamiento previo de fragmentos de virus ya conocidos (o contactados) que, en su momento se asocian con otros genes denominados “cas” que codifican unos enzimas llamados nucleasas que están especializados en cortar las cadenas de los ácidos nucleicos virales.
Estos fragmentos denominados CRISPR (Clustered Regularly Interespace Short Palindromic Repeats o Repeticiones Palindrómicas Cortas Agrupadas y Regularmente Interespaciadas, descubiertos en 1987 por el microbiólogo español Francisco Javier Martínez Mójica en la Universidad de Alicante) propios de las Arqueas (organismo unicelular), junto con los genes “Cas” y concretamente con el número 9 (descubierto poa la francesa Emmanuelle Charpentier en 2012) nos proporcionan una técnica denominada “CRISPR Cas 9” que nos permite cortar de manera específica un punto del genoma y cambiarlo por una secuenciación artificial a escoger.  
Estas técnicas abren unas extraordinarias posibilidades de carácter terapéutico, como podría ser la curación de la anemia falciforme o la insuficiencia inmunológica de los “niños burbuja” (producida por la deficiencia del gen denominado ADA). Y también permite la manipulación de los caracteres genéticos, lo que sería de extraordinaria importancia si se pudieran llevar a cabo en las células germinales (lo que posiblemente se conseguirá en los próximos años o décadas) al conocerse ya el mapa genómico humano.
LAS POSIBILIDADES EUGENÉSICAS.
Las posibilidades eugenésicas de manipulación en el momento actual son cuatro
1.-EL CONSEJO GENÉTICO por el que ante la evidencia de una malformación tipo Down (diagnosticable por amniocentesis), se recomienda el aborto (sobre todo en las primeras veintiuna semanas cuando las conexiones neurológicas no están formadas y no puede establecerse que el feto tenga carácter de persona).
2.-LA CIRUGÍA O INGENIERIA GENÉTICA, es decir, la sustitución de segmento de gen dañado mediante la técnica de DNA recombinante
3.-LA SELECCIÓN GERMINAL o selección de genes de individuos sanos, mediante bancos de esperma y de óvulos,  con constituciones genéticas deseables, para asegurar una progenie saludable,
4.-LA CLONACION que consiste en repetir el genotipo completo de determinados individuos (como se hizo con la famosa oveja Dolly).
Las dos primeras son moralmente aceptables. Las dos segundas son inviables porque la bondad del genotipo no nos asegura la idoneidad del fenotipo.
La ingeniería genética está causando una revolución en la medicina y también en la agricultura y en otras industrias, y la posibilidad de manipulación de su propia evolución es un hecho para la humanidad con enormes ventajas y algunos inconvenientes.

Bibliografía: “¿De dónde vengo?, ¿Quién soy?, ¿A dónde voy?”.

                         Francisco J. Ayala. Alianza Editorial. 2015  

miércoles, 24 de mayo de 2017

BIOLUMINESCENCIA

LA BIOLUMINESCENCIA

Tertulia del 24/05/17. Juan Vazquez Mateos, Ing. Telec. Aforo: 28 asistentes




1.- ¿Qué es la bioluminiscencia?

            Es un proceso químico que se da en los organismos vivos en el que intervienen la proteína luciferina; la encima catalizadora luciferasa; oxígeno molecular; y Trifosfato de adenosina ATP (sustancia capaz de general la energía necesaria para que de la reacción).

            Las primeras investigaciones sobre los fundamentos químicos de la bioluminiscencia se atribuyen al farmacólogo francés Raphaël Dubois. Entre 1885 y 1892 trabajó con dos especies de animales bioluminiscentes: las luciérnagas tropicales del género Pyrophorus y el molusco bivalvo Pholas Dactylus. Refutó la teoría del fósforo, vigente hasta entones, y demostró que el fenómeno de emisión biológica de luz no era más que un proceso de oxidación enzimática en el que intervenían dos sustancias: una de ellas, termorresistente, se consumía en presencia de la otra, que actuaba como catalizador termolábil. El propio Debois llamó luceferina a la primera y luciferasa a la segunda.

            Reacción: el oxígeno oxida la luciferina, la luciferasa acelera la reacción y el ATP proporciona la energía para que ésta se convierta en una nueva sustancia (luciferina oxidada). En este último proceso se libera el exceso de energía en forma de luz, cuya intensidad es muy elevada y su luminosidad se concentra en una pequeña zona del animal.

            La reacción completa se produce en menos de un milisegundo y se mantiene mientras el organismo permanezca excitado.

            Según el tipo de animales la composición química de la luciferasa y de las luciferinas varía, por lo que la luz producida varía de color.

            A diferencia de la mayoría de las reacciones químicas, la bioluminiscencia no produce calor como producto secundario.

            En el hábitat marino el uso de la bioluminiscencia está generalizado en crustáceos, moluscos y peces; mientras que el reino terrestre se limita a hongos e invertebrados y algunos escarabajos. Este hecho se debe fundamentalmente a que los cambios ambientales en condiciones marinas no ocurren con la misma rapidez que los cambios en al tierra.

2.- Un poco de historia
           
            Las primeras referencias escritas a las luciérnagas y gusanos luminiscentes aparecen en las crónicas chinas Shih Ching (Libro de las Odas) en el período de 1500 a 1000 a.C.
            Aristóteles (384-322 a.C.) en Grecia, observó la luz emitida por los peces en descomposición y lo registró en De Coloribus ‘… algunas cosas no arden por su naturaleza, ni tienen fuego de ningún tipo, aún así parecen producir luz’

            Cayo Plinio Segundo el Viejo (23-79 d.C.) describió en su Historia Natural la existencia de unas medusas en la bahía de Nápoles que resplandecían con una tonalidad verdosa al ser expuestas a la luz solar.

            El avistamiento de luminosidad en los mares tropicales dio lugar a extrañas leyendas y su narración era tomada por falacia. Cristobal Colón en su primer viaje reportó haber visto esas luces ‘ … era como una candelita que se alzaba y levantaba, lo cual parecía ser indicio de tierra, pero el Almirante tuvo por cierto estar junto a tierra…’.
            En 1565, el español Nicolás Monarde escribió a cerca del extraordinario color azul intenso de un extracto acuoso de la madera llamada ‘lignum naphrilicum’. Esa misma solución fue estudiada 90 años más tarde por Athanasius Kircher en Alemania, Francisco Grimaldi en Italia, Robert Boyle e Isaac Newton en Inglaterra. Ellos escribían que cuando la solución era iluminada con luz blanca aparecía una luz reflejada azul intensa, mientras que la luz transmitida era amarilla. Nadie identificó entonces esa luz azul intensas como emisión luminscente hasta 1852, cuando el físico inglés George Stokes usando filtros y primas demostró que la luz incidente de una región espectral era absorbida y trasformada por la solución en una luz emitida en una región espectral difrente, de mayor longitud de onda.

3.- Tipos de bioluminiscencia

            Intracelular: es generada por células especializadas del propio cuerpo de algunas especies pluricelulares o unicelulares (como dinoflagelados) y cuya luz se emite al exterior a través de la piel o se intensifica mediante lentes y materiales reflectantes como los cristales de urato de las luciérnagas o las placas de guanina de ciertos peces.

            Este tipo de luminiscencia es propia de muchas especies de clamar y de dinoflagelados, en especial del género Protoperidinium

            Extracelular: La bioluminiscencia se da a partir de la reacción entre la luciferina y la luciferasa fuera del organismo. Una vez sintetizados, ambos componentes se almacenan en glándulas diferentes en la piel o bajo esta. La expulsión y mezcla de ambos reactivos en el exterior producen nubes luminosas.

            Este tipo de luminiscencia es común a bastantes crustáceos y algunos cefalópodos abisales

            Simbiosis con bacterias luminiscentes: Este fenómeno sólo se conoce en animales marinos como los celentéreos, gusanos, moluscos, equinodermos y peces. Parece ser el fenómeno de luminiscencia de origen biológico más extendido en el reino animal. En diversos lugares del cuerpo, los animales disponesnde pequeñas vejigas, comunmente llamadas fotóforos, donde guardan bacterias luminiscentes.

4.- Funciones de la bioluminiscencia en el mundo animal

            La bioluminiscencia tiene distintas funciones en los ambientes naturales, entre ellas la defensa, la comunicación, la reproducción y la atracción de presas.
            Algunos peces, calamares e insectos, utilizan su capacidad bioluminiscente como carnada con el propósito de atraer a sus presas y obtener alimento. Otros peces como la familia de los Malacosteidae, poseen fotóforos especiales que emiten luz roja que utilizan como linterna para alumbrar a sus presas en las profundidades marinas.

            Otros peces, calamares y camarones, utilizan su propia luz para confundir al depredador en horas diurnas, camuflándose con el brillo solar y difuminando así su propia sombra.

            El caso de uso de la luminiscencia con fines reproductores más famoso es el de las luciérnagas, que intercambian destellos entre machos y hembras con el fin de facilitar su reconocimiento y atraer a la pareja para el apareamiento.

5.- Aplicaciones bioecnológicas

            Los sistemas de luciferasa son ampliamente utilizados en el campo de la ingeniería genética como genes indicadores. También se han aprovechado para la investigación biomédica utilizando imágenes de bioluminiscencia. Las estructuras de los fotóforos, los órganos productores de luz en los organismos bioluminiscentes, están siendo investigados por los diseñadores industriales.

            Las proteínas bioluminiscentes son herramientas bioquímicas invaluables con aplicaciones en una amplia variedad de campos incluyendo los análisis de expresión de genes, descubrimiento de medicamentos, estudio de la dinámica de las proteínas y mapeo de las vías de traducción de señales. Las proteínas mayormente reportadas son luciferasas, que permiten una detección de alta sensibilidad y poseen características peculiares como un alto rendimiento cuántico y ausencia de toxicidad.

            Las proteínas bioluminiscentes son una alternativa al uso de proteínas fluorescentes debido a su alta sensibilidad en los análisis de detección en muestras biológicas.
            Algunas de las aplicaciones biotecnológicas han incluido:

            La GFP (Proteína verde fluorescente) que es producida por la medusa Aequorea victoria. El gen que codifica esta proteína se utiliza como marcador en biología molecular. El descubrimiento y estudio de la proteína verde fluorescente amplía la capacidad del microscopio óptico y otorga una nueva dimensión visible al ojo humano. Una característica importante del la GFP es que no necesita aditivos para brillar, en contraste con otras proteínas bioluminiscentes; es suficiente irradiarla con la luz ultravioleta o azul para que emita fluoresencia permitiendo ver procesos previamente invisibles, como el desarrollo de neuronas, cómo se diseminan las células cancerosas, el desarrollo de la enfermedad de Alzheimer, el crecimiento de bacterias patogénicas, etc.

            Otra de las aplicaciones es el arcoiris cerebral o brainbow. En 2007, un grupo de investigadores de la universidad de Harvard desarrolló un mapa para representar el sistema nervioso, el cual mediante la combinación de proteínas fluorescentes, muestra las neuronas y otras células cerebrales en colores diferentes, permitiendo analizar el sistema nervioso y clasificar los procesos neuronales


Bibliografía

http://www.nationalgeographic.com.es/ciencia/grandes-reportajes/bioluminiscencia-2_8954
https://www.ecured.cu/Bioluminiscencia
http://www.bbc.com/mundo/noticias/2013/01/130116_bioluminiscencia_naturaleza_produce_luz

http://www.cubasolar.cu/biblioteca/energia/Energia14/HTML/articulo07.htm

miércoles, 17 de mayo de 2017

LOS TERREMOTOS

LOS  TERREMOTOS
(Tertulia del 17/5/17. Francisco Quintana Lopez. Ing. Industrial. Aforo:30 asistentes)


Terremoto

Se denominan, también, seísmos.
Concusión o sacudida del terreno producida por fuerzas que actúan en el interior de la Tierra.
Se originan por el choque de placas tectónicas.
Algunos se originan por causas del vulcanismo. En estos casos suelen ser muy locales.
Los deslizamientos de estas placas pueden tener dirección vertical, horizontal o transversal.
Las ondas sísmicas se propagan como consecuencia de una perturbación de los sólidos elásticos. Estas ondas tienen distinta velocidad y llegan en las tres series siguientes: ondas precursoras (ondas P), ondas preliminares (ondas S) y principales (ondas L).
Las ondas P se transmiten en sentido longitudinal en la misma dirección de propagación; La S, al ser transversales, se transmiten perpendicularmente; las ondas principales son las que se transmiten por la superficie de la Tierra.
El aparato que detecta estas ondas es el sismógrafo y se registran en sismogramas.

Para hacernos una idea de las cantidades de terremotos de distinta magnitud podemos ver el Anexo I

Nociones de geología de la Tierra

El planeta Tierra está formado por un núcleo, un manto y la corteza.
El núcleo está formado, fundamentalmente, por hierro y níquel, constituyendo dos capas, una sólida de unos 1200 Km de radio y otra líquida de unos 2000 Km. de espesor.
El manto está formado por roca sólida de unos 3000 Km. de espesor.
La corteza es la parte externa, de unos 50 Km. de espesor y de roca más ligera que la del manto.
La composición de estas partes va en orden de densidad desde el núcleo más pesado hasta la corteza menos pesada. 
La razón por la que la parte más interna del núcleo sea sólida es que allí se produce una gran presión, por lo que en el límite de esa presión ya es líquida, porque no basta para mantenerla sólida.
La corteza terrestre es la zona más externa de la estructura concéntrica de la geosfera, la parte sólida de la Tierra. Es comparativamente delgada, con un espesor que varía de 5 km, en el fondo oceánico, hasta 70 km en las zonas montañosas activas de los continentes.
Parece que la primera corteza en la Tierra se formó entre los 4000 a 4500 millones de años. Los volúmenes de la corteza terrestre no han sido constantes sino que se cree que se han aumentado a través del tiempo. Hace 2500 millones de años ya existía una masa importante de corteza manto. El crecimiento, es decir el aumento en volumen de la corteza, se cree que ha ocurrido en dos periodos: uno entre 2500 a 2700 millones de años y otro entre 1700 a 1900 millones de años.

Corteza terrestre

Existen dos tipos de corteza terrestre: la corteza oceánica y la corteza continental.

Corteza oceánica

La corteza oceánica cubre aproximadamente el 55 % de la superficie planetaria. Tiene menos espesor que la continental y se reconocen en ella tres niveles. El nivel más inferior está formado por rocas plutónicas básicas. Sobre éstas se sitúa el nivel II, de basaltos y rocas volcánicas. Sobre ésta se asienta el nivel I, formado por los sedimentos, pelágicos  del océano y terrígenos en las proximidades de los continentes, que se van depositando paulatinamente en la corteza una vez consolidadas.
La mayor parte de la corteza oceánica se sitúa bajo el mar, a varios miles de metros de profundidad, pero hay excepciones: Islandia y la República de Djibouti son como partes de dorsales medio oceánicas que asoman por encima del nivel del mar. Además existen en los orógenos formaciones, llamadas ofiolitas, que son fragmentos de corteza oceánica, sobre todo los volcánicos submarinos, a los que la dinámica de las placas ha izado sobre el continente.
El espesor de la corteza oceánica es de  6 a12 km, con un valor típico de 7 km. La litosfera oceánica, de la que la corteza oceánica es la capa superior, se recicla constantemente, engendrándose en las dorsales y descendiendo hacia el manto junto a las fosas a través del fenómeno de la subducción (esto es debido al aumento de la densidad). Las rocas más antiguas tienen así sólo 180 millones de años. Su extensión (% de la superficie terrestre) es mucho menor que la del océano, porque una parte significativa de los mares tienen en su fondo corteza de tipo continental. Su densidad relativa es alta (2,9 g/cm3), como corresponde a rocas plutónicas básicas.

Corteza continental

La corteza continental es de naturaleza menos homogénea, ya que está formada por rocas con diversos orígenes y es horizontalmente heterogénea. Hay que distinguir en ella regiones geológicamente activas, donde abundan los procesos tectónicos y magmáticos y regiones antiguas y consolidadas. En conjunto, la corteza continental contiene más silicio y cationes más ligeros y, por tanto, es menos densa que la corteza oceánica y desde luego que el manto. Tiene también un grosor mayor que la corteza oceánica. A diferencia de ésta no vuelve al manto, no se recicla, aunque sí se extiende, lo que ocurre por los procesos de la orogénesis, de manera que su contribución al total de corteza terrestre va creciendo.
Los minerales más abundantes de esta zona son los cuarzos, los feldespatos y las micas, y los elementos químicos más abundantes son: oxígeno, silicio, aluminio, hierro, calcio,  sodio, potasio y el magnesio, en forma de sales minerales.

Placas tectónicas

Una placa tectónica es un fragmento de litosfera que se mueve como un bloque relativamente rígido sobre el manto superior de la Tierra.
La tectónica de placas es la teoría que explica la estructura y dinámica de la superficie terrestre. Establece que la litosfera (la zona dinámica superior más externa y rígida de la Tierra) está fragmentada en una serie de placas que se desplazan sobre el manto. Esta teoría también describe el movimiento de las placas, sus direcciones e interacciones. La litosfera terrestre está dividida en grandes placas y en otras menores o microplacas. En los bordes de las placas se concentra actividad sísmica, volcánica y tectónica. Esto da lugar a la formación de grandes cadenas montañosas y cuencas.
La Tierra es el único planeta del sistema solar con placas tectónicas activas, aunque hay evidencias de que en tiempos remotos Marte, Venus y alguno de los satélites galileanos (son los cuatro más grandes satélites de Júpiter), fueron tectónicamente activos.


Descubrimiento

Aunque la teoría de la tectónica de placas fue formalmente establecida en las décadas de 1960 y 1970, en realidad es producto de más de dos siglos de observaciones geológicas y geofísicas. En el siglo XIX se observó que en el pasado remoto de la Tierra existieron numerosas cuencas sedimentarias, con espesores estratigráficos de hasta diez veces los observados en el interior de los continentes, y que –posteriormente– procesos desconocidos las deformaron y originaron cordilleras: sucesiones montañosas de enormes dimensiones que pueden incluir sierras paralelas. A estas cuencas se les denominó geosinclinales, y al proceso de formación, orogénesis. Otro descubrimiento del siglo XIX fue una cadena montañosa o dorsal en medio del océano Atlántico, que observaciones posteriores mostraron que se extendía formando una red continua por todos los océanos. Un avance significativo ocurrió entre 1908 y 1912, cuando Alfred Wegener, al mirar las líneas de costa a ambos lados del Océano Atlántico y tras considerar cierta información paleontológica, presentó la hipótesis de que las masas continentales estaban en movimiento y que se habían fragmentado de un supercontinente original al que denominó Pangea. Tales movimientos habrían deformado los sedimentos acumulados en sus bordes y originado nuevas cadenas montañosas. Wegener creía que los continentes se deslizaban sobre la superficie de la corteza terrestre bajo los océanos como un bloque de madera sobre una mesa, y que esto se debía a las fuerzas de marea producidas por la deriva de los polos. Sin embargo, pronto se demostró que estas fuerzas son del orden de una diezmillonésima a una centésima de millonésima de la fuerza gravitatoria, lo cual hacía imposible plegar y levantar las masas de las cordilleras.

La teoría en la actualidad

La teoría de la deriva continental, junto con la de la expansión del fondo oceánico, quedaron incluidas en la teoría de la tectónica de placas, nacida a mitad del siglo XX. Según esta teoría, el fenómeno del desplazamiento sucede desde hace miles de millones de años gracias al movimiento global en el manto (exceptuando la parte superior rígida que forma parte de la litosfera), de la que depende que la litosfera sea reconfigurada y desplazada permanentemente.
Esta nueva teoría difiere de la original de Wegener en que considera el movimiento global y no sólo el continental.

Mediante la teoría de la Tectónica de placas se explicó finalmente que todos estos fenómenos (deriva continental, formación de cordilleras continentales y submarinas) son manifestaciones de procesos de liberación del calor del interior de la Tierra. Los procesos que originan este calor son:

El más importante es la desintegración de los elementos radiactivos existentes en el manto terrestre, residuos del calor original que la Tierra adquirió durante su génesis y que fundamentalmente son: 40K (potasio 40), 238U (uranio 238), 235U (uranio 235) y 232Th (torio 232).

Otro es el calor debido a la gravedad, que propicia el desplazamiento de los elementos pesados hacia el centro y de los ligeros hacia arriba. Al hacerlo, la fricción genera calor.

Por último, al enfriarse, el núcleo incrementa su tamaño, como hemos indicado en varias ocasiones, la energía ni se crea ni se destruye, por lo que este calor “perdido”, pasa al resto de los componentes de la Tierra.

Límites de placa

Límites divergentes.

Corresponden a aquellas en las que dos placas se separan. Por ejemplo, la península de California que se separa del continente de América del Norte (falla de San Andrés), produciendo los famosos terremotos de las zonas de Los Ángeles y San Francisco

Límites convergentes

Corresponden a aquellas en las que dos placas se encuentran. Hay dos casos muy distintos:

Subducción. Una de las placas se pliega en un ángulo pequeño, hacia el interior de la Tierra, y se introduce bajo la otra. Hay dos variantes, según la naturaleza de la litosfera en la placa que recibe la subducción: a) de tipo continental, como ocurre en la subducción de la placa de Nazca con respecto a la cordillera de los Andes; b) de litosfera oceánica, donde se desarrollan fenómenos volcánicos en zonas insulares.

Colisión. Se originan cuando la convergencia facilitada por la subducción provoca aproximación de dos masas continentales. Al final las dos masas chocan, y con los materiales continentales de la placa que subduce emerge un orógeno de colisión, que tiende a ascender sobre la otra placa. Así se originaron cordilleras mayores, como el Himalaya y los Alpes.

Bordes de placa. Las zonas de las placas contiguas a los límites (los bordes de placa) son las regiones de mayor actividad geológica interna del planeta.

Vulcanismo. La mayor parte del vulcanismo activo se genera en el eje de las dorsales, en los límites divergentes.

Orogénesis. Es decir, surgimiento de montañas. Es simultánea a la convergencia de placas.

Sismicidad. Suceden algunos terremotos en las placas por fracturas en regiones centrales, pero la mayoría se origina en los bordes de placa.

Placas tectónicas del mundo

Actualmente existen las siguientes placas tectónicas en la superficie de la Tierra con límites más o menos definidos, que se dividen en 15 placas mayores (o principales) y 42 placas menores (o secundarias).
En el Anexo II se describen las principales y secundarias placas tectónicas hasta ahora descubiertas

Métodos de medición de terremotos

Escala sismológica de Mercalli

La ciudad chilena de Valdivia tras el terremoto de 1960, el de mayor magnitud registrada hasta la fecha (9,5 MW). Alcanzó una intensidad de XII en la escala de Mercalli.
La escala sismológica de Mercalli es una escala de doce grados desarrollada para evaluar la intensidad de los terremotos a través de los efectos y daños causados a distintas estructuras. Así, la intensidad de un terremoto no está totalmente determinada por su magnitud, sino que se basa en sus consecuencias, empíricamente observadas. Debe su nombre al físico italiano Giuseppe Mercalli.

Historia

La escala de Mercalli se basó en la simple escala de diez grados formulada por Michele Stefano Conte de Rossi y François-Alphonse Forel. La escala de Rossi-Forel era una de las primeras escalas sísmicas para medir la intensidad de eventos sísmicos. Fue revisada por el vulcanólogo italiano Giuseppe Mercalli en 1884 y 1906.
En 1902, el físico italiano Adolfo Cancani amplió la escala de Mercalli de diez a doce grados. Más tarde la escala fue completamente reformulada por el geofísico alemán August Heinrich Sieberg y se conocía como la escala de Mercalli-Cancani-Sieberg (MCS). La escala de Mercalli-Cancani-Sieberg fue posteriormente modificada por Harry O. Wood y Frank Neumann en 1931 como la escala de Mercalli-Wood-Neumann (MWN). Finalmente fue mejorada por Charles Richter, también conocido como el autor de otra escala sismológica, la escala de Richter, que mide la magnitud de la energía liberada durante un sismo.
En la actualidad, la escala se conoce como la escala de Mercalli modificada (MM).

En el Anexo III se indican las magnitudes de esta escala

Escala sismológica de Richter

La escala sismológica de Richter, también conocida como escala de magnitud local (ML), es una escala logarítmica arbitraria que asigna un número para cuantificar la energía que libera un terremoto, denominada así en honor del sismólogo estadounidense Charles Francis Richter (1900-1985).
La sismología mundial usa esta escala para determinar la fuerza de sismos de una magnitud entre 2,0 y 6,9 y de 0 a 400 kilómetros de profundidad. Aunque los medios de comunicación suelen confundir las escalas, para referirse a eventos telúricos actuales se considera incorrecto decir que un sismo «fue de magnitud superior a 7,0 en la escala de Richter», pues los sismos con magnitud superior a 6,9 se miden desde 1978 con la escala sismológica de magnitud de momento, por tratarse esta última de una escala que discrimina mejor en los valores extremos.

Desarrollo

Fue desarrollada por Charles Francis Richter con la colaboración de Beno Gutenberg en 1935, ambos investigadores del Instituto de Tecnología de California, con el propósito original de separar el gran número de terremotos pequeños de los menos frecuentes terremotos mayores observados en California en su tiempo. La escala fue desarrollada para estudiar únicamente aquellos terremotos ocurridos dentro de un área particular del sur de California cuyos sismogramas hubieran sido recogidos exclusivamente por el sismómetro de torsión de Wood-Anderson.
El uso del logaritmo incorporado a la escala hace que los valores asignados a cada nivel aumenten de forma logarítmica y no de forma lineal. Richter tomó la idea del uso de logaritmos en la escala de magnitud estelar usada en la astronomía para describir el brillo de las estrellas y de otros objetos celestes. Richter arbitrariamente escogió un temblor de magnitud 0 para describir un terremoto que produciría un desplazamiento horizontal máximo de 1 μm en un sismograma trazado por un sismómetro de torsión Wood-Anderson localizado a 100 km de distancia del epicentro. Esta decisión tuvo la intención de prevenir la asignación de magnitudes negativas. Sin embargo, la escala de Richter no tenía límite máximo o mínimo y, actualmente, habiendo sismógrafos modernos más sensibles, estos comúnmente detectan movimientos con magnitudes negativas.
Debido a las limitaciones del sismómetro de torsión Wood-Anderson usado para desarrollar la escala, la magnitud original no puede ser calculada para temblores mayores a 6,8.

Problemas de la escala sismológica de Richter

El mayor problema con la magnitud local (ML) o de Richter radica en que es difícil relacionarla con las características físicas del origen del terremoto. Además, existe un efecto de saturación para magnitudes cercanas a 8,3-8,5.
A inicios del siglo XXI, la mayoría de los sismólogos consideró obsoletas las escalas de magnitudes tradicionales, siendo estas reemplazadas por una medida físicamente más significativa llamada momento sísmico, el cual es más adecuado para relacionar los parámetros físicos, como la dimensión de la ruptura sísmica y la energía liberada por el terremoto.

Uso de las unidades en los medios de comunicación

En los medios de comunicación, en España y en Latinoamérica, es corriente la combinación de los términos propios de la medida de magnitud (energía) e intensidad (efectos), e incluso confundir ambos conceptos. Se puede oír que el terremoto fue de 3,7 grados, empleando el término grado para expresar la magnitud, cuando esa unidad o término es propia de la medida de intensidades en la escala de Mercalli, en la que no existen valores decimales.
Otra manera que también se usa para resolver en falso esta forma de indicar la importancia del terremoto es publicar que el terremoto tuvo una magnitud de 3,7 grados, que resulta igualmente confusa, pues viene a ser como decir que el corredor de maratón recorrió una distancia en tiempo en lugar de en distancia.

En el Anexo IV se describen las magnitudes de esta escala

Escala sismológica de magnitud de momento

La escala sismológica de magnitud de momento (MW) es una escala logarítmica usada para medir y comparar terremotos. Está basada en la medición de la energía total que se libera en un sismo, indicando con un solo número la cantidad de energía liberada por el terremoto. Los períodos de oscilación de las ondas sísmicas grandes son proporcionales al momento sísmico. Es por esto que se suele medir la magnitud de momento a través de los períodos de oscilación por medio de sismógrafos.

Fue introducida en 1979 por Thomas C. Hanks y Hiroo Kanamori como la sucesora de la escala sismológica de Richter.
Una ventaja de la escala de magnitud de momento es que no se satura cerca de valores altos. Es decir, a diferencia de otras escalas, esta no tiene un valor por encima del cual todos los terremotos más grandes reflejen magnitudes muy similares.
Otra ventaja que posee esta escala es que coincide y continúa con los parámetros de la escala sismológica de Richter.
Por estas razones, la escala de magnitud de momento es la más usada por sismólogos para medir y comparar terremotos de grandes proporciones. El Centro Nacional de Información Sísmica, dependiente del Servicio Geológico de los Estados Unidos, usa esta escala para la medición de terremotos de una magnitud superior a 6,9.
A pesar de lo anterior, la escala sismológica de Richter es la que goza de más popularidad en la prensa. Luego, es común que la prensa comunique la magnitud de un terremoto en «escala de Richter» cuando este ha sido medido en realidad con la escala de magnitud de momento. En algunos casos esto no constituye un error, dada la coincidencia de parámetros de ambas escalas, aunque se recomienda indicar simplemente «magnitud» y evitar la coletilla «grados en la escala de Richter» para evitar errores.

Comparación con la energía sísmica irradiada

La energía potencial es acumulada en el borde de la falla en la forma de tensión. Durante un terremoto la energía almacenada se transforma y resulta en:
Ruptura y deformación de las rocas, en calor y en energía sísmica irradiada
El momento sísmico es una medida de la cantidad total de energía que se transforma durante el terremoto.
Solo una pequeña fracción del momento sísmico es convertida en Energía Sísmica Irradiada que es la que los sismógrafos registran.

Comparación con explosiones nucleares.

La energía liberada por armas nucleares es tradicionalmente expresada en términos de la energía almacenada en un kilotón o megatón del explosivo convencional trinitrotolueno (TNT).
Muchos académicos aseveran que una explosión de 1kt TNT es más o menos equivalente a un terremoto de magnitud 4.
Tal comparación no es muy significativa puesto que en los terremotos, al igual que en las explosiones de armas nucleares subterráneas sólo alrededor del 0,5% de la energía liberada se transforma en ondas sísmicas (energía sísmica).
Para verdaderas pruebas nucleares subterráneas, la actual eficiencia sísmica obtenida varía significativamente y depende de los parámetros y el lugar de la prueba.





ANEXO I. Cantidades aproximadas de terremotos

2,0                   Alrededor de 8000 por día

2,0-2,9            Alrededor de 1000 por día

3,0-3,9            Unos 50 000 por año.

4,0-4,9            Unos 6000 por año.

5,0-5,9            Unos 800 por año.

6,0-6,9            Unos 100 por año.

7,0-7,9            Unos 20 por año.

8,0-8,9            De 1 a 3 por año.

9,0-9,9             Menos de 2 en 20 años

Mayor de 10    Nunca registrado






ANEXO II. PLACAS TECTONICAS

Las 15 placas tectónicas mayores

Africana, Antártica, Arábiga, Cocos, Nazca, Caribe, Pacífico, Euroasiática, Filipina,  India, Indoaustraliana, Juan de Fuca, Norteamericana, Scotia, Sudamericana

Las 42 placas tectónicas secundarias

Amuria, Adriática, Cabeza de Pájaro, Altiplano, Anatolia, Birmania, Islas Bismarck del Norte, Islas Bismarck del Sur, Chiloé, Futuna, Gorda, Juan Fernández, Kermadec, Manus, Maoke, Nubia, Ojotsk, Okinawa, Panamá, Pascua, Sandwich, Shetland, Timor, Tonga, Sonda, Carolinas, Marianas, Nuevas Hébridas, Andes del Norte, Arrecife de Balmoral, Arrecife de Conway, Explorador, Mar de Banda, Mar Egeo o Helénica
Mar de las Molucas, Mar de Salomón, Iraní, Niuafo'ou, Rivera, Somalí, Woodlark,  Yangtze




ANEXO III. GRADOS DE LA ESCALA MERCALLI

La tabla siguiente es una guía aproximada de los grados de la escala de Mercalli modificada.

I - Muy débil. Imperceptible para la mayoría excepto en condiciones favorables. Aceleración menor a 0,5 Gal.
II - Débil.        Perceptible solo por algunas personas en reposo, particularmente aquellas que se encuentran ubicadas en los pisos superiores de los edificios. Los objetos colgantes suelen oscilar. Aceleración entre 0,5 y 2,5 Gal.
III - Leve.       Perceptible por algunas personas dentro de los edificios, especialmente en pisos altos. Muchos no lo perciben como un terremoto. Los automóviles detenidos se mueven ligeramente. Sensación semejante al paso de un camión pequeño. Aceleración entre 2,5 y 6,0 Gal.
IV - Moderado.          Perceptible por la mayoría de personas dentro de los edificios, por pocas personas en el exterior durante el día. Durante la noche algunas personas pueden despertarse. Perturbación en cerámica, puertas y ventanas. Las paredes suelen hacer ruido. Los automóviles detenidos se mueven con más energía. Sensación semejante al paso de un camión grande. Aceleración entre 6,0 y 10 Gal.
V - Poco fuerte.          Sacudida sentida casi por todo el país o zona y algunas piezas de vajilla o cristales de ventanas se rompen; pocos casos de agrietamiento de aplanados; caen objetos inestables. Se observan perturbaciones en los árboles, postes y otros objetos altos. Se detienen los relojes de péndulo. Aceleración entre 10 y 20 Gal.
VI - Fuerte.     Sacudida sentida por todo el país o zona. Algunos muebles pesados cambian de sitio y provoca daños leves, en especial en viviendas de material ligero. Aceleración entre 20 y 35 Gal.
VII - Muy fuerte.       Ponerse de pie es difícil. Muebles dañados. Daños insignificantes en estructuras de buen diseño y construcción. Daños leves a moderados en estructuras ordinarias bien construidas. Daños considerables en estructuras pobremente construidas. Mampostería dañada. Perceptible por personas en vehículos en movimiento. Aceleración entre 35 y 60 Gal.
VIII - Destructivo.     Daños leves en estructuras especializadas. Daños considerables en estructuras ordinarias bien construidas, posibles derrumbes. Daño severo en estructuras pobremente construidas. Mampostería seriamente dañada o destruida. Muebles completamente sacados de lugar. Aceleración entre 60 y 100 Gal.
IX - Muy destructivo.            Pánico generalizado. Daños considerables en estructuras especializadas, paredes fuera de plomo. Grandes daños en importantes edificios, con derrumbes parciales. Edificios desplazados fuera de las bases. Aceleración entre 100 y 250 Gal.
X - Desastroso.           Algunas estructuras de madera bien construidas quedan destruidas. La mayoría de las estructuras de mampostería y el marco destruido con sus bases. Vías ferroviarias dobladas. Aceleración entre 250 y 500 Gal.
XI - Muy desastroso. Pocas estructuras de mampostería, si las hubiera, permanecen en pie. Puentes destruidos. Vías ferroviarias curvadas en gran medida. Aceleración mayor a 500 Gal.
XII - Catastrófico.     Destrucción total con pocos supervivientes. Los objetos saltan al aire. Los niveles y perspectivas quedan distorsionados. Imposibilidad de mantenerse en pie.



Anexo IV. MAGNITUDES DE LA ESCALA DE RICHTER Y SU EQUIVALENTE EN ENERGÍA LIBERADA.

Magnitud, Equivalencia de la energía TNT y principales terremotos          

–1,5                 1 g       Rotura de una roca en una mesa de laboratorio
1,0                   170 g   Pequeña explosión en un sitio de construcción
1,5                   900 g   Bomba convencional de la Segunda Guerra Mundial
2,0                   6 kg     Explosión de un tanque de gas butano
2,2                   10 kg   Algunos de los sismos diarios en la Falla de San Andrés.
3,0                   180 kg Explosión de una planta de gas
3,5                   450 kg Explosión de una mina
4,0                   6 t        Bomba atómica de baja potencia.
5,0                   200 t    Terremoto de Albolote en 1956 (Granada España) y Terremoto de    Lorca de 2011 (Murcia, España)
5,1                   Terremoto provocado por una prueba nuclear de Corea del Norte de enero del 2016
5,3                   Terremoto provocado por una prueba nuclear de Corea del Norte de septiempre de 2016
5,5                   500 t    Terremoto de El Calvario (Colombia) de 2008, Terremoto de Popayán 1983 (Colombia) y Terremoto del Río de la Plata de 1888 (Buenos Aires, Argentina - Uruguay)
6,0                   1 270 t Terremoto de Double Spring Flat de 1994 (Nevada, Estados Unidos)
6,1                   Terremoto de Salta de 2010
6,2                   Terremoto de Costa Rica de 2009, Terremoto del Estado Carabobo (Venezuela) de 2009, Terremoto de Managua de 1972 (Nicaragua)
6,3                   Terremoto de mar de Alborán de 2016 (Melilla, España) y Terremoto Amatrice (Lacio, Italia)
6,4                   Terremoto de Armenia de 1999 (Armenia, Colombia) y Terremoto en Salta de 2010 (Argentina)
6,5                   30.000 t          Terremoto de Northridge de 1994 (California, Estados Unidos), Terremoto de Guerrero de 2011 (México) y Terremoto de la costa de Tarapacá de 2009 (Iquique, Chile)
6,6                   50 000 t          Terremoto de Los Santos de 2015 (Los Santos SD, Colombia)
6,7                   Terremoto de L'Aquila de 2009 (Italia), Terremoto del Perú de 2011 (Ica, Perú), Terremoto de Veracruz de 2011 (Veracruz, México), Terremoto de Zapallar de 2012 (Zapallar, Chile), Terremoto de Tecpan, Guerrero 8 mayo del 2014, Terremoto de la India, al noroeste de la ciudad de Imphal, cerca de Himalaya 4 enero de 2016.
6,8                   Terremoto de Bolivia de 1998 (Aiquile, Bolivia)
6,9                   Terremoto de zona pacífica en Colombia (Departamentos de Nariño, Valle del Cauca y Cauca) 2013
7,0                   200 000 t
7,1                   Terremoto de Biobío-Araucanía de 2011 (Chile), Terremoto de Punitaqui de 1997 (Chile), Terremoto de Alaska de 2016
7,2                   250 000 t        Terremoto de Spitak 1988 (Armenia), Terremoto de Baja California de 2010 (Mexicali, Baja California), Terremoto de Ecuador de 2010 (180 kilómetros de Ambato), Terremoto de Guerrero de 2014
7,3                   Terremoto de Veracruz de 1973 (México), Terremoto en Honduras de 2009(Honduras), Terremoto de Xinjiang de 2014 (China)
7,4                   550.000 t        Terremoto de La Ligua de 1965 (Chile), Terremoto de Guatemala de 2012, Terremotos de Guerrero-Oaxaca de 2012 (Oaxaca, México)
7,5                   750.000 t        Terremoto de Caucete 1977 (Argentina)
Terremoto de Oaxaca de 1999 (México), Terremoto de Guatemala de 1976, Réplica del Terremoto de Iquique de 2014 (Chile), Terremoto de Afganistán de 2015
7,6                   Terremoto de Colima de 2003 (México), Terremoto de Costa Rica de 2012
7,7                   Terremoto de Limón de 1991 (Limón, Costa Rica y Bocas del Toro, Panamá), Terremoto de Orizaba de 1937 (Veracruz, México), Terremoto de Tocopilla de 2007 (Tocopilla, Chile), Terremoto de México de 1957 (México), Réplica del Terremoto de Iquique de 2014 (Chile)
7,8                   1.250.000 t     Terremoto de Sichuan de 2008 (China), Terremoto de Tarapacá de 2005 (Iquique, Chile), Terremoto de Nepal de abril de 2015, Terremoto de Ecuador de 2016, Terremoto de Christchurch noviembre 2016 (Nueva Zelanda), Terremoto de Sumatra de 2016
7,9                   6.000.000 t     Terremoto de Áncash de 1970 (Perú)
8,0                   10 000 000 t   Terremoto del Perú de 2007 (Pisco, Perú), Terremoto de Algarrobo de 1985 (Chile)
8,1                   16.500.000 t   Terremoto de México de 1985 (Michoacán, México)
8,2                   Terremoto de Arica e Iquique de 2014 (Chile), Terremoto de Valparaíso de 1906 (Chile)
8,3                   50.000.000 t   Bomba del Zar
8,4                   50.200.000 t   Terremoto Illapel, 2015 (Chile)
8,5                   120.000.000 t Terremoto de Sumatra de 2007, Terremoto del sur del Perú de 2001 (Arequipa, Perú), Terremoto de Valdivia de 1575 (Chile)
8,6                   120.500.000 t Terremoto de Sumatra de 2012, Terremoto de Vallenar de 1922 (Chile)
8,7                   Terremoto de Valparaíso de 1730 (Chile)    
8,8                   210 000 000 t Terremoto de Cobquecura de 2010 (Chile), Terremoto de Ecuador y Colombia de 1906
9,0                   240 000 000 t Terremoto de Japón de 2011
9,1                   260 000 000 t Terremoto del océano Índico de 2004 (Sumatra, Indonesia)
9,2                   260 000 000 t Terremoto de Anchorage de 1964 (Alaska, Estados Unidos)
9,5                   290 000 000 t Terremoto de Valdivia de 1960 (Chile)
10,0                 630 000 000 t Estimado para el choque de un meteorito rocoso de 2 km de diámetro que impacte a 25 km/s (90 000 km/h)
12                    1 teratón Fractura de la Tierra por el centro

Cantidad de energía solar recibida diariamente en la Tierra