Vistas de página en total

domingo, 29 de mayo de 2011

Los bebés predicen acontecimientos futuros de manera racional y precisa



La capacidad humana de raciocinio extremadamente rica, poderosa y coherente ya se manifiesta en la infancia.
Un bebé observa los objetos en movimiento durante el experimento.

A los doce meses los humanos ya han desarrollado una capacidad de raciocinio que se fundamenta en el razonamiento puro, al margen de la experiencia previa. Así se demuestra en un trabajo coordinado por Luca Bonatti, investigador de la Universidad Pompeu Fabra, basado en experimentos con niños en edad preverbal. Ante una serie de objetos en movimiento, los bebés elaboraron expectativas concretas sobre su evolución.

Los seres humanos hacemos predicciones sobre el futuro compilando diferentes fuentes de información, guiados por el conocimiento abstracto, y elaborando posibles expectativas sobre las nuevas situaciones que se nos presentan. Es decir, en los humanos, ante una nueva situación, son primordiales las predicciones racionales más que las basadas en la mera experiencia.

Un bebé observa los objetos en movimiento durante el experimento. imagen: UPF
Esta capacidad humana de raciocinio extremadamente rica, poderosa y coherente ya se manifiesta en la infancia, según las conclusiones de un estudio coordinado por Luca Bonatti, investigador ICREA del Grupo de Investigación Reasoning and Infant Cognition (RICO), de la Unidad de Cognición y Cerebro del Departamento de Tecnologías de la Información y las Comunicaciones de la Universidad Pompeu Fabra, y que se publicará el 27 de mayo en la portada de Science.

Luca Bonatti ha coordinado un equipo internacional integrado por investigadores del Centro de Desarrollo Cognitivo y de la Academia de Ciencias de Budapest (Hungría), del MIT y de la Universidad de California (EE UU), de la Universidad de Venecia (Italia) y del CNRS de la Universidad de Aix-Marseille (Francia).

Elaboran expectativas aunque no tengan experiencia previa

En su trabajo, los autores han demostrado que ante una variedad de estímulos complejos, los bebés adoptan un comportamiento preciso y racional, una capacidad que han denominado como “razonamiento puro”.

El objetivo del estudio ha sido demostrar cuáles son las bases del razonamiento puro identificado en los bebés. La capacidad racional de los niños se evalúa, generalmente, midiendo el tiempo de respuesta a un determinado estímulo visual que actúa como indicador de sorpresa y novedad.

En el niño, el estímulo visual le despierta una mayor atención cuanto más alejado está de sus expectativas según su experiencia previa, o cuanto más sorprendente es el estímulo concreto para él. Esta respuesta al estímulo es la que se ha analizado en un conjunto de experiencias diseñadas a tal fin. Los datos obtenidos han constituido la base analítica sobre la que se han extraído los resultados de este relevante estudio.

El estudio se ha llevado a cabo en bebés de doce meses de edad que aún no han desarrollado la capacidad del habla, o sea, en situación preverbal, y ha constatado que cuando a los bebés se les muestran diferentes objetos complejos en movimiento, los niños elaboran expectativas precisas sobre el comportamiento de estos mismos objetos en su futuro inmediato.

En el experimento, a los bebés se les muestran escenas similares a un bombo de la lotería, con diferentes objetos moviéndose en el interior y uno de ellos saliendo después de períodos variables de oclusión. Las escenas contenían tanto información probabilística sobre qué objeto era probable que saliera a continuación, como información dinámica sobre el movimiento de objetos.

Los bebés lo hacen sin haber tenido ninguna experiencia similar previa en el pasado, integrando diferentes fuentes de información de una manera óptima y aplicándola en el lugar preciso. El comportamiento racional que desarrollan frente a estímulos variables y múltiples se puede precisar y se ha comprobado que sigue una función estocástica de tipo bayesiano.

Subido por Borja

El color de los vegetales de otros mundos


Un cielo con dos soles es una de las imágenes más comunes para demostrar de manera rotunda en una película de ciencia-ficción que un paisaje planetario es de fuera de nuestro sistema solar. Pero, ¿de qué modo podría verse influenciada la hipotética vida en un planeta si éste cuenta con dos soles en vez de sólo uno?


La fotosíntesis, que permite aprovechar la luz solar para aplicaciones biológicas, es una base directa o indirecta sobre la que se sustenta la mayor parte de la vida en la Tierra. Es la fuente de energía para las plantas y, por lo tanto, de modo indirecto para los animales en la cumbre de la cadena alimentaria. Con múltiples fuentes de luz aprovechable, la vida en otras regiones del cosmos puede haberse adaptado para utilizar la luz de todos los soles, o bien puede haber distintos seres especializados en usar la luz de uno u otro sol. Ésta última opción puede ser la más probable en planetas donde parte de la superficie está iluminada por sólo un sol durante largos períodos de tiempo.


Si un planeta se encuentra en un sistema con dos o más estrellas, tendría potencialmente varias fuentes de energía para efectuar la fotosíntesis. La temperatura de una estrella determina su color y, por tanto, el color de la luz utilizada para la fotosíntesis. Dependiendo de los colores de esa luz estelar, los vegetales pueden haber evolucionado de modo muy diferente.


Jack O'Malley-James y Jane Greaves de la Universidad de St Andrews, John Raven de la Universidad de Dundee y Charles Cockell de la Universidad Abierta (Open University), todas del Reino Unido, han evaluado el potencial de la vida fotosintética en sistemas multiestelares con diferentes combinaciones de estrellas similares al sol y enanas rojas.


Las estrellas enanas rojas son las más comunes en nuestra galaxia, y a menudo están presentes en sistemas de más de una estrella. Las enanas rojas son muy longevas y tienden a tener una actividad estable, dos cualidades óptimas para todo escenario plausible de la vida.


En cuanto a las estrellas similares al Sol, también son bastante abundantes, y se sabe ya de la existencia de planetas en órbita a algunas de ellas.


Más del 25 por ciento de las estrellas similares al Sol, y alrededor del 50 por ciento de las enanas rojas se encuentran en sistemas multiestelares.


En las simulaciones realizadas por el equipo de investigación, los planetas similares a la Tierra orbitan en torno a dos estrellas muy cercanas la una de la otra, o bien lo hacen alrededor de una de ellas cuando la separación entre ambas es grande. El equipo también examinó combinaciones de estos escenarios, con dos estrellas muy cercanas la una de la otra y una tercera bastante más alejada de ellas.


Los resultados de las simulaciones indican que los planetas en sistemas multiestelares pueden albergar vegetales con características mucho más exóticas que las poseídas por las plantas ordinarias que conocemos en la Tierra.


Por ejemplo, plantas iluminadas por las tenues enanas rojas pueden ser de un color muy oscuro, definible como negro, para así poder absorber toda la gama de longitudes de onda de luz visible a fin de aprovechar al máximo la luz disponible. También podrían utilizar luz ultravioleta o bien infrarroja para efectuar la fotosíntesis.


Para los planetas que orbitan dos estrellas como la nuestra, las radiaciones nocivas de las intensas erupciones solares podrían haber conducido a vegetales que hubieran desarrollado sus propios filtros solares para bloquear emisiones dañinas de rayos ultravioleta.

Los vegetales en un planeta similar a la Tierra pero con dos o tres soles, podrían ser de color negro o gris, según los resultados de las simulaciones.


El posible color negro para los vegetales extraterrestres es una conclusión a la que también se llegó en un estudio de 2007 del que ya hablamos entonces en Noticias de la Ciencia y la Tecnología.



Muchos vegetales en la Tierra son verdes a causa de la clorofila, la cual aprovecha la energía del Sol para elaborar azúcares que se emplearán en su metabolismo. En los planetas de otros sistemas solares, es probable que los vegetales tengan pigmentos diferentes, adecuados para absorber las longitudes de onda disponibles en sus mundos.


Por otra parte, los vegetales de la Tierra tienen una eficiencia que no es la máxima posible, ya que desperdician cierta cantidad de luz, la de color verde. Lo ideal para un vegetal sería una molécula negra que absorbiera la totalidad de la luz recibida. Y éste podría ser el caso de un sistema de fotosíntesis desarrollado en un planeta apto para la vida pero con condiciones ambientales "exóticas", donde la evolución hubiera alcanzando el estado de máxima eficiencia.


Ello conllevaría a que los vegetales fuesen del todo negros. ¿Sabríamos percatarnos de ellos mediante los datos captados a gran distancia? ¿O los pasaríamos por alto porque estamos anclados en el arquetipo de la vegetación verde?


El profesor Robert Blankenship, de la Universidad Washington en San Luis, Missouri, Estados Unidos, y colaborador de la NASA, realizó, junto a otros científicos, dos estudios sobre los tipos de señales que conviene buscar para detectar posibles formas de vida calificable como "vegetal", basadas en la fotosíntesis. En esa línea de investigación, también se ha analizado la cuestión de qué aspecto podrían presentar estos otros mundos, como consecuencia de la presencia en ellos de tales formas de vida.

Subido por Borja

miércoles, 25 de mayo de 2011

Nuevo avance en el conocimiento de los virus



Imagen de AFM mostrando un bacteriófago phi29 (rojo) que ha expulsado parte de su ADN (azul) por la cola.

Un estudio dirigido desde la Universidad Autónoma de Madrid, en el que participan investigadores americanos, alemanes y españoles, ha demostrado la existencia de estrés mecánico residual en determinados lugares de la pared de un virus. Este es un fenómeno del que no se tenía evidencia experimental hasta el momento.

En el trabajo, publicado recientemente en la revista Biophysical Journal, los científicos encontraron que un tipo específico de virus (el bacteriófago elipsoidal phi29) es 2.5 veces más duro en su eje menor que en su eje mayor, siendo este un resultado no esperable de la teoría elástica estándar de cuerpos homogéneos, y del que se deduce la existencia de tensión mecánica en la zona ecuatorial del virus.

Los especialistas argumentan que este estrés residual puede ser un mecanismo de defensa frente a agresiones del entorno para estabilizar la cápsida vírica (la estructura protéica que cubre el material genético del virus). También revelan que un posible papel de las proteínas de andamiaje presentes en el proceso de ensamblaje del virus es imponer una curvatura a las proteínas de la cápsida, diferente de la espontánea, para conseguir la estructura adecuada.

Virus

La propia raíz etimológica de la palabra virus (del latín virus: veneno) hace gala del rechazo que sentimos cuando oímos hablar de ellos. Estos parásitos son causa de una gran cantidad de enfermedades. Se trata de entidades biológicas que se localizan en la difusa frontera entre la materia inanimada y la materia viva. Aunque carecen de la facultad de reproducirse por sí mismos, la naturaleza los ha concebido como máquinas de tamaño nanométrico que utilizan el metabolismo de las células a las que infectan para llevar a cabo su ciclo biológico.

Los virus se pueden entender como contenedores proteicos (cápsida) de tamaño nanométrico, rellenos de material genético (ADN o ARN), que se autoensamblan de forma automática dentro del citoplasma de las células infectadas. No realizan ningún tipo de actividad metabólica y se sirven de la maquinaria molecular de la célula huésped para su reproducción. Durante el ciclo biológico de un virus la cápsida debe proteger su genoma contra agentes agresivos externos. Conocer la relación existente entre la estructura y propiedades fisicoquímicas de un virus y sus funciones es muy importante, no sólo desde un punto de vista básico, sino también para poder establecer estrategias encaminadas a su aprovechamiento en nuevos materiales y terapias génicas.

Las cápsidas de los virus han adquirido soluciones estructurales únicas en respuesta a las diversas funciones, a veces conflictivas, que han de llevar a cabo durante el ciclo de infección viral. Por ejemplo, los virus tienen que ser lo suficientemente estables para mantener la integridad del genoma en el entorno extracelular, y a la vez permitir los cambios conformacionales necesarios para dejar su carga fatal en la célula huésped. Mientras que los virus eucariotas son fagocitados por el huésped, los bacteriófagos inyectan su ADN desde el exterior después de unirse a la pared de la bacteria. Aparentemente, la translocación genómica de algunos bacteriófagos está provocada por la liberación de la energía elástica acumulada en su interior durante el empaquetamiento previo de ADN, que está compactado con densidades cuasi cristalinas.

El entendimiento de estos procesos exige, además del conocimiento de la estructura del virión (la cápsida con el genoma en su interior), el estudio de diversas propiedades físicas del mismo a escala nanométrica, como pueden ser su elasticidad y resistencia mecánica. Aunque la criomicroscopía electrónica o la difracción de rayos X nos proporcionan las estructuras de los virus con detalle atómico o cuasi atómico, el conocimiento de las mismas no garantiza la caracterización de sus propiedades físicas.

Durante los últimos años, la utilización del microscopio de fuerzas (AFM) se ha revelado como una potente herramienta para realizar averiguaciones sorprendentes sobre las propiedades mecánicas de los virus, como son su resistencia mecánica y su elasticidad. Estos experimentos consisten, en términos generales, en realizar deformaciones controladas de virus individuales y extraer datos sobre su elasticidad y resistencia mecánica que pueden tener profundas implicaciones en su ciclo biológico. A grandes rasgos, el corazón de un AFM es una micropalanca, al final de la cual hay una punta con un radio de unos 20 nm, que se emplea como un transductor de fuerzas. La comparación de estas fuerzas ejercidas sobre una superficie muy dura y sobre el virus nos da información sobre la deformación del mismo.

El equipo internacional de investigadores que publico la investigación en cuestión está compuesto por biólogos por biólogos (Iwan Schaap, de la Universidad de Gotinga, Roberto Miranda y José López Carrascosa, del Centro Nacional de Biotecnología); físicos teóricos (Pedro Serena, del Instituto de Ciencia de Materiales de Madrid; M. de Ridder y Arvind Raman de la Universidad de Purdue; y Antoni Luque y David Reguera, de la Universidad de Barcelona) y físicos experimentales (C. Carrasco, del Centro Nacional de Biotecnologia; Mercedes Hernando, Julio Gómez y Pedro J. de Pablo, del Departamento de Física de la Materia Condensada de la UAM).

Subido por Borja

Satélites monitorizan la erupción del volcán islandés



El volcán islandés Grímsvötn amenaza con volver a sembrar el caos en el espacio aéreo europeo. Los satélites están monitorizando su evolución para ayudar a los Centros de Vigilancia a evaluar el impacto en las operaciones de la aviación civil.

El volcán Grímsvötn, ubicado al sudeste de Islandia, entró en erupción el pasado día 21 de mayo, tras permanecer inactivo desde el año 2004. Las autoridades islandesas cerraron inmediatamente el espacio aéreo en la región.

Todavía está fresco el recuerdo del caos causado por la erupción del volcán Eyjafjallajoekull hace justamente un año. En mayo de 2010, el tráfico aéreo sufrió graves trastornos en toda Europa, cancelándose cientos de vuelos como medida de precaución ante el avance de la nube de cenizas volcánicas.

Aunque la erupción del Grímsvötn es de mayor magnitud que la del año pasado, la nube de cenizas está alcanzando una mayor altura en la atmósfera, por lo que se espera que afecte en menor medida al tráfico aéreo.

Las medidas realizadas con radares desde Islandia indican que la nube está alcanzando una altitud de entre 12 y 17 km, y se está desplazando hacia el norte de la península Escandinava.

Fred Prata, del Instituto Noruego de Investigación del Aire, es un experto en la teledetección de nubes de cenizas y el responsable del proyecto de la ESA ‘Apoyo a la Aviación para la Evasión de Cenizas Volcánicas’. Prata explica que “la erupción del Grímsvötn es muy rica en cenizas, pero son bastante más húmedas que las del Eyjafjallajoekull, por lo que vuelven a caer en las proximidades de Islandia”.

“El volcán también está emitiendo una gran cantidad de dióxido de azufre, que se desplaza en dirección norte y noreste. Al ser de mayor magnitud que la del año pasado, es menos probable que alcance el continente europeo”

“Claro está que la situación podría cambiar rápidamente, por lo que es crucial monitorizar la evolución de la erupción minuto a minuto”.

Tras la erupción del Eyjafjallajoekull se acordaron nuevas normas de seguridad aérea. Ahora, por ejemplo, se debe cerrar el espacio aéreo cuando la densidad de cenizas supere los 4 mg por metro cúbico.

El Centro de Vigilancia de Cenizas Volcánicas (VAAC) de Londres, responsable de la región en la que se enmarca Islandia, recopila toda la información disponible y prepara informes para las compañías aéreas.

Los satélites constituyen una plataforma excelente para monitorizar el desplazamiento, la extensión y la concentración de las nubes de cenizas volcánicas. Por este motivo, la ESA ha creado un servicio específico para enviar alertas a los VAACs cuando alguno de sus satélites detectan una erupción volcánica, dentro del proyecto de ‘Apoyo a los Servicios de Control Aéreo’.

El instrumento IASI a bordo del satélite meteorológico MetOp, en órbita polar, ha sido uno de los primeros en alertar de la erupción del volcán Grímsvötn la semana pasada.
Los satélites en órbita geoestacionaria también pueden monitorizar la evolución de la nube de cenizas, tomando nuevas imágenes cada 15 minutos. Los satélites Meteosat europeos, con sus instrumentos SEVIRI, y los estadounidenses GOES están ayudando a evaluar la situación.

Los modelos de dispersión permiten predecir la extensión y la dirección de propagación de la nube de cenizas volcánicas a partir de los datos recogidos por los satélites sobre el lugar de la erupción.

La combinación de los datos recogidos in situ, desde aviones y con la ayuda de los satélites, y los modelos matemáticos que están siendo desarrollados dentro de la iniciativa GMES de la ESA ayudarán a garantizar la seguridad de las operaciones aéreas sobre Europa durante las erupciones volcánicas. (Fuente: ESA)

Subido por Borja

viernes, 20 de mayo de 2011

El número de especies en vía de extinción podría ser menor de lo que se creía


El bisonte europeo es uno de los mamíferos más amenazados de Europa.

Las proyecciones del número de especies que se encuentran en peligro podría ser menor de lo que se creía, según una investigación publicada esta semana por un equipo internacional en Nature. Sin embargo, los científicos advierten de que esto no significa que el problema de la pérdida biodiversidad del planeta no sea alarmante.

¿Se ha preguntado alguna vez cómo se mide el número de especies para determinar si se encuentra o no en vías de extinción? Los científicos han utilizado tradicionalmente un método que tiene en cuenta la pérdida de su hábitat, algo que marca el inicio del camino de una especie hacia su desaparición.

Pero según la investigación publicada por los profesores Fangliang He, de la Universidad Yat-sen de China, y Stephen Hubbell, de la Universidad de California (UCLA), en Los Ángeles (EE UU), el método matemático comúnmente utilizando es erróneo, ya que siempre sobrestima el número de especies que se extinguirán debido a la pérdida de hábitat. En algunos casos, con un margen de error de hasta un 160%.

El llamado método de Relación Especies-Área (SAR por sus siglas en inglés) se utiliza para establecer, de forma indirecta, el número de especies que habitan en un determinado territorio. La primera vez que se ve un ejemplar de un animal o planta, se contabiliza como una especie. A partir de ahí y tomando como base el número de especies que hay en una determinada área, se hace una proyección de las que existirán en un territorio a medida que este se expanda.

Para calcular la desaparición de especies, los especialistas en conservación han utilizado tradicionalmente el método inverso: se calcula cuántas especies desaparecerían a medida que la cantidad de tierra disminuyese por la pérdida del hábitat. “El método contiene una versión hacia delante que sirve para añadir especies y otra hacia atrás, para valorar las que perdemos”, afirma Hubbell. “Sin embargo nuestra investigación muestra que este procedimiento es fundamentalmente erróneo”, afirma el investigador.

La fórmula era el problema

Las estimaciones sobre los niveles de extinción basadas en este método siempre eran mucho más altas que las que se observan en la realidad. Algo que la comunidad científica había atribuido a la conocida como “deuda de extinción”, o tiempo que debe de pasar para que una especie condenada a la desaparición se extinga verdaderamente de la faz de la tierra.

“Lo que han demostrado en su trabajo Hubbell y He es que el método falla porque se basa en que para el recuento de las especies, lo importante es el primer individuo que encuentras. Pero cuando cuantificas su pérdida no es el primer individuo sino el último de esa especie el que debe contar, y eso cambia significativamente el resultado de la ecuación”, explica a SINC Carsten Rahbek, del Centro de Macroecología Clima y Evolución de la Universidad de Copenhague y autor de un comentario especial aparecido en la misma edición de Nature sobre el impacto de este trabajo.

Para Rahbek el fallo del método utilizado hasta ahora no tiene nada que ver con la dificultad de establecer cuál es el último individuo de una especie. “Eso no tiene relación con la ecuación. Por supuesto que es importante cuando haces trabajo de campo, pero en este caso hablamos de la fórmula matemática que se aplica y la ecuación utilizada, que necesita ser corregida. Hubbell y He han creado una nueva función para el modelo matemático utilizado hasta ahora, que muestra unos resultados muy distintos.”, afirma, categórico.

Aun así, la situación es grave

Se muestra igualmente seguro en la rigurosidad del nuevo método. “Aportan una prueba matemática de cómo se ha de corregir la ecuación. No podemos estar seguro de los resultados que obtendremos, puesto que esto depende de los datos que haya disponibles en cada región del planeta, que arrojarán resultados distintos, pero sí sabemos que la fórmula es la correcta”, declara.

“Esto no implica, sin embargo, que las especies no vayan a extinguirse en grandes proporciones”, afirma Rahbek a SINC. Algo que han dejado muy claro los autores del artículo. “Que el método utilizado haya sido erróneo no significa que no estemos perdiendo hábitats a una velocidad mayor que en ningún otro momento de la historia de los últimos 65 millones de años”, explica Hubbell.

Como indica el naturalista de la UCLA, “ha habido cinco extinciones masivas en la historia de la Tierra –todas debidas a cambios climáticos, impactos de meteoritos o fenómenos volcánicos– pero podríamos estar entrando en una sexta”.

Subido por Borja

Promover la oxigenación a 120 metros de profundidad puede salvar al Mar Báltico


Una bomba de oxígeno impulsada por el viento

La oxigenación puede devolver la vida al fondo esencialmente muerto del Mar Báltico. Oxigenar esas aguas profundas puede crear las condiciones necesarias para el establecimiento de nuevos ecosistemas que permitan a la propia naturaleza hacer frente a la eutrofización.

Ésta es un proceso causado por un exceso de cierta clase de nutrientes que reduce el oxígeno en las aguas y lleva a la muerte de la vida animal.

El Báltico es un mar interior joven, salobre, con un ecosistema único y sensible que contiene especies marinas y de agua dulce.

Con la realización de estudios pilotos en dos fiordos suecos, unos investigadores de la Universidad de Gotemburgo en Suecia han demostrado que el bombeo de agua de la superficie, que es rica en oxígeno, hacia el fondo marino, es un proceso eficaz.

Se va a comprobar ahora el efecto en el Mar Báltico de un gran sistema de bombeo impulsado por el viento.

Son muchos los esfuerzos que se dedican actualmente a reducir la eutrofización en el Mar Báltico, pero si además se ayuda a la propia naturaleza a hacer frente al fósforo liberado en esas aguas, es posible potenciar y acelerar los procesos naturales más convenientes en la batalla contra la eutrofización, tal como explica Anders Stigebrandt del Departamento de Ciencias Terrestres de la Universidad de Gotemburgo.

La idea de oxigenar las aguas profundas del Mar Báltico está inspirada en la propia naturaleza. El método de la oxigenación del fondo del Báltico se puede comparar con la creación de los humedales en tierra.
Si a los fondos carentes de oxígeno en el Mar Báltico se les oxigena lo suficiente, cabe esperar que cada kilómetro cuadrado de fondo marino sea capaz de retener tres toneladas de fósforo en un corto período de tiempo, gracias a un efecto puramente geoquímico.

Si el fondo se mantiene oxigenado durante un período lo bastante prolongado, se conseguirá el establecimiento de fauna allí.

Subido por Borja

jueves, 19 de mayo de 2011

Descubren uno de los primeros minerales que se formaron en nuestro sistema solar


Se ha descubierto que la krotita, un mineral hasta ahora desconocido, fue uno de los primeros en formarse en nuestro sistema solar.

La krotita es el principal integrante de una inclusión inusual en el meteorito NWA 1934, que fue descubierto en el noroeste de África.

Se cree que las inclusiones de esta clase están entre los primeros materiales para "construcción" planetaria que se formaron en nuestro sistema solar, y que por tanto datan de antes de la formación de la Tierra y de los demás planetas.

Harold C. Connolly Jr. y Stuart A. Sweeney Smith de la Universidad de la Ciudad de Nueva York y el Museo Americano de Historia Natural comprobaron que este grano mineral pertenece a una clase muy especial. Se trata de una inclusión rica en calcio y aluminio que contiene minerales los cuales son estables hasta una temperatura muy elevada.


Ésta y otras características han llevado a los científicos a la conclusión de que este mineral se formó durante el proceso de condensación de la nebulosa solar.

En los análisis de este singular mineral arcaico también han trabajado Chi Ma del Instituto Tecnológico de California (Caltech) que hizo un examen mineralógico nanométrico, y Anthony Kampf del Museo de Historia Natural del Condado de Los Ángeles que hizo un análisis de difracción de rayos X。



subido por jiale!!

Crean neuronas a partir de células de la piel


Se ha conseguido desarrollar un método para generar neuronas derivadas de células cutáneas de pacientes con esquizofrenia. De ese modo, es posible estudiar neuronas de estas personas de forma segura y eficaz en una placa de Petri, sin tener que acceder al cerebro de los pacientes. Con este método, se da un paso más hacia el conocimiento pleno de los fundamentos biológicos de la esquizofrenia.

Se espera que este método, desarrollado por científicos de la Universidad Estatal de Pensilvania y otras instituciones, también sea utilizado para el estudio de otras enfermedades de causas y mecanismos poco claros, como el autismo y el trastorno bipolar. Los investigadores tienen también la esperanza de que contribuya a abrir las puertas hacia la medicina personalizada, es decir la aplicación de un tratamiento personalizado para cada paciente, basándose en su información genética y celular personal.

El trabajo de investigación que ha culminado en la puesta a punto de una primera versión de la técnica para crear neuronas a partir de células cutáneas comenzó con el equipo de Gong Chen tomando muestras de células de la piel de pacientes esquizofrénicos.

Luego, utilizando técnicas de biología molecular, Chen y sus colaboradores reprogramaron esas células originales del tejido epidérmico para convertirlas en células madre no especializadas, o indiferenciadas, llamadas células madre pluripotentes inducidas (iPSCs por sus siglas en inglés). Estas células madre tienen la capacidad de diferenciarse (o "convertirse" dicho de modo simplificado) en muchos tipos de células especializadas, como por ejemplo neuronas, glóbulos de la sangre, o células de tejido muscular, por citar algunos.


Tras generar células madre pluripotentes inducidas a partir de células de la piel, los investigadores las cultivaron bajo las condiciones adecuadas para convertirlas en neuronas.

Una vez obtenidas estas neuronas, las compararon con las obtenidas de individuos sanos mediante el mismo proceso.

Comprobaron que las neuronas generadas a partir de los pacientes esquizofrénicos eran ciertamente distintas a las obtenidas de personas sanas. En comparación con las neuronas sanas, establecían muchas menos conexiones entre sí.

Obviamente, extraer neuronas a una persona sólo para experimentar con ellas no es una opción razonable. Por tanto, generar réplicas de las neuronas del paciente en una placa de Petri es la mejor opción para propósitos de investigación científica. Con este método, los expertos pueden deducir cómo un determinado fármaco puede afectar a determinadas neuronas de un paciente, sin que éste tenga que probar dicho medicamento, y potencialmente, sufrir los efectos secundarios.


subido por jiale!

miércoles, 18 de mayo de 2011

Método más eficaz y más rápido de analizar datos de proteínas de interés médico en los genomas


Todos los tejidos vivientes están hechos de proteínas, y todas las proteínas están hechas de combinaciones de los mismos 20 componentes químicos básicos, llamados aminoácidos. La diferencia entre las proteínas que componen materiales biológicos tan variopintos como por ejemplo el hueso, la sangre, el pelo y los globos oculares, es en gran parte de forma.

Los genes son las recetas para unir los aminoácidos en proteínas, pero la manera en que esas cadenas se pliegan sobre sí mismas determina su forma. Así que conocer los papeles específicos de genes en ciertas enfermedades requiere conocer cómo exactamente se pliegan las proteínas.

Unos investigadores en el Laboratorio de Ciencias Informáticas e Inteligencia Artificial del MIT han demostrado una nueva y prometedora técnica para representar en modelos digitales ese plegamiento de proteínas.

Aunque esta técnica no es tan exacta como algunas de las ya usadas, es mucho más eficiente computacionalmente.

Las simulaciones convencionales, átomo por átomo, que consumen potencias de cálculo comparables a la suma de las de cientos de miles de ordenadores comunes, podrían tardar meses en modelar unos pocos milisegundos del proceso de plegado de una proteína. La nueva técnica puede modelar el mismo proceso en minutos y usando un solo ordenador portátil.

La velocidad es esencial a medida que la cantidad de datos genómicos no procesados prolifera. Cada vez hay más especies cuyos genomas han sido secuenciados, y esa información genómica se genera mucho más deprisa de lo que se tarda en analizarla. El análisis no es trivial, porque de él depende que se puedan hacer averiguaciones importantes sobre diversas enfermedades humanas. Comparar el genoma humano con los de otros animales sirve a menudo para encontrar pistas acerca de la relación entre ciertos genes y enfermedades específicas. Cuanto antes se haga un análisis somero de la información, antes se tendrá la posibilidad de hallar nuevos tratamientos para enfermedades.

Existen otros métodos “rápidos” de simulación del plegamiento proteico, pero el método del equipo de Charles O’Donnell, del MIT, parece ser más exacto.

Publicado por Borja

La espirometría consigue que el 16% de los fumadores abandonen el tabaco

El Instituto de Investigación en Atención Primaria Jordi Gol lleva a cabo un estudio en seis centros de atención primaria del Barcelonès Nord y Maresme, donde analiza la efectividad del consejo antitabaco junto con la discusión de los resultados de una espirometría, una sencilla prueba que puede realizar el médico de familia.


La espirometría es una prueba sencilla que permite cuantificar la obstrucción de aire en el pulmón y es altamente efectiva para el diagnóstico de la malalatia pulmonar obstructiva crónica (EPOC) en sus fases iniciales, cuando a menudo no da síntomas.

La EPOC afecta, según la Organización Mundial de la Salud, a unos 210 millones de personas en todo el mundo. Es una enfermedad infradiagnosticada, algunos estudios hablan de un 73% de malaltas no diagnosticados. Y, además, es una enfermedad que consume el 2% del presupuesto sanitario español.

En este escenario es evidente que el médico de familia se encuentra en una posición inmejorable para cambiar este escenario, si tenemos en cuenta que la espirometría es una prueba sencilla y accesible y que hasta un 70% de los fumadores visitan al menos una vez al año a su médico de familia.

Momento educativo con el médico de cabecera

El objetivo ha sido comprobar si la discusión detallada de los resultados obtenidos en las espirometrías más un consejo breve para dejar de fumar por parte del médico de atención primaria, puede facilitar el abandono o la reducción del hábito tabáquico entre sus pacientes.

Se ha aprovechado que los resultados de la espirometría pueden identificar precozmente anormalidades funcionales pulmonares en pacientes que no tienen ningún o pocos síntomas. El conocimiento por parte del paciente de estas pequeñas anormalidades se convierte en un 'momento educativo ideal' ya que empieza a ser consciente de que a pesar de no tener problemas de salud las cosas no van bien, y toma conciencia sobre el riesgo de llegar a sufrir un cáncer o una enfermedad cardiovascular, y por lo tanto, en este momento el paciente está mucho más receptivo a cualquier mensaje y consejo para dejar de fumar.

En el estudio han participado 317 fumadores mayores de 18 años que no han sido previamente diagnosticados de EPOC, que no presentaban problemas para hacer una espirometría y que no padecían enfermedad grave u otra patología respiratoria.

La mitad empezaron antes de los 17

El 50% de los pacientes que han participado en el estudio habían comenzado a fumar a los 17 años o antes. De los pacientes fumadores, un 50% fumaba un paquete diario o más, y además, estos pacientes fumadores, el 50% llevaban fumando 31 años o más.

Un 42,3% había realizado intentos previos de abandono del tabaco. Se observa que las personas de más edad abandonan más, de manera que entre los menores de 40 años abandonan el tabaco un 15%, entre los que tienen 40 y 60 años abandonan un 19,7% y entre los que tienen más de 60 años abandonan un 23,5%. Además, abandonan los hombres (13,7%) que las mujeres (8,1%).

También se ha observado que los fumadores que han presentado alteraciones espirométricas abandonan más el tabaco que los que han presentado una espirometría normal.

En el momento de hacer las espirometrías, un 15% presentó un patrón obstructivo-mixto, es decir, que expulsaban el aire más poco a poco de lo normal, y en algunos casos no lo acaban de expulsar del todo ; un 57,7%, presentaba una obstrucción leve, un 30,6% moderada y un 5,1% grave.

Los investigadores creen que "los resultados del estudio aportan un mejor conocimiento de cómo influye en los fumadores saber los resultados obtenidos en su espirometría y como estos mismos resultados pueden ser un refuerzo del consejo antitabaco breve y estructurado que de forma reiterativa y recordatoria se da desde las consultas de la Atención Primaria ".

Publicado por Borja

martes, 17 de mayo de 2011

Puede haber planetas habitables cerca de estrellas enanas blancas


Los cazadores de planetas han descubierto cientos de ellos fuera del sistema solar en la última década, aunque no está claro si alguno podría ser habitable. Asombrosamente, según las conclusiones de un estudio reciente, podría ser que el mejor lugar en el que buscar planetas capaces de sustentar vida fuese alrededor de las estrellas moribundas conocidas como enanas blancas.

El astrónomo Eric Agol de la Universidad de Washington, sugiere que los planetas potencialmente habitables en órbita a estrellas enanas blancas podrían ser mucho más fáciles de encontrar que otros exoplanetas (planetas de otros sistemas solares) localizados hasta ahora.

Las enanas blancas, que son estrellas que se están enfriando y que han alcanzando la etapa final de su vida, suelen tener alrededor del 60 por ciento de la masa de nuestro Sol, pero comprimido en un volumen como el ocupado por la Tierra. Si bien las enanas blancas jóvenes comienzan estando muy calientes, se acaban enfriando, alcanzando temperaturas mucho más bajas que la del Sol, y emitiendo sólo una fracción de su energía, por lo que las zonas orbitales a su alrededor en la que los eventuales planetas podrían disfrutar de temperaturas aptas para la vida están significativamente más cerca de sus respectivas estrellas de lo que se encuentra la Tierra respecto del Sol.

Tal como argumenta Agol, si un planeta del tipo de la Tierra está lo bastante cerca de su enana blanca, podría tener una temperatura estable el tiempo suficiente como para albergar agua líquida en la superficie, y eso es un factor importante para la habitabilidad.

Lunes, 16 mayo 2011
Astronomía
Puede haber planetas habitables cerca de estrellas enanas blancas
Dirección de su amigo: La dirección suya: Comentario: Enviar a amigo
Los cazadores de planetas han descubierto cientos de ellos fuera del sistema solar en la última década, aunque no está claro si alguno podría ser habitable. Asombrosamente, según las conclusiones de un estudio reciente, podría ser que el mejor lugar en el que buscar planetas capaces de sustentar vida fuese alrededor de las estrellas moribundas conocidas como enanas blancas.

El astrónomo Eric Agol de la Universidad de Washington, sugiere que los planetas potencialmente habitables en órbita a estrellas enanas blancas podrían ser mucho más fáciles de encontrar que otros exoplanetas (planetas de otros sistemas solares) localizados hasta ahora.

Las enanas blancas, que son estrellas que se están enfriando y que han alcanzando la etapa final de su vida, suelen tener alrededor del 60 por ciento de la masa de nuestro Sol, pero comprimido en un volumen como el ocupado por la Tierra. Si bien las enanas blancas jóvenes comienzan estando muy calientes, se acaban enfriando, alcanzando temperaturas mucho más bajas que la del Sol, y emitiendo sólo una fracción de su energía, por lo que las zonas orbitales a su alrededor en la que los eventuales planetas podrían disfrutar de temperaturas aptas para la vida están significativamente más cerca de sus respectivas estrellas de lo que se encuentra la Tierra respecto del Sol.

Tal como argumenta Agol, si un planeta del tipo de la Tierra está lo bastante cerca de su enana blanca, podría tener una temperatura estable el tiempo suficiente como para albergar agua líquida en la superficie, y eso es un factor importante para la habitabilidad.



En nuestro vecindario cósmico, un planeta tan cerca de su estrella puede ser observado con un telescopio cuando el planeta pasa por delante (desde nuestro punto de vista), atenuando la luz de la enana blanca.

Las enanas blancas se convierten en tales tras haber pasado por otras fases, y una de ellas es ser estrellas parecidas al Sol. Cuando los núcleos de tales estrellas ya no pueden producir las reacciones nucleares que convierten el hidrógeno en helio, comienzan a usar el hidrógeno presente fuera del núcleo. Se inicia su transformación estelar en una gigante roja, con una atmósfera tan expandida que normalmente envuelve (y destruye) a los planetas cercanos a ella, como la Tierra respecto del Sol.

Por último, la estrella se despoja de su atmósfera exterior, dejando un núcleo brillante con una temperatura superficial de alrededor de 5.000 grados Celsius pero que poco a poco se va enfriando. Ese núcleo compacto es lo que llamamos enana blanca. La estrella está esencialmente inactiva. Produce calor y luz de la misma manera en que las ascuas de un fuego apagado siguen dando calor y algo de luz. En el caso de una enana blanca, sus "ascuas" pueden tardar hasta 3.000 millones de años en enfriarse del todo.

Una vez que la gigante roja se ha despojado de su atmósfera exterior, los planetas más distantes que estaban más allá del alcance de esa atmósfera podrían comenzar a acercarse hacia la enana blanca como consecuencia de efectos orbitales y gravitatorios. También es posible que se formen nuevos planetas a partir del anillo de escombros dejados por la transformación de la estrella.

En cualquier caso, un planeta debería moverse muy cerca de la enana blanca para ser habitable, quizás a entre 800.000 y 3.200.000 kilómetros de la estrella. Esto es mucho menos que la distancia que separa a Mercurio del Sol. De hecho, es sólo entre 2 y 8 veces la distancia entre la Tierra y la Luna.

Desde el planeta ubicado en la franja orbital habitable, la estrella podría aparecer un poco más grande que nuestro Sol, debido a su cercanía, y verse un poco más anaranjada, aunque en muchos aspectos parecería muy similar a nuestro Sol.


El planeta también estaría anclado rotacionalmente debido a la cercanía de la estrella. El campo gravitatorio de ésta haría que el planeta girase sobre sí mismo en sincronía con su movimiento alrededor de la estrella, de tal modo que siempre le mostraría la misma cara a la estrella, con el resultado de que en ese hemisferio siempre sería de día, y en el opuesto siempre de noche. Las áreas más habitables del planeta podrían ser los bordes de la zona iluminada, cerca del lado oscuro del planeta, es decir la franja del alba o crepúsculo perpetuos.

La enana blanca más cercana a la Tierra es Sirio B, a una distancia de unos 8,5 años luz. Se cree que en el pasado fue cinco veces más masiva que el Sol, pero ahora tiene casi su misma masa aunque compactada en un volumen similar al de la Tierra.

Agol propone escudriñar las 20.000 enanas blancas más cercanas a la Tierra. Calcula que utilizando un telescopio de 1 metro ubicado en la superficie de la Tierra, una estrella podría ser estudiada lo suficiente en 32 horas de observación.

Si no se observase un oscurecimiento de la luz de la estrella en ese tiempo, ello significaría que no existe en órbita a la enana ningún planeta lo bastante cerca de ella como para ser habitable.

En cambio, un oscurecimiento periódico de la estrella podría delatar la existencia de un planeta cerca de ella, al pasar éste por delante de la estrella

Esta noticia ha sido subida pòr Kieran

Las arañas saben espiar el lenguaje vibratorio de otros animales


Analizando el comportamiento de ciertas arañas, unos expertos de la Escuela de Biociencias de la Universidad de Cardiff, Reino Unido, han descubierto que las vibraciones utilizadas por muchos insectos para atraer a su pareja pueden ser interceptadas por arañas, que se valen de ellas para detectar a sus presas.

Ya se sabía que los depredadores aprovechan las comunicaciones visuales, sonoras y olfativas de sus presas. Pero ésta es la primera vez que se descubre que hay depredadores, arañas en este caso, capaces de captar y reconocer estas señales vibratorias.

Meta Virant-Doberlet y William Symondson hicieron el descubrimiento al observar el comportamiento de una especie de araña, la Enoplognatha ovate, pariente de esa araña altamente venenosa y de mala fama que es la Viuda Negra. Es previsible, sin embargo, que esta capacidad de espionaje vibracional la posean muchas otras especies de arañas.

En los experimentos, cuando los investigadores ponían en marcha las grabaciones de las señales vibratorias emitidas por los machos de cierta especie de insectos, las arañas avanzaban hacia el origen de la señal, en busca de la presa.

También se observó que las arañas tienden a perseguir más a los machos que a las hembras, probablemente debido a la mayor complejidad y "estrépito" de las señales utilizadas por los machos durante el cortejo, lo que pone sobre aviso a las arañas con más facilidad.

A pesar de que la señalización mediante vibraciones está muy extendida entre los animales, ésta es la primera vez que se comprueba que los depredadores pueden utilizar estas señales para encontrar a sus presas. Los autores del estudio creen que esto abre un nuevo campo de investigación científica.

Esta noticia ha sido subida por Kieran

Diseñan el material de carbono más ligero del mundo


Un equipo de investigación ha diseñado el material de carbono más ligero del mundo. Tan singular material podría usarse para detectar agentes contaminantes y sustancias tóxicas, mejorar las técnicas de cirugía robótica y almacenar energía más eficazmente

El nuevo material pertenece a la familia de los sólidos más ligeros, también conocidos por su nombre técnico de aerogeles o por su apodo común de "humo helado".

El equipo de Lei Zhai y Jianhua Zou, de la Universidad de Florida Central, es responsable del desarrollo de este material, un aerogel a base de nanotubos de carbono de pared múltiple.

Usando los nanotubos en lugar de la sílice (el principal componente de la arena), base para el aerogel tradicional, se incrementan los usos prácticos del material.

Las tiras de aerogel de nanotubos de carbono de pared múltiple podrían usarse en dedos y manos para robots, a fin de hacerlos extremadamente sensibles y darles la capacidad de distinguir de manera táctil entre objetos y aferrar a cada cual con la firmeza y la delicadeza necesarias.

Por otra parte, como los nanotubos tienen un área superficial grande, podría ser viable almacenar grandes cantidades de energía en el aerogel, algo que permitiría aumentar de modo notable la capacidad de las baterías de litio, o la de los supercondensadores, que se utilizan para almacenar la energía generada a partir de fuentes renovables como el sol y el viento.

Combinar la mayor área superficial y una conductividad eléctrica mejorada también es importante para el desarrollo de sensores que puedan detectar toxinas capaces de contaminar la comida o el agua potable. Y la misma técnica puede usarse para desarrollar equipamiento capaz de detectar explosivos aunque estén presentes en cantidades tan ínfimas como las que quedan en el ambiente de una habitación en la que se ha preparado una bomba.

Esta noticia ha sido subida por Kieran

La infección de la bacteria causante de la salmonelosis depende del hierro


Salmonella enterica, una de las principales bacterias causantes de infecciones gastrointestinales, modula la expresión de los genes implicados en su virulencia según la concentración de hierro libre que hay en el epitelio intestinal de su huésped. Investigadores de la Universitat Autònoma de Barcelona (UAB) han demostrado por primera vez que el patógeno activa estos genes a través de la proteína Fur, que actúa como un sensor de la concentración de hierro que hay en su entorno.

La investigación, publicada en línea en la revista PLoS ONE con el título “Fur activates the expression of Salmonella enterica pathogenicity island 1 by directly interacting with the hilD operator in vivo and in vitro”, ha sido realizada por el Grupo de Microbiología Molecular del Departamento de Genética y Microbiología de la UAB, coordinado por el Dr. Jordi Barbé. Ha colaborado también el grupo de investigación del doctor Juan Carlos Alonso, del Centro Nacional de Biotecnología del CSIC.

El hierro es un elemento vital para el desarrollo de casi todos los organismos vivos, por eso todos han desarrollado sistemas de captación que aseguran su adquisición del medio externo. Pero concentraciones demasiado elevadas en el interior celular pueden tener efectos nocivos, por lo que los organismos disponen también de sistemas para controlarlas.

En los animales vertebrados este control favorece una primera barrera de defensa conocida como inmunidad nutricional, que restringe la cantidad de hierro libre en todos los fluidos corporales y evita el desarrollo de los patógenos. Sólo el tracto intestinal superior, debido a su condición anaeróbica, presenta una concentración de hierro libre apreciable. En la mayoría de bacterias gramnegativas, como Salmonella enterica, el control de los niveles de hierro lo ejerce la proteína Fur (de Ferric uptake regulator), que interacciona con el DNA y ajusta la producción de sistemas de captación y de almacenamiento de este elemento en el citoplasma celular.

Salmonella enterica es uno de los patógenos bacterianos más importantes asociados con brotes de origen alimentario y responsable de numerosas enfermedades, que van desde la gastroenteritis a infecciones sistémicas que afectan a muchos animales, también a los humanos. En los primeros estadios de la infección, esta bacteria penetra a través del epitelio intestinal del huésped gracias a la presencia de un complejo sistema de proteínas, denominado T3SS. Pero la activación del T3SS le resulta energéticamente muy costosa, por lo que dispone de muchos sistemas que controlan que su expresión se produzca justo en el momento que la necesita.

El trabajo publicado por los investigadores de la UAB indica que una de las señales externas que controla la activación del T3SS es la concentración de hierro libre de su huésped, y que este control lo ejerce mediante la proteína Fur. Así, cuando la bacteria detecta, mediante Fur, que la concentración de hierro es elevada, interacciona con su DNA y activa la expresión del T3SS que le permitirá la invasión del epitelio. En cambio, una vez superada la barrera epitelial, las concentraciones del hierro libre presentes en el huésped disminuirán drásticamente gracias a todos los sistemas de secuestro de hierro de los que éste dispone. Entonces T3SS permanecerá silente, evitando así un gasto energético innecesario.

El trabajo demuestra por primera vez que Fur no sólo actúa como un sensor de la concentración de hierro y regulador del equilibrio de este elemento en el interior celular de la bacteria, sino que también puede facilitar que el patógeno detecte su localización durante el proceso infeccioso en el huésped, actuando como activador directo para la invasión. La investigación refuerza la idea que Fur es capaz de modular la expresión génica, adaptándola a las necesidades en cada estadio de la infección.

Los resultados obtenidos demuestran que la profundización en el estudio a nivel molecular de las interacciones huésped - patógeno sobre el hierro ha de permitir, en un futuro, desarrollar nuevas estrategias para el diseño de vacunas y quizás también descubrir nuevas dianas de acción de antibacterianos para luchar contra las enfermedades infecciosas. De hecho, el grupo de Microbiología Molecular del Departamento de Genética y Microbiología de la UAB estudia desde hace años los mecanismos bacterianos de captación de cationes divalentes y sus sistemas de control. Esta línea de investigación le ha permitido la publicación de numerosos artículos científicos en revistas de prestigio, y patentar y licenciar una vacuna contra la bacteria patógena Pasteurella multocida, basada en sus mecanismos de captación de hierro.

Esta noticia ha sido publicada por Kieran

El posible 'eslabón perdido' del reino de los hongos

Un equipo internacional de científicos, en el que participan investigadores del Consejo Superior de Investigaciones Científicas (CSIC), ha descubierto un nuevo grupo evolutivo de hongos. Denominado cryptomycota, su composición –organismos unicelulares muy pequeños y sin pared celular– sugiere que el grupo ocupa un estado intermedio en la cadena evolutiva fúngica.

“El hallazgo obliga a cambiar radicalmente la estructura del árbol de la vida de un grupo que se daba por definido evolutivamente, ya que se viene estudiando desde hace 150 años”, explica Ramón Massana, uno de los autores del estudio e investigador del Consejo Superior de Investigaciones Científicas (CSIC) en el Instituto de Ciencia del Mar (Barcelona).

Investigadores del CSIC y de la Universidad de Exeter (Inglaterra) han descubierto un nuevo grupo evolutivo de hongos, un auténtico eslabón perdido en el árbol de la vida fúngica que parece representar un estado intermedio en la evolución que dio lugar a los hongos actuales.

Bautizado como cryptomycota (′hongos ocultos′ en griego) a la espera de una clasificación formal, el nuevo grupo, revelado en un artículo de la revista Nature, se compone de organismos unicelulares muy pequeños, de tres a cinco micras, que presentan un ciclo de vida con varias fases: células de vida libre con o sin flagelos y células asociadas a otros organismos.

En ninguna de las fases se detectó quitina, el componente fundamental de la pared celular de todos los hongos conocidos hasta el momento y que condiciona sus estrategias de alimentación y crecimiento. “Estas características parecen sugerir que el grupo representa un estado intermedio en la evolución que finalmente derivó a los hongos conocidos”, afirma Massana.

Además, la diversidad genética detectada dentro del grupo y su prevalencia hacen pensar que puedan jugar un papel importante, pero todavía impredecible, dentro de los procesos ambientales

Los organismos se detectaron en muestras de la laguna del campo de la Universidad de Exeter, al descubrir un grupo inusual en las secuencias de ADN. “Fue al iluminar las células de cryptomycota con sondas fluorescentes cuando se vieron por primera vez estos nuevos hongos. Asimismo, la combinación de diversas técnicas microscópicas nos permitió detectar la ausencia de pared celular”, señala Irene Forn, otra de las autoras del estudio en investigadora del Instituto de Ciencias del Mar.

Hasta ahora, los científicos saben que los hongos son muy importantes en su interacción con otros seres vivos y que son los principales responsables de la descomposición y reciclaje de plantas y animales muertos. En el caso de las cryptomycota, aún queda mucha investigación para comprender cómo se alimentan, crecen y se reproducen.

Esta noticia ha sido publicado por Kieran

sábado, 14 de mayo de 2011

El secreto de la capacidad adherente de los animales que caminan por paredes y techos



El secreto de la capacidad adherente de los animales que caminan por paredes y techos. (Foto: Tim Evison)

La presencia de conjuntos de pelillos microscópicos adherentes en los "pies" de muchos insectos, lagartos y arañas les capacita para subir por casi cualquier superficie natural. Una nueva investigación ha revelado que las diferentes fuerzas necesarias para despegar estos pelillos adhesivos de las superficies son las que permiten a los escarabajos adherirse a tipos distintos de superficies y, por tanto, reducir el riesgo de desprendimiento accidental y caída, o el de afianzarse tanto que no puedan luego despegarse.

En este estudio, James Bullock y Walter Federle, de la Universidad de Cambridge en el Reino Unido, han logrado hacer las primeras mediciones de esta fuerza adhesiva en pelillos microscópicos individuales de un animal vivo.

Se sabe que los pelillos adhesivos en las patas de los escarabajos analizados toman tres formas distintas: puntiagudos, planos (punta de espátula) y con rasgos parecidos a los de un disco. Están dispuestos en configuraciones específicas en los pies del escarabajo, lo que indica que cada tipo de pelillo tiene funciones biológicas diferentes de las de los pelillos de las otras clases.

Dado el pequeño tamaño de cada pelo, no existía ninguna manera de determinar sus propiedades individuales. Bullock y Han Federle han diseñado y utilizado un método para medir el grado de adherencia de cada pelillo en el propio animal vivo.

Los resultados en los escarabajos macho mostraron que los pelillos con rasgos parecidos a los de un disco son los que se adhieren con mayor fuerza, seguidos por los de punta de espátula y, por último, los puntiagudos.

Se comprobó además que los pelillos con rasgos parecidos a los de un disco eran más rígidos que los planos o los puntiagudos; por eso, probablemente, sean los que proporcionen la estabilidad.

Bullock y Federle sugieren que son específicamente estos pelillos con rasgos parecidos a los de un disco los que permiten a los escarabajos macho lograr una fuerte adherencia en superficies lisas. Esta capacidad es también importante para los machos durante la cópula, para aferrarse con firmeza a la parte posterior de las hembras. Los otros tipos de pelillos, más fáciles de despegar, pueden ayudar a que el escarabajo levante con la suficiente rapidez sus pies cuando corre por un techo o superficie comparable.


subido por jiale!!

Simulando la circulación de la sangre en una supercomputadora


En el interior de una arteria cualquiera del cuerpo humano, reina una agitación constante: los glóbulos discurren de modo abrupto entre cientos de ellos, chocando contra otras células y contra las paredes a medida que avanzan. La gran cantidad de variables implicadas en este desplazamiento, y la inmensidad del sistema circulatorio humano, han evitado que los científicos documenten en profundidad la agitación que se da en los vasos sanguíneos.

Este bullicio es tema de estudio en el campo de la ciencia que se conoce como biofísica, ya que como mejor se describen las fuerzas que gobiernan los movimientos de los glóbulos rojos de la sangre a esta escala es mediante las leyes de la física.

De hecho, es posible mapear la circulación sanguínea con ayuda de las matemáticas. Eso es exactamente lo que un equipo de científicos de la Universidad Brown dirigido por G. E. Karniadakis y un grupo de expertos del Laboratorio Nacional estadounidense de Argonne están haciendo en la supercomputadora del laboratorio, con la esperanza de que un mejor mapeo conduzca a mejores diagnósticos y tratamientos para los pacientes con problemas de circulación sanguínea.

Aunque se ha recorrido un largo camino desde los antiguos griegos, quienes creían que el hígado producía la sangre, hay mucho que no sabemos de ella. Las supercomputadoras más modernas y potentes han permitido que los científicos creen modelos detallados del flujo sanguíneo que ayudan a los médicos a conocer mejor lo que sucede a escala molecular y, en consecuencia, cómo tratar más eficazmente enfermedades del corazón y la sangre.

Una parte del estudio consiste en mapear de modo muy detallado cómo se mueven los glóbulos rojos a través del cerebro.


Los glóbulos rojos son blandos y elásticos; necesitan comprimirse y flexionarse al pasar a través de pequeños capilares, para llevar la sangre a todas las áreas del cerebro.

Sin embargo, las células infectadas por la malaria se endurecen y se adhieren a las paredes, lo que acaba taponando los vasos sanguíneos. Las víctimas mortales de la malaria mueren por falta de oxígeno en el tejido cerebral. Un conocimiento más completo de cómo se mueve la sangre a través del cerebro permitiría a los médicos conocer con mayor precisión el progreso de enfermedades que afectan de un modo u otro a su circulación.




subido por jiale!

La capacidad de las palomas para reconocer emociones en rostros humanos

Se ha descubierto que las palomas pueden reconocer la expresión de emociones en un rostro humano, así como la identidad de éste, de un modo muy similar a como lo hacemos los seres humanos.

Los psicólogos Ed Wasserman y Fabian Soto de la Universidad de Iowa, en Estados Unidos, hicieron que unas palomas observaran fotografías de rostros humanos que variaban tanto en expresión emocional (por ejemplo, un ceño fruncido o una sonrisa) como en la identidad del rostro.

En un primer experimento, descubrieron que las palomas, como los humanos, perciben la similitud de rostros en cuanto a identidad y emoción.

En un segundo y crucial experimento, se hizo que las palomas clasificaran las fotografías por uno de estos aspectos e ignoraran el otro. A las palomas les fue más fácil ignorar las emociones reflejadas en un rostro humano al reconocer la identidad de personas, que ignorar la identidad de éstas al reconocer emociones en rostros humanos.

En los experimentos con sujetos humanos, se ha detectado esta asimetría muchas veces, y siempre se ha creído que es el resultado de la organización particular del sistema humano de procesamiento de rostros.

Los autores del nuevo estudio han proporcionado la primera evidencia que sugiere que este efecto puede ser el resultado de procesos mentales presentes en otros vertebrados.



En este proyecto, los investigadores estudiaron a las palomas porque tienen una excelente visión y no son parientes evolutivos cercanos de los humanos.

Las palomas no tienen un sistema especializado para el procesamiento de rostros, pero sin embargo muestran similitudes con nosotros cuando están entrenadas para reconocer rostros humanos. La interpretación más simple de estas similitudes mentales es que son el resultado de los procesos de reconocimiento general compartidos por ambas especies.



subido por jiale!

Zoología Viernes, 13 mayo 2011 Astronomía Asteroides con núcleo fundido como el de la Tierra


Un nuevo análisis de un meteorito que cayó en México, y que es uno de los meteoritos más conocidos en la Tierra, ha proporcionado evidencias bastante contundentes de que es erróneo el concepto comúnmente aceptado que se tiene sobre muchos asteroides.

En vez de ser un conglomerado de rocas y polvo adheridos y mezclados al azar, parece que el asteroide que dio origen al meteorito de Allende era lo bastante grande como para haber poseído un núcleo fundido, a pesar de mantener una superficie fría y sólida. Y cabe esperar que bastantes otros asteroides compartan esta misma característica en su historia geológica.


Lo descubierto en este nuevo análisis también proyecta dudas sobre la teoría más aceptada de cómo se formaron planetas como la Tierra.


El meteorito de Allende cayó en México en 1969. En su vertiginoso descenso, su roce con la atmósfera lo calentó y fragmentó en miles de pedazos que se dispersaron, impactando en un área desértica de decenas de kilómetros. Se han encontrado más de dos toneladas de trozos dispersos, y quizás sea el meteorito que mejor ha sido estudiado.


La nueva investigación a cargo de especialistas del MIT, en Estados Unidos, y otras instituciones, también proporciona importantes datos sobre el proceso completo de formación planetaria y el tiempo que consumió. El análisis muestra que el cuerpo que dio origen al meteorito de Allende debió formarse en un proceso que no duró más de un millón y medio de años. Todo apunta a que no fue un caso raro, sino que muchos planetesimales como ese se formaron en tan breve periodo de tiempo.


La Tierra se formó de la unión de muchos planetesimales. Los cálculos realizados por el equipo de Benjamin Weiss, Laurent Carporzen y Linda Elkins-Tanton, indican que esos planetesimales lograron conservar suficiente agua como para permitir la creación de los océanos.




Estos resultados contradicen la idea hoy más aceptada por la comunidad científica sobre la formación planetaria, la de que la gran mayoría del agua y de otros materiales volátiles en la Tierra llegó después de que se unieran los planetesimales, proporcionada por cometas y asteroides que cayeron a la Tierra.


Estos resultados también implican que la aportación de agua de los planetesimales a los planetas debe ser común en la formación planetaria, y por tanto se incrementan mucho las probabilidades de que la mayoría de los planetas alrededor de otras estrellas también tenga abundante agua, lo cual se considera un requisito indispensable para la vida tal y como la conocemos.


subido por jiale

viernes, 13 de mayo de 2011

Posible modo de evitar aumentos peligrosos de presión arterial en personas hipertensas cuando hacen ejercicio físico

Se ha conseguido identificar una razón de por qué las personas con hipertensión experimentan un incremento aún mayor en la presión arterial cuando hacen ejercicio físico, y se ha determinado cómo prevenir esta elevación.

Aunque existen muchos medicamentos eficaces para bajar la presión arterial estando en reposo, muy pocos resultan efectivos cuando se está haciendo ejercicio físico.

No hacer ejercicio puede evitar problemas a corto plazo, pero los acaba creando a largo plazo, pues el sedentarismo merma la salud, incluyendo la cardiovascular.

Algunas personas con presión arterial alta dejan de hacer ejercicio por temor a un ataque al corazón o un derrame cerebral, y a veces los médicos aconsejan a los pacientes limitar la actividad a causa de ese peligro.

Aunque se sabía que cuando las personas con hipertensión hacen ejercicio físico se incrementa su presión arterial, no se había podido identificar el mecanismo subyacente en el fenómeno ni un modo adecuado de bloquearlo en los humanos.

Ahora, el equipo de la Dra. Wanpen Vongpatanasin del Centro Médico del Sudoeste, dependiente de la Universidad de Texas, ha comprobado que cuando las personas hipertensas realizan ejercicio físico, disminuye el flujo sanguíneo y el oxígeno en sus músculos.
También ha identificado un tipo específico de medicamento para regular la presión arterial que minimiza este efecto, y que podría pasar a ser recetado para tal fin por los cardiólogos en un futuro cercano, o dar lugar a fármacos más específicos para combatirlo.

Subido por Borja

Las herramientas de los neandertales llegaron a los Urales


Un equipo internacional de científicos ha encontrado cientos de herramientas en un yacimiento arqueológico de los Urales Polares (Rusia). Los utensilios, de 33.000 años de antigüedad, podrían haber sido tallados por los neandertales o por otra especie posterior, heredera de esta tradición artesanal.
“Las herramientas encontradas sugieren que el neandertal no desapareció debido a los cambios climáticos ni a una inferioridad cultural”, explica a SINC Ludovic Slimak, autor principal del estudio e investigador de la Universidad de Toulouse - Le Mirail (Francia).

Los científicos han descubierto 313 herramientas humanas en la región de Byzovaya, un yacimiento arqueológico ubicado en los Urales Polares, la zona norte de los montes rusos. El trabajo, publicado en Science, revela que estos útiles tienen 33.000 años de antigüedad aunque se asemejan a herramientas usadas en culturas más primitivas.

Según los autores, los utensilios serían reliquias procedentes de uno de los últimos refugios del norte de los neandertales. Sin embargo, la ausencia de fósiles humanos en el yacimiento hace imposible atribuir las herramientas a esta especie con seguridad.

Lo que confirman los investigadores es su similitud con la tecnología del Paleolítico Medio (hace entre 130.000 y 33.000 años), en un momento en que las culturas del Paleolítico Superior (hace entre 33.000 y 9.000 años) se asentaban en la región. El Paleolítico Medio albergó la cultura Musteriense, basada en el uso de herramientas de sílex y cuarcita.

“El hallazgo es uno de los más recientes de la cultura Musteriense de todo el planeta”, indica Slimak. “Resulta difícil afirmar si esta tradición es un indicador de la persistencia de los neandertales”, añade. Esta especie fue reemplazada por otras más modernas hace entre 75.000 y 50.000 años.

Útiles propios del Paleolítico Medio

Las herramientas encontradas están formadas por bifaces (utensilios terminados en punta), núcleos de piedra y otras herramientas, todas ellas con las características propias de los instrumentos del Paleolítico Medio. Los útiles, entre los que se hallaron además restos de mamuts y de otros animales, son muy parecidos a otros descubiertos en Europa y tallados por los neandertales.

Según el estudio, si esta especie construyó las herramientas halladas en los Urales significa que hubo dos especies de humanos coexistiendo en un período de tiempo mayor que el calculado por los científicos.

Por el contrario, si los instrumentos fueron tallados por humanos modernos, como el Homo sapiens, implicaría que éstos conservaron la cultura del Paleolítico Medio incluso después de la expansión por todo el mundo de las sociedades modernas del Paleolítico Superior.

En opinión de Slimak, el hallazgo añade nuevos datos sobre la desaparición de los neandertales. “El fin de la especie probablemente se debió a procesos históricos y por eso, no puede ser ni explicado ni modelado en su conjunto’”, concluye.

Subido por Borja

miércoles, 11 de mayo de 2011

El planeta enano Haumea brilla con hielo cristalino



El quinto planeta enano del sistema solar, Haumea, y al menos uno de sus dos satélites, mantienen agua helada cristalina gracias a las fuerzas mareales entre ellos y al calor de elementos radiactivos. Así lo refleja un estudio internacional, con participación española, realizado con las observaciones del telescopio VLT del Observatorio Europeo Austral en Chile.
Más allá de la órbita de Neptuno se mueve el diminuto y extraño planeta Haumea. Presenta una forma de balón de rugby aplanado de unos 2.000 km de largo, que da un giro completo en menos de cuatro horas, con una de las velocidades de rotación más rápidas del sistema solar. El hielo cristalino que cubre este planeta y sus dos satélites (Hi’iaka y Namaka) les hace brillar en la oscuridad del espacio.

Ahora un equipo internacional de investigadores ha confirmado que el 75% de Haumea y el 100% de Hi’iaka (de unos 400 km de diámetro) están cubiertos de agua congelada cristalina (con estructura ordenada), y no, como cabría esperar, por hielo amorfo desorganizado por la radiación solar. El estudio plantea que el planeta está formado por la capa exterior helada y una fracción interna de entre un 88% y 97% de roca (con una densidad de 3,5 g/cm3).

“Como la radiación solar destruye constantemente la estructura cristalina del hielo en la superficie, se requieren fuentes de energía que lo mantengan organizado; y las dos que consideramos son la que puedan generar elementos radiactivos (potasio-40, torio-232 y uranio-238) desde el interior, y los efectos de marea entre Haumea y sus satélites (como ocurre entre la Tierra y la Luna)”, explica a SINC Benoit Carry, coautor del trabajo e investigador del centro ESAC de la Agencia Espacial Europea (ESA) en la Comunidad de Madrid.

El investigador también destaca otras particularidades de Haumea: “Su plano orbital está inclinado 28º respecto al habitual de los planetas del sistema solar, las órbitas de sus satélites tampoco están en el mismo plano –lo que es muy poco frecuente–, y todo el sistema pertenece a una familia única dentro de los objetos helados del Cinturón de Kuiper (a una distancia de entre 4,5 y más de 15 mil millones de kilómetros del Sol)”.

Según los científicos, el impacto de otro objeto sobre Haumea pudo originar los dos satélites y activar la rápida rotación del planeta enano (3,9 horas), además de moldearle con la forma de balón de rugby. Algunos modelos numéricos demuestran que un choque bastante tangencial puede producir esta configuración.
Para realizar el estudio, que publica la revista Astronomy & Astrophysics, se han utilizado las observaciones del instrumento SINFONI del Very Large Telescope (VLT), el enorme telescopio del Observatorio Europeo Austral (ESO) en Chile. El astrónomo Christophe Dumas de ESO ha liderado desde allí la investigación.

“SINFONI es un espectrómetro de campo integral que permite obtener ‘cubos de datos’ en los que dos dimensiones son espaciales (como las de cualquier imagen plana) y una tercera es espectral, lo que significa que cada capa del cubo es una imagen tomada con un tamaño de onda diferente”, aclara Carry.
Los misterios y polémicas de Haumea

El científico reconoce que todavía no se conocen con exactitud las órbitas y tamaños del planeta enano (se manejan unas dimensiones aproximadas de unos 2.000 x 1.500 x 1.000 km) ni de sus satélites. En realidad se trata de puntos brillantes muy alejados, cuyos datos se obtienen de forma indirecta.

En el caso del pequeño Namaka (de unos 200 km de diámetro), la señal en el momento de la observación era tan débil que no se logró obtener información sobre su superficie, aunque sí nuevos datos orbitales. Por su parte, los modelos sobre las fuerzas mareales en este sistema tan extraño también se están mejorando.

Otro de los misterios de Haumea es la presencia de una mancha oscura y rojiza, que contrasta con su color blanquecino del planeta. “Mi interpretación de la fotometría de infrarrojos es que esa zona podría ser más rica en agua helada cristalina que el resto de la superficie”, comenta a SINC Pedro Lacerda, codescubridor de la mancha y astrónomo en la Universidad de Queen en Belfast (Reino Unido). El investigador tampoco descarta que algún tipo de mineral o materia orgánica irradiada pueda generar esta coloración.

Haumea es el quinto planeta enano del sistema solar, junto a Plutón, Ceres, Eris y Makemake. Su existencia se comunicó en 2005 y entonces se denominó 2003 EL61 (según el código de nomenclatura internacional: año de la primera observación, quincena y número de orden).

Dos equipos de astrónomos se disputaron el descubrimiento. Por una parte, el grupo del investigador español José Luis Ortiz Moreno del Instituto de Astrofísica de Andalucía (CSIC), y por otra, el del astrofísico Michael E. Brown del Instituto Tecnológico de California (Caltech, EE UU).

Al final, la Unión Astronómica Internacional optó por aceptar el descubrimiento del equipo español, pero bautizar al extraño planeta enano y sus satélites con los nombres que propuso el grupo estadounidense. En la mitología hawaiana Haumea es la diosa de la fertilidad y los partos, e Hi’iaka y Namaka dos de sus hijas.

Subido por Borja

Los ratones de campo, ingenieros de la regeneración forestal


Las investigaciones realizadas en el Hayedo de Montejo por científicos de la ETSI de Montes de la Universidad Politécnica de Madrid (UPM) demuestran que los ratones de campo transportan bellotas a distancias lejanas, hasta los 130 metros, y las ocultan bajo el suelo o entre la hojarasca. Muchas de ellas quedan olvidadas y favorecen así la dispersión y regeneración natural de los robles.
Las bellotas, que son los frutos de robles, encinas, alcornoques y quejigos, resultan un alimento muy nutritivo y apetecido por buena parte de la fauna. Son muchos los animales implicados en el consumo de bellotas, desde pequeños escarabajos que perforan la cáscara para alimentarse de las reservas, hasta grandes corzos y jabalíes que las comen ávidamente, pasando por animales de tamaño medio como los ratones de campo o aves tan vistosas como el arrendajo o el trepador azul.

Sin embargo, no todos ellos se dedican solo a comer bellotas sino que además algunos las esconden en madrigueras, bajo el suelo, o en oquedades junto a los troncos de los árboles. Estos animales son los denominados 'dispersores', porque se encargan de transportar las bellotas y almacenarlas en aquellos lugares donde no puedan ser descubiertas por otros. Las que queden enterradas y olvidadas darán lugar a nuevas plántulas de roble, que remplazarán los viejos árboles, manteniéndose así la dinámica natural del bosque.

Las bellotas se componen básicamente de reservas (lípidos) y presentan un embrión muy pequeño (menos del 1% de su volumen). Así, mientras el embrión sobreviva, la bellota podrá germinar. Los estudios realizados demuestran que los ratones de campo, que pueden llegar a pesar 36 gramos, no son capaces de consumir por completo las bellotas de mayor tamaño (hasta 13 gramos), con lo que quedan saciados y dejan parte de la bellota sin consumir. Sin embargo, estas bellotas, aún estando parcialmente comidas, presentan suficientes reservas para poder germinar, desarrollarse y dar lugar a pequeños robles.

Los robles sacan partido de los ratones

Estos estudios, publicados en Journal of Ecology, han permitido demostrar cómo los robles se benefician de los ratones para que estos muevan sus pesadas semillas, colonicen nuevos lugares y dispersen sus genes. A su vez, los ratones se alimentarán de algunas de estas bellotas, frutos esenciales para pasar el invierno, estableciéndose así una relación de mutuo beneficio entre el árbol y el animal.

Si las bellotas no fueran dispersadas y enterradas por los ratones, quedarían todas bajo la copa del árbol donde la competencia con otras bellotas para dar lugar a un nuevo árbol sería mucho mayor y donde consumidores de bellotas como los jabalíes o los ciervos las podrían destruir.

Los ratones, al dispersar y enterrar una a una las bellotas, hacen que estas pasen desapercibidas a otros animales. Así, el papel del ratón de campo en la regeneración de nuestros bosques de roble parece incuestionable. Una de las funciones principales del ingeniero forestal es asegurar la regeneración de nuestros bosques. Pero la naturaleza ya ha ingeniado sus propios mecanismos. El ratón de campo ha demostrado ser un ingeniero forestal sin título pero con especialidad en “dispersión de bellotas”.

Subido por Borja

martes, 10 de mayo de 2011

El riesgo de mutación del virus de la Gripe A


En el otoño de 1917, una nueva cepa de gripe se propagó por el mundo. Al principio, parecía una epidemia típica de gripe: La mayoría de las muertes se producían entre los ancianos, mientras que los jóvenes se recuperaban con rapidez. Sin embargo, en el verano de 1918, una versión más mortífera del mismo virus comenzó a extenderse, con desastrosas consecuencias. En total, la pandemia mató por lo menos a 50 millones de personas, alrededor del 3 por ciento de la población mundial en ese momento.


Ese patrón de dos oleadas es típico de los virus de la gripe más peligrosos, razón por la cual a muchos científicos les preocupa que el virus de 2009, el H1N1 (Gripe A), evolucione hacia una forma más mortífera.

El H1N1, reconocido por primera vez en Marzo de 2009 en México, contiene una mezcla de genes de la gripe humana, la porcina y la aviar, que despertó el lógico temor de que fuese más mortífero que el virus de la gripe estacional típica. Sin embargo, el número de muertos fue mucho menor de lo esperado, en gran parte porque el virus resultó ser relativamente ineficaz en su propagación de persona a persona.

En un nuevo estudio realizado por el equipo de Ram Sasisekharan del MIT, se ha descubierto que una sola mutación específica en la composición genética del H1N1 le bastaría para poder transmitirse mucho más fácilmente entre las personas.

Los laboratorios de la Organización Mundial de la Salud (OMS) en muchas partes del mundo están recolectando muestras de cepas de la gripe humana y la aviar. El ADN de esas cepas es secuenciado y analizado en busca de posibles mutaciones importantes. Sin embargo, es difícil,con la tecnología actual, predecir cómo un cambio específico de la secuencia de ADN modificará la estructura de las proteínas de la gripe, incluyendo la hemaglutinina (HA), que se une a receptores celulares en las vías respiratorias humanas. Ahora que esta mutación específica de la hemaglutinina ha sido identificada como potencialmente peligrosa, la OMS debería ser capaz de detectar cualquier virus con esa mutación, tan pronto como aparezca.

La cepa de la Gripe A de 2009 (H1N1), al igual que la cepa NY18 de la primera oleada de lo que acabó siendo la Gripe de 1918, no se enlaza eficientemente a esos receptores, pero bastó una sola mutación de la proteína HA del virus NY18 para convertirse en la más virulenta cepa SC18, que causó la segunda y catastrófica ola.

En el nuevo estudio, los investigadores del MIT se centraron en un segmento de la proteína HA que afecta a su capacidad para enlazarse a las células respiratorias. Crearon un virus con una sola mutación en esa región, por la cual se sustituyó el aminoácido isoleucina por otro aminoácido, la lisina. Ese cambio incrementó significativamente la capacidad de la proteína HA para enlazarse. Los científicos también han constatado que el nuevo virus se extiende más deprisa que las previas entre los hurones, utilizados comúnmente en modelos de infección por la gripe humana.

Si tal virus mutante evoluciona, podría generar una segunda oleada más peligrosa, como la de 1918.

El aminoácido en cuestión se encuentra en una parte del genoma viral propenso a mutar con frecuencia.

Esta noticia ha sido publicada por Kieran

Hacia un antibiótico capaz de hacer que las bacterias se autoenvenenen


Se ha descubierto que cierta clase de proteínas es capaz de activar un mecanismo de autodestrucción en bacterias. Este conocimiento puede por tanto ser de gran utilidad para el desarrollo de nuevos antibióticos con una amplia gama de objetivos de ataque.

La investigación que ha conducido al hallazgo la ha hecho el equipo de Anton Meinhart en el Instituto Max Planck para la Investigación Médica en Heidelberg, Alemania.

Una pequeña cantidad de genes puede convertir bacterias inofensivas en peligrosas asesinas. Los genes que determinan las propiedades patogénicas o la resistencia a los antibióticos pueden transmitirse de bacteria a bacteria a través de lo que se conoce como elementos genéticos móviles. Sin embargo, estos elementos genéticos móviles son una espada de doble filo para las bacterias: las ayudan a sobrevivir, pero también las pueden matar.

El sistema PezAT es un sistema de toxina/antitoxina particularmente interesante del patógeno Streptococcus pneumoniae. Estas bacterias causan serias infecciones como la neumonía, la septicemia y la meningitis. La toxina PezT, que forma parte del citado sistema, pertenece a una familia de toxinas que fue descubierta hace cerca de 20 años. Pese al tiempo transcurrido, hasta ahora su mortal mecanismo había sido un misterio.

Ahora, un equipo de científicos del mencionado instituto ha logrado explicar el tipo de acción molecular de esas toxinas usando como modelo la bacteria Escherichia coli.

Las células bacterianas en las que se activó artificialmente la toxina PezT mostraron síntomas de envenenamiento similares a los que aparecen después del tratamiento con la muy conocida penicilina: Al comienzo del envenenamiento por PezT, la mayoría de las células se estancaba a mitad de su etapa de división. Después de cierto tiempo, se rompía la intersección entre los cuerpos de las dos células y éstas morían.

Después de investigaciones adicionales, los científicos han acabado descubriendo que la PezT y otras toxinas zeta son insólitas enzimas que transforman el UNAG, un bloque de construcción inofensivo, en una molécula tóxica. La toxina (UNAG-3P), actuando de un modo similar a como lo hace la penicilina, inhibe el crecimiento de la pared celular bacteriana, haciendo que las células revienten y mueran.

Este proceso de activación interna en las células podría hacer que la investigación sobre antibióticos diese un gran paso adelante en la batalla contra la resistencia bacteriana.


Esta notiacia ha sido subida por Kieran