Páginas vistas en total

3 de agosto de 2018

AUNQUE EL EURIBOR SIGUE BAJO LAS HIPOTECAS A TIPO FIJO SIGUEN GANANDO ADEPTOS


28 meses lleva el euribor en terreno negativo y, según indican los expertos, seguirá así, como mínimo, hasta primeros del 2019. Una situación que, junto a los exiguos diferenciales  que ofrecen actualmente las mejores hipotecas, se traduce en un interés muy atractivo para el ciudadano. 

Pero, regresemos al verano de 2008, cuando el estallido de la crisis económica hizo que el paro empezara a dispararse y creciera en cada nuevo publicado. En ese momento, la tasa de desempleo acabo el mes de julio con un  11,1 %. Después, todo fue crecer, hasta el 25,77% del año 2012.

La destrucción de empleo y de crecimiento de la inflación llevó a los bancos a endurecer las condiciones para prestar, incluso entre ellos, de modo que el euribor se disparó y con ello la cuota de los préstamos.

Recordaremos también que, antes del estallido de la crisis era habitual pedir hipotecas 100% o incluso 100%  más gastos. Una decisión arriesgada, tanto para los bancos como para los hipotecados, que en no pocos casos perdieron su vivienda al no poder hacer frente a la mencionada alza de cuotas. Al menos, ha sido una lección aprendida por parte de la entidades financieras, que hicieron desaparecer casi completamente la financiación al 100%. Ahora se otorgan con cuentagotas, y la única manera de conseguirlas es tener un perfil financiero excelente que dé total seguridad al banco.

Las hipotecas referenciadas al euribor más un diferencial resultan ahora menos atractivas, pese a que ése índice sigue en negativo, como consecuencia del recuerdo del crash de 2008. Del 90% de la nuevas firmas, actualmente éstas apenas superan el 60%, beneficiando a las hipotecas fijas, que ofrecen más seguridad de cara al futuro.

Así, no resulta difícil hallar hipotecas fijas con tipos entre el 2% y el 3% o 4%. Unas ofertas que, a menudo,  no vienen acompañadas de una suerte de condiciones extrahipotecarias, como antes sucedía.

ALGUNOS  EJEMPLOS:
OPEN BANK a 25 años: de 2,15% a 2,49%
BANKIA a 25 años: de 2,50%  a 2,95%
BBVA a 25 años:  de 2,25% a 3,16%
BANKINTER a 25 años:  de 2,30% a 3,16%
KUTXABANK a 25 años: de 2,50% a 3,08%
ABANCA a 25 años: de 2,45% a 4,11%

30 de julio de 2018

LA ÚLTIMA TEORÍA DE HAWKINGS: EL UNIVERSOS ES FINITO Y TUVO UN ÚNICO COMIENZO

UNIVERSIDAD KU LEUVEN (LOVAINA, BÉLGICA)

La teoría final del profesor Stephen Hawking sobre el origen del universo, en la que trabajó en colaboración con el profesor Thomas Hertog de la universidad belga KU Leuven, se ha publicado recientemente en la revista científica Journal of High Energy Physics

La hipótesis, que fue presentada para su publicación antes de la muerte de Hawking, el 14 de marzo de este año, se basa en la teoría de cuerdas y predice que el universo es finito y mucho más simple que muchas teorías actuales sobre el Big Bang.

La teoría del  Big Bang más aceptada por la comunidad científica en la actualidad afirma que el universo comenzó hace unos 14.000 millones de años, con  una  gran explosión, e inmediatamente después de que ocurriera este fenómeno se crearon el espacio, el tiempo, la energía y la materia.

Pero como consecuencia de la fuerza gravitatoria que atrae a los planetas entre si,  el  movimiento expansivo se desacelerará  hasta anularse.  Entonces, se producirá  una contracción  del Universo hasta su colapso gravitatorio, el denominado Big Crunch, desapareciendo entonces en la nada. Después, seguiría una nueva expansión, y así indefinidamente en una infinita  serie de Bigs Bang y Bigs Crunch, que justificarían la existencia de un número infinito de universos.

"La teoría habitual de la inflación eterna predice que, globalmente, nuestro universo es como un fractal infinito, con un mosaico de diferentes universos de bolsillo, separados por un océano que se infla", dijo Hawking en una entrevista el otoño pasado. "Las leyes locales de la física y la química pueden diferir de un universo de bolsillo a otro, que juntos formarían un multiverso. Pero nunca he sido un fan del multiverso. Si la escala de los diferentes universos en el multiverso es grande o infinita, la teoría no puede ser probada ". 
Thomas Hertog

En su nuevo documento, Hawking y Hertog señalan que esta explicación de la inflación eterna como teoría del Big Bang es errónea. "El problema con la explicación habitual de la inflación eterna es que asume un universo de fondo existente que evoluciona de acuerdo con la teoría de la relatividad general de Einstein y trata los efectos cuánticos como pequeñas fluctuaciones en torno a esto", dijo Hertog. "Sin embargo, la dinámica de la inflación eterna borra la separación entre la física clásica y cuántica. Como consecuencia, la teoría de Einstein se descompone en la inflación eterna".

"Predecimos que nuestro universo, en las escalas más grandes, es razonablemente liso y globalmente finito. Por lo tanto, no es una estructura fractal", dijo Hawking. La nueva teoría de la inflación eterna propuesta por Hawking y Hertog se basa en la teoría de cuerdas: una rama de la física teórica que intenta reconciliar la gravedad y la relatividad general con la física cuántica.

Su enfoque utiliza el concepto de holografía de la teoría de cuerdas, que postula que. el universo es un holograma grande y complejo, pero la realidad física en ciertos espacios tridimensionales puede reducirse matemáticamente a proyecciones 2D en una superficie. En la nueva teoría, la inflación eterna se reduce a un estado atemporal definido en una superficie espacial al principio de los tiempos. En ese momento, nuestra noción familiar del tiempo dejaría de tener ningún significado", afirmó Hertog.

Sus resultados, de ser confirmados por trabajos posteriores, tendrían implicaciones para el paradigma del multiverso. "No estamos en un solo universo único, pero nuestros hallazgos implican una reducción significativa del multiverso, a un rango mucho menor de universos posibles", dijo Hawking.

Referencia: SW Hawking, Thomas Hertog. “¿Una salida suave de la inflación eterna? Revista de Alta Energía Física , 2018; 2018 (4) DOI: 10.1007 / JHEP04 (2018) 147

27 de julio de 2018

EL MODELO DE ACTIVIDAD NEURONAL ADMITIDO DURANTE MÁS DE UN SIGLO ES INCORRECTO



          LOUIS LAPICQUE
La ciencia nos muestra, a lo largo de la historia, un camino de avances, retrocesos y rectificaciones. El caso concreto del modelo de actividad neuronal ha permanecido inalterado durante más de un siglo. Sin embargo, un equipo de biofísicos de la Universidad Bar-Ilan de Israel ha demostrado recientemente que este modelo no es correcto. Un descubrimiento realmente importante.

Se estima en alrededor de 86 mil millones el  número de neuronas que tiene el cerebro humano. Se comunican entre sí estableciendo miles de millones de conexiones: las denominadas "sinapsis". El comportamiento individual de las neuronas, y más precisamente la forma en que generan y procesan las señales eléctricas, es un modelo ampliamente respaldado por la comunidad científica.

Pero, después de realizar diversos experimentos con neuronas de rata cultivadas in vitro, el equipo de investigadores de Bar-Ilan determinó cómo las neuronas responden a las señales de otras neuronas. Y la información recolectada contradice el modelo históricamente aceptado.

En 1907, el neurobiólogo y antropólogo francés Louis Lapicque (1866- 1952) propuso un modelo que describe cómo evoluciona el voltaje de una membrana celular en función de la corriente que fluye a través de ella. En éste, las neuronas sumarían las diversas señales que reciben, y al alcanzar un cierto umbral, registrarían un pico de actividad que produciría una respuesta en forma de señal eléctrica, volviendo después el voltaje a cero. Por lo tanto, se pensaba que una neurona produce una señal solo si su membrana está suficientemente cargada.

Así pues, la hipótesis del científico francés se consideraba piedra angular de la mayoría de los modelos neuronales. Los autores del estudio afirman que han "logrado estos resultados a través de nuevos instrumentos experimentales, pero en la práctica se podría haber logrado a través de la tecnología que ya existía en la década de 1980”.

Los resultados del estudio sugieren que la dirección de la señal recibida por una neurona condiciona específicamente la respuesta de la misma, a   diferencia del modelo de Lapicque, en el que la dirección es indiferente. Una señal débil proveniente de la izquierda y otra débil que llega de la derecha no se combinarán para dar el voltaje suficiente para disparar el pico de actividad. Sin embargo, una única señal fuerte en una dirección particular será suficiente para activarlo.

NEURONA PIRAMIDAL
Esta nueva descripción de la suma espacial de las señales podría llevar a una nueva clasificación de las neuronas en función de cómo tratan las señales recibidas de acuerdo con su dirección; además, esto podría mejorar la comprensión de algunos trastornos neurológicos.Sin embargo, los autores son cautos. Recuerdan que su descubrimiento se centró solo en un tipo de neurona cerebral, las neuronas piramidales, y que un solo estudio no debería llevar a rechazar 100 años de conocimiento sobre el tema.
Referencias: Profesor  Ido Kanter, Departamento de Física y Gonda Brain Center, Bar-Ilan University, Bar-Ilan University .


26 de julio de 2018

LIBIA: PROBLEMA, VERGÜENZA, PETRÓLEO.



Resultado de imagen de libyaNo  tan  lejos de España, Libia fue, desde 1969, el país de Muamar Muhamad Abu-minyar El Gadafi. Hasta su caída éramos su tercer socio comercial, le vendimos material militar y constituía uno de nuestros principales abastecedores de petróleo y gas. Se recordará que en el año 2007 El Gadafi realizó una visita a nuestro país, en parte privada, en parte oficial, siendo recibido en la Moncloa por el entonces presidente del gobierno José Luis Rodríguez Zapatero.

Pero en febrero de 2011 comenzó el proceso de descomposición del país africano, un estado cuya principal riqueza era y son sus vastos yacimientos petroleros. Tras el derrocamiento de El Gadafi los conflictos entre fuerzas islamistas y seculares, tribus, etnias e injerencias exteriores han conducido a un estado fallido con tres Gobiernos antagónicos, en un ambiente de caos generalizado.

El efecto contagio de las revoluciones en Túnez y Egipto se trasladó rápidamente a Libia y de un modo más violento, adquiriendo el carácter de guerra civil. La capacidad de El Gadafi para mantener a raya rivalidades regionales, locales o tribales fue socavada en cuanto los rebeldes se hicieron con la Cirenaica y su capital, Bengasi; el ejército libio nunca fue muy grande ni muy poderoso y, repentinamente, había perdido la zona oriental del país. Unas fortalecidas fuerzas armadas oficialistas contraatacaron y pusieron sitio a la capital de los rebeldes. Pero los aviones de la OTAN  (19 de marzo de 2011) llegaron para apoyar a éstos y un Gadafi huido y avejentado terminaría linchado por la multitud (octubre).

A continuación, fue creado el Consejo Nacional de Transición (CNT), que aglutinaba facciones bastante heterogéneas entre sí, pero que compartían la oposición al omnipotente coronel beduino. El 7 de julio de 2012 tuvieron lugar las primeras elecciones democráticas tras 43 años de dictadura militar.

Los resultados de esos comicios dieron forma a la polarización entre dos grupos: los islamitas liberales de la Alianza de Fuerzas Nacionales (AFN); también llamados “seculares”), que era el partido favorito de Occidente; y el Partido Justicia y Construcción (PJC), sucursal de los Hermanos Musulmanes en Libia que, sumado a representantes independientes aliados, forjaron una mayoría. Todo se complicó más con la creación de una Cámara de Diputados proveniente de la elecciones de 2014, que con sólo un 18% de participación, fueron boicoteadas por el PJC.

Así pues, los Hermanos Musulmanes no aceptaron la creación de este organismo paralelo, terminando por invadir Trípoli. La lucha contra estos últimos (que se denominó Operación Dignidad) estuvo liderada por el militar exiliado en EE.UU. y antaño fiel colaborador de El Gadafi, Jalifa Belqasim Haftar, apoyado por la CIA, contando con el respaldo de la mayoría de las fuerzas armadas. Había, pues, dos gobiernos libios: el de los diputados de la AFN, reagrupados en Tobruk; y el del Congreso original, bajo control del PJC.

La violencia, alimentada además por las ya citadas divisiones tribales, terminaría en una nueva guerra abierta. Y para colmo, surgiría un nuevo grupo en la pugna por el poder: los muyahidines del Ansar alSharia (AAS), un grupo de milicias islamistas salafistas que abogaban por la implementación de la estricta ley de la Sharia en toda Libia. Asimismo, el conflicto que tenía lugar en la región suroeste del país entre las tribus tubu y tuareg ha venido siendo utilizado por ambos bandos en su propio beneficio: el Gobierno tripolitano ha financiado y armado a los tubus y las fuerzas de Haftar, a los tuaregs.

El 17 de diciembre de 2015, se firmó en Sjirat (Marruecos) un acuerdo para formar un Gobierno unificado y provisional,  formándose el Consejo Presidencial,  un órgano colegiado de nueve miembros, y un  Gobierno de Acuerdo Nacional, provisional de diecisiete, que debía estar vigente hasta la celebración de nuevas elecciones en un plazo de dos o tres años. Este plan de paz y unidad no llegó a materializarse por divisiones internas, mientras en el plano militar se lanzaron importantes ofensivas por parte de todos los bandos para derrotar al Estado Islámico, contando también con el apoyo de Estados Unidos, Francia y Reino Unido. Sirte, bastión en la zona del ISIS,  cayó en diciembre de 2016, si bien los terroristas seguirían presentes en las incontrolables regiones del desierto y a través de células durmientes.

En 2017 prosiguieron las numerosas luchas entre diversas facciones, muchas veces con el objetivo de hacerse con el control de los pozos y puertos petrolíferos.

Resultado de imagen de mapa petroleo libia

Ya desde  2016,  Libia  era  considerada  internacionalmente  como  un Estado fallido. En la actualidad  tiene  tres  gobiernos simultáneos. El  primero  es  el Gobierno de Acuerdo Nacional (GNA), con sede en Trípoli dirigido por Fayez Al Serraj y mediado por Naciones Unidas. El GNA debía ser respaldado por la Cámara   de    Representantes  de  Tobruk,   pero  ésta   ha  rechazado su composición en dos ocasiones.

El segundo es el Gobierno de Salvación Nacional del ingeniero Jalifa Al-Ghawill, una escisión del Congreso Nacional General (GNC), el resucitado Parlamento libio originalmente elegido en 2012. Este gobierno también tiene su sede en Trípoli, pero ya no controla ninguna institución relevante y su influencia es menguante.

El tercero, en Tobruk, al este del país,  ha sido reconocido por la comunidad internacional tras las elecciones de 2014. Lo lidera el general Haftar con la aquiescencia de Egipto y los Emiratos Árabes Unidos.

Desde el 2011, las exportaciones de petróleo se han reducido de 1,6 millones a 250.000 barriles diarios, y El FMI estima que, en la trayectoria actual, Libia agotará sus finanzas en 2019. El principal problema es que el control de los campos y terminales petroleras está pasando constantemente de un grupo a otro. Asimismo, algunos analistas de seguridad describen el país como un “bazar de armas”: está repleto de ellas, provenientes del arsenal de El Gadafi, lo que resulta ideal para los yihadistas que huyen de los bombardeos en Siria e Irak.

El pasado mes de mayo el presidente francés Emmanuel Macron tomó la iniciativa de citar en Paris a los dos principales líderes libios, Al Serraj y Haftar para intentar poner fin a la inestabilidad Libia en base a la celebración de elecciones legislativas y presidenciales el próximo 10 de diciembre y la unificación de las instituciones económicas y de seguridad bajo la autoridad civil. Pero Haftar, ahora el hombre fuerte de Libia al controlar tanto las principales infraestructuras petroleras como la mayor fuerza militar que opera en el país,  no contempla una opción distinta al uso de la fuerza para destruir el “islam político” y sus milicias, por lo que el espacio para una negociación real con Trípoli es bastante limitado. A esta primacía de poder en la esfera interna ha de sumarse el apoyo que le brinda de manera encubierta, Rusia.
 

 General Jalifa Haftar


Resultado de imagen de al serraj
Fayed Al Serraj

Lo cierto es que, en Europa, se está produciendo un efecto bumerán: una ingente cantidad de refugiados e inmigrantes se desplaza hacia los países europeos a causa de conflictos como el originado en Libia. “Si la Unión Europea sigue delegando sus fronteras en países fallidos, lo siguiente será la esclavitud y el fin de Europa” escribe la periodista italiana Loretta Napoleoni.

Y la Organización Internacional para las Migraciones (OIM) certificaba en un comunicado la existencia de compraventa de migrantes negros. Esta Organización afirma que en Níger se venden migrantes como esclavos en plazas o en garajes de muchas ciudades y refiere que se pagan entre 200 y 500 dólares por cada una de estas personas. La cruel realidad es que hoy comercian con seres humanos, desde el desierto a la costa libia, organizaciones criminales, grupos armados y diferentes redes de contrabandistas que extorsionan, torturan, violan y matan a los migrantes que quieren llegar a Europa.

11 de julio de 2018

SUIZA SIGUE SIENDO UN PARAISO

Imagen relacionada
CORINNA ZU SAYN-WITTGENSTEIN

Según publican diversos diarios digitales, ha trascendido un grabación, realizada en 2015, en la que la princesa Corinna zu Sayn-Wittgenstein explica que el rey emérito la utilizó como testaferro para esconder su patrimonio. Habría sido mediante la firma suiza Canoniga Valticos de Preux Associés.

Así pues, Dante Canonica, un conocido abogado de Ginebra (Suiza), dirige el despacho Canoniga Valticos de Preux Associés, y según afirma El Español “Por su conocimiento de derecho financiero, empresarial, de sociedades, fusiones y adquisiciones, fideicomisos y patrimonios, así como de derecho tributario internacional, se convirtió en el socio necesario de Gianfranco Arturo Fasana, quien creó una estructura encargada de ocultar las grandes fortunas de españoles bajo el nombre en clave ‘Soleado’ (por el clima de nuestro país, alrededor de 15.000 millones de euros) y enviarlas a paraísos fiscales” (…) “Canonica trabajaba a las órdenes de Fasana (imputado en la trama Gurtel) como encargado de enviar los fondos de los ricos españoles al extranjero”.

Si esto es cierto, resultará de gran interés para el ministerio de Hacienda conocer todos los detalles relativos a esa trama. Aunque ya lo conocían: salió relacionado con los llamados “Papeles de Panamá” (abril de 2016), que le costó la dimisión al ministro del PP José Manuel Soria, apareciendo, asimismo, implicada Micaela Domecq Solís-Beaumont, esposa del Comisario europeo Miguel Arias Cañete (también del PP).

Como se recordará los papeles tuvieron un enorme alcance geográfico: fueron relacionados Putin, Macri, Poroshenko y otros  líderes mundiales, dirigentes políticos, jueces, deportistas, empresarios y personalidades famosas de los cinco continentes. La trama delictiva era gestionada por despacho de abogados panameño Mossack Fonseca.

Por su parte, el pasado junio el diputado de Ciudadanos, Francisco de la Torre, se ha dirigido al Gobierno de Pedro Sánchez para aclarar el papel de la Hacienda española en el uso de paraísos fiscales, asegurando  que, de acuerdo con las respuestas que recibió del anterior Ejecutivo cuando planteó el mismo asunto, "la Agencia Tributaria no ha hecho absolutamente nada más que realizar un requerimiento de información en uno de los escándalos de fraude fiscal más grave conocidos hasta la fecha, pudiendo disponer, o eso parece, de información relevante al respecto".

Es decir, que en el caso de Corina, llueve sobre mojado.

El despacho de abogados Canonica, Valticos & Associés fue fundado el 1 de mayo de 2009 por iniciativa de Dante Canonica, Michel Valticos y Eve Delaloye. Ofrece “servicios personalizados y eficientes a los clientes en la mayoría de los campos de la ley, en virtud de las diversas habilidades y áreas de especialización de sus miembros. La firma ayuda a sus clientes con sus actividades privadas y profesionales en asuntos civiles, penales y administrativos, ofreciendo asesoramiento y llevando a cabo procedimientos legales”. Eso dicen ellos.

3 de julio de 2018

EL QUE PODRÍA SER EL PRÓXIMO NOBEL ESPAÑOL


Resultado de imagen de Francisco Juan Martínez Mojica¿Les suena de algo el nombre de Francisco Mojica? Si responden que no, deberíamos decir que debería sonarles, porque podría ser el próximo premio Nobel español.
Ya es sabido que numerosas enfermedades tienen una base genética; y muchas otras, si no es su base, al menos tienen un componente genético. La edición (modificación) específica de los genes, tanto para repararlos como para insertar segmentos de ADN con finalidad terapéutica, podría ser un gigantesco avance,  la cura definitiva de graves enfermedades.

Sin embargo, la edición genética tenía muchos problemas técnicos: falta de especificidad sobre el segmento de ADN que se quería modificar, lentitud del procedimiento, riesgo de dañar el resto del ADN, etcétera. Esto era así hasta que Francisco Juan Martínez Mojica (Elche, 5 de octubre de 1963) descubrió el CRISPR hace apenas una década.

Mojica, Profesor Titular de Microbiología en el Departamento de Fisiología, Genética y Microbiología de la Universidad de Alicante es, posiblemente, el científico español de mayor trascendencia internacional en el área de la biomedicina. Tras licenciarse en Biología en Valencia y alcanzar el doctorado en Alicante, Francisco Mojica pasó por París, Utah y Oxford. Su principal hallazgo, como se acaba de mencionar, ha sido descubrir el CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats), un sistema de inmunidad adaptativa de los procariotas (bacterias y arqueas), adquirido para defenderse de las infecciones víricas. El CRISPR son secuencias de ADN bacteriano con fragmentos del ADN de los virus que han atacado a las bacterias. Mojica ha descubierto que las bacterias tienen un sistema inmune propio adaptativo. Coloquialmente podríamos decir que a través del CRISPR las bacterias se vacunan frente a los virus.

¿Por qué es tan importante este descubrimiento, considerado uno de los mayores avances en biología en lo que va de siglo?

Durante más de 20 años, el CRISPR tuvo interés solo para determinados especialistas que trataban de comprender las propiedades de este mecanismo de defensa procariota. Sin embargo, en 2012 se descubrió el potencial de los sistemas CRISPR como herramienta de edición del genoma, con una capacidad excepcional para desencadenar modificaciones genéticas específicas aplicables a prácticamente cualquier organismo. Al siguiente año se demostró que con esta herramienta se puede modificar eficientemente también el genoma de mamíferos de forma muy específica.

¿Cómo se realiza la edición genética a través del CRISPR? El proceso comienza con la ruptura del ADN en un sitio determinado mediante unas nucleasas (Cas9) diseñadas específicamente. Tras “meter la tijera a los genes”, se pone en marcha la reparación del ADN. En este proceso de reparación/edición se puede introducir nuevo material genético, modificar genes, activarlos o inactivarlos. El CRISPR-Cas9 corta, repara y edita el ADN en casi cualquier tipo de célula.

El CRISPR-Cas9 ha revolucionado la edición genética porque es una herramienta programable de edición con las ventajas añadidas de ser accesible (fácilmente disponible), seguro por su especificidad, y eficiente, porque acelera el progreso de edición hasta dotarlo de un enorme potencial terapéutico.

Además tiene numerosas aplicaciones, tanto en investigación básica como en biotecnología y, por supuesto, en terapia genética. A largo plazo, brinda la oportunidad de curar enfermedades causadas por mutaciones genéticas, y sus aplicaciones se están expandiendo a un ritmo vertiginoso, revolucionando el enfoque de la patología humana. Se están realizando, por ejemplo, estudios sobre distrofia muscular, en patologías cardiovasculares y se está usando la edición genética como alternativa al uso de células madre embrionarias. El CRISPR se está empleando, además de en edición genética, para activar e inhibir la expresión génica y para rastrear la ubicación de determinados genes.

No obstante, el CRISPR-Cas9 está en plena evolución y aún está por demostrarse cómo funciona en la práctica clínica, y sigue existiendo el temor a que afecte a genes no específicos o a líneas germinales. En cualquier caso, dentro de unos años el sistema CRISPR-Cas9 formará parte del vocabulario médico cotidiano y nada de esto hubiera sido posible sin las aportaciones de Francisco Mojica.

Lo cierto es que si alguna vez tuvimos un científico en España cerca de ser candidato a un premio Nobel, ese es Francis Mojica. Para que esto suceda, es necesario que la Academia Sueca tenga en cuenta todo el proceso de investigación (incluida la investigación básica realizada por Francisco Mojica), no sólo el final del proceso.

8 de abril de 2018

MEJORAR LAS PRIMERAS ETAPAS DEL BEBÉ MUY PREMATURO


En los últimos quince años, los servicios de neonatología han progresado enormemente para limitar el estrés de los bebés prematuros. Sin embargo, no logran igualar las condiciones de vida y el desarrollo del entorno intrauterino.

Los niños descritos como "muy prematuros" (nacidos entre las 26 y 30 semanas de embarazo) están desafortunadamente expuestos a múltiples factores de estrés durante sus primeras semanas de vida. Su pequeño cuerpo recién salido del vientre de su madre está sometido diariamente a procedimientos de cuidado invasivos y dolorosos para los que no está preparado. El entorno sensorial es agresivo: las máquinas rugen, suenan, las luces deslumbran, parpadean, los materiales metálicos colisionan. El ruido provoca en el niño espasmos y sobresaltos.

Durante la última década, la investigación científica ha enfatizado la probabilidad del impacto de la exposición temprana al estrés en el desarrollo psicológico a largo plazo del sujeto. Ante el estrés, el hipotálamo segrega cortisol. A las 30 semanas de embarazo, esta respuesta al estrés es funcional, lo que significa que la mayoría de los bebés prematuros secretan tanto cortisol como un niño mayor. Sin embargo, si esta secreción es útil para movilizar energía en forma episódica, se vuelve tóxica para el cerebro de estos bebés cuando se secreta en dosis altas, lo que puede alterar ciertas estructuras de su pequeño cerebro y sus respuestas neurobiológicas al estrés. Muchos estudios sugieren una correlación entre el estrés de la madre, el nivel de cortisol del niño y sus trayectorias de desarrollo psicológico.

Ahora sabemos que la experiencia sensorial temprana influye en la organización neuronal y modula el cerebro del niño. Mientras que algunas neuronas maduran de forma autónoma, otras necesitan ser estimuladas: a partir de mediciones de electroencefalograma (EEG), se encontró que los bebés que tenían más actividad física en los primeros días de vida mostraron un mejor crecimiento del cerebro. Del mismo modo, aquellos que evolucionan en un entorno mecánico tienden a mostrar menos desarrollo que los bebés que están inmersos en un universo humano, con adultos. A largo plazo, por razones multifactoriales, podemos observar, en niños nacidos muy prematuramente, trastornos emocionales y cognitivos, así como problemas de atención, memoria y aprendizaje durante infancia y adolescencia.

De la investigación sobre las emociones de los bebés prematuros nace un deseo común de las unidades de neonatología: limitar el estrés y el dolor de estos niños al máximo  y ​​aumentar su bienestar. Se trata de acercarse a las condiciones intrauterinas, reconstituyendo una especie de entorno protector. Se opta por reducir el ruido  de las máquinas (que tiende a aumentar el ritmo cardíaco) en beneficio de la música y la voz materna, especialmente relajante. Se hacen esfuerzos para limitar el cuidado del dolor, las fuentes de luces brillantes, ruidos fuertes y repentinos, así como una diferencia de temperatura demasiado grande. En 1996, Lynda Harrisson, investigadora científica de la Universidad de Alabama en Birmingham, desarrolló el tacto humano suave. Esta técnica de apaciguamiento consiste en colocar una mano en la cabeza del niño y la otra en una de sus extremidades durante varios minutos. Al niño también se le pueden ofrecer masajes ligeros, caricias y momentos de succión no nutritivos.

En la década de 1980, nació el famoso método "canguro" en Colombia, que ha permitido a muchos países en desarrollo aumentar las posibilidades de supervivencia de los bebés muy prematuros. Esta técnica consiste en reproducir, en bebés humanos, el tipo de crecimiento ectópico observado en canguros bebé. El niño se coloca en el vientre de su madre, con la cabeza erguida y la piel contra la piel. Este método está lleno de beneficios: ayuda a proporcionar el calor al niño y mejorar la proximidad y la relación padres y su bebé, para incluir más a papá (ya que él también puede reemplazar a la madre y practicar piel con piel con su hijo). Si todas las unidades de neonatalogía tienden a este objetivo, no todas despliegan la misma voluntad ni los mismos medios. Cambiar la práctica de los cuidadores es un trabajo difícil que requiere una capacitación especial.

Algunos equipos van un paso más allá y aspiran a la certificación del Programa de Evaluación y Atención del Desarrollo Individualizada del Recién Nacido (NIDCAP). Detrás de este acrónimo se encuentra una serie de rigurosas estrategias de cuidado del desarrollo que se implementarán tan pronto como sea posible, de forma individualizada y centrada en el niño. El bebé es considerado un actor en sí mismo. Es a su alrededor, y a su familia, que el servicio está organizado. Se cuestiona todo el entorno del bebé: ruido, luz, sueño, cuidado, higiene, comida. Puede ser recomendable, por ejemplo, utilizar un colchón de agua para los bebés poco peso, mantener al niño alejado de los intercambios entre los cuidadores, especialmente durante el momento de la sucesión,  el posicionamiento de una manta fragante cerca de la cara del niño cuando se retira el canal central, recalentar todos los materiales que están en contacto con la piel, tales termómetro, solución salina fisiológica ... 

NIDCAP tiene una gran ventaja, la de estar basado en evidencia científica (en 2014, un meta-análisis llevado a cabo ensayos clínicos en el Hospital de la Universidad de Caen confirmó el beneficio de NIDCAP sobre el desarrollo de los bebés prematuros durante los primeros 24 meses de vida).

Otra investigación ha destacado que permitir que los padres duerman en el establecimiento y participar en el cuidado de su bebé. Como los padres son percibidos en NIDCAP como correguladores naturales para sus hijos, es importante alentarlos a quedarse con ellos. El objetivo de la Federación Internacional de NIDCAP (NFI), una organización internacional sin fines de lucro, es apoyar el desarrollo de esta práctica en hospitales de todo el mundo.

El final de la estancia en el servicio del hospital inicia una aventura delicada, la del regreso a la casa. Los padres abandonan la protección sanitaria para encontrarse solos, en la privacidad de su hogar, en presencia de un ser vulnerable (y lo cierto es que no todas las unidades acompañan a la familia en sus primeros pasos a casa).

Por ejemplo, una madre francesa relata que, en el hospital, se llevó a cabo una reunión mensual para educar a los padres sobre cómo cuidar a un bebé nacido prematuramente. "Una buena iniciativa –dijo- que nos permitió cuidarla sin ser demasiado sobreprotectores". Sin embargo, estas reuniones, según ella, no parecen suficientes. “Entre la alegría y la angustia de regresar al hogar, no tuvimos ningún seguimiento en casa. Hubiera apreciado tener una enfermera la primera semana para estar más tranquila”.

Esta preocupación por la calidad de la atención para el desarrollo está vinculada a importantes cuestiones éticas. ¿Hasta dónde llegarán los límites de la sostenibilidad? ¿Deben aumentarse las prescripciones de morfina a pesar del posible impacto negativo de este analgésico en el cuerpo? ¿Tenemos que mantener a los bebés vivos a toda costa, incluso si se esperan consecuencias importantes para su desarrollo? •
https://le-cercle-psy.scienceshumaines.com/un-petit-cocon-pour-les-grands-prematures_sh_39158

5 de marzo de 2018

EL GASTO EN PENSIONES EN ESPAÑA NO HA SIDO HISTÓRICAMENTE DESMESURADO


Eurostat nos proporciona unos datos interesantes. Al cierre de 2015, el gasto en pensiones sobre PIB en España ascendió al 12,6%, algo por encima de paises como Alemania, Suecia o Reino Unido, pero por debajo de Francia (15%), Italia  (16,5%) o Austria (14,6%).

Y aún en el caso de los primeros, ha de tenerse en cuenta que los salarios en aquellos países son significativamente más altos que en el nuestro, lo que conlleva mejores pensiones. De ahí que jubilados alemanes e ingleses vivan holgadamente de su pensión en determinadas zonas de nuestro país.

En el cuadro también puede comprobarse que el promedio del área euro ascendió (en 2014) al 13,6%, esto es, un punto más que España.

No es cierto, por lo tanto, que el gasto en pensiones de nuestro país sea desmesurado. 

Lo que es más llamativo es analizar todo el periodo del cuadro, el que acumula el porcentaje de PIB gastado en pensiones entre 2004 y 2015. En la columna verde clara final ("acumulado") observamos como España suma un total de 126,1 puntos, colocándose en ese ranking en el último lugar, por debajo incluso de Portugal o Grecia.

11 de febrero de 2018

LA VACUNA CONTRA EL CÁNCER PODRÍA SER PRONTO UNA REALIDAD

Investigadores de la división de Oncología de la californiana universidad de Stanford –prestigiosa institución con 27 premios Nobel- ha anunciado el éxito en un experimento con ratones que logró erradicar tumores en casi un 100% de los casos, aplicando inmunoestimulantes.

Ratones del experimento
Los detalles fueron publicados en Science Translational Medicine (enero de 2018. Eradication of spontaneous malignancy by local immunotherapy)

Básicamente, los científicos seleccionaron agentes inmunoestimulantes que pudieran desencadenar una respuesta inmune de células T, un tipo de glóbulo blanco que se genera a partir de células madre situadas en la médula ósea.

Los autores señalaron que habían desarrollado “una estrategia práctica para la inmunoterapia del cáncer”. Aprovecharon el repertorio inmune preexistente de células T en el microambiente tumoral, combinando “un agonista de TLR y un anticuerpo activador OX40”, de modo que consiguieron amplificar estas células T antitumorales para inducir su acción en todo el cuerpo contra el tumor en sitios no tratados.

De los dos agentes inmunes utilizados en el estudio, uno ya ha sido aprobado para su uso en humanos y el segundo está, actualmente, involucrado en un ensayo de tratamiento de linfoma.

El experimento se efectuó en 90 ratones y logró erradicar completamente  los tumores en 87 de ellos, lo que permitió a los investigadores declararlos libres de cáncer. Y en los tres restantes los tumores retrocedieron después  de otra ronda de tratamiento inmunológico

Los resultados en ratones demuestran la potencia de implantar la vacuna in situ en una situación de cáncer espontáneo impulsada por un oncogen fuerte, lo que sugiere la posibilidad de una aplicación directa al cáncer humano, si bien no siempre los que funciona en los roedores también los hace en las personas.

Por analogía con los ratones genéticamente propensos, si la nueva técnica tuviese éxito en el ser humano, podemos imaginar que administrar una vacuna in situ en el sitio del tumor primario sea la primera opción antes de plantearse la cirugía en pacientes con alto riesgo de la aparición de enfermedad metastásica y/o en pacientes genéticamente propensos a desarrollar segundos cánceres primarios, tales como aquellos con mutaciones heredadas en los genes BRCA (genes que producen proteínas supresoras de tumores).

En todo caso, se requieren nuevas investigaciones que confirmen este experimento, sin olvidar las posibles consecuencias a largo plazo, cuestión que siempre es una preocupación con las terapias inmunológicas.

 “Eradication of spontaneous malignancy by local immunotherapy”
Autores: Idit Sagiv-Barfi, Debra K. Czerwinski, Shoshana Levy, Israt S. Alam, Aaron T. Mayer, Sanjiv S. Gambhir and Ronald Levy.
Division of Oncology, Department of Medicine, Stanford University, Stanford, CA 94305, USA. Department of Radiology, Molecular Imaging Program at Stanford (MIPS), Stanford University, Stanford, CA 94305, USA.


3 de febrero de 2018

UNA RECIENTE INVESTIGACIÓN AFIRMA QUE POSEER UNA GRAN INTELIGENCIA TAMBIÉN PODRÍA SER UNA FUENTE DE PROBLEMAS

 Se  ha  venido  dando  por  cierto  que la posesión de una alta inteligencia, supondría el éxito educativo y el nivel de ingresos futuros. Pero parece que no todo es positivo para los superdotados intelectuales.

En realidad, se sabe poco sobre las dificultades experimentadas por ellos. En concreto, las personas con una alta capacidad intelectual parece que poseen una “sobreexcitabilidad” en varios aspectos que puede predisponerlos a ciertos trastornos psicológicos, así como a condiciones fisiológicas que involucran respuestas sensoriales elevadas e inmunológicas e inflamatorias alteradas.

Así lo afirma un reciente estudio (High intelligence: A risk factor for psychological and physiological overexcitabilities. ScienceDirect, Volume 66, January–February 2018) que realizó una encuesta a 3.715 individuos que estaban en o por encima del percentil 98 de la inteligencia.

Se solicitó a los participantes autoevaluar la prevalencia de trastornos de ansiedad y estado de ánimo diagnosticados o sospechados, trastorno por déficit de atención con hiperactividad (TDAH), trastorno del espectro autista (TEA) y enfermedades fisiológicas que incluyen alergias ambientales y alimentarias, asma y enfermedades autoinmunes.

Se pudo confirmar una alta correlación estadística y un índice de riesgo relativo notablemente alto de diagnósticos para todas las afecciones citadas en comparación con las estadísticas nacionales promedio. Esto implicaría al alto cociente intelectual como un factor de riesgo potencial de trastornos afectivos, TDAH, TEA y una mayor incidencia de enfermedades relacionadas con la desregulación del sistema inmune. Los hallazgos preliminares apoyan firmemente una asociación híper cerebral / híper corporal que puede tener importantes implicaciones individuales y sociales.

El bioquímico estadounidense de origen chino Roger Y. Tsien, premio nobel de Química en 2008, define la inteligencia como "la capacidad de autodescubrir el conocimiento y los patrones de un mundo lleno de incertidumbres y posibilidades infinitas" (...) subrayando que “El individuo altamente inteligente tiene una notable capacidad para ver e internalizar estas inmensas incertidumbres, posibilidades y problemas. Este regalo puede ser un catalizador para el empoderamiento y la autorrealización o puede ser un predictor de desregulación y debilitación, como sugieren los resultados actuales. Si estos individuos asimilan su mundo de una manera intelectual tan sobreexcitada (híper cerebro), también existe la posibilidad de un intenso nivel de procesamiento fisiológico (hiper cuerpo)”.

La teoría del hiper cerebro/híper cuerpo es nueva y, como tal, será necesario llevar a cabo una serie de estudios para comprender mejor sus fortalezas y limitaciones. Comprender la relación entre la alta inteligencia y la enfermedad podría tener un impacto personal y social significativo. En el mencionado estudio, se presentó un marco teórico plausible y altamente comprobable que espera servir como un trampolín para futuros diseños experimentales en todas las disciplinas y proporcionado evidencia para demostrar que aquellos individuos  con alta inteligencia corren un riesgo significativamente mayor para los trastornos psicológicos y las enfermedades fisiológicas examinados.

No obstante, se necesita más investigación para demostrar la causalidad. Con el avance reciente del estudio de la inteligencia utilizando técnicas de neuroimagen e intentos a gran escala para mapear el genoma combinado con las investigaciones más recientes que se realizan para comprender mejor los procesos psiconeuroinmunológicos implicados.

Cabe recordar que los conceptos “inteligencia” y “cociente intelectual” se hicieron rápidamente operativos en el siglo XX. Se suponía que cada individuo poseía una cierta cantidad de inteligencia, ya fuera innata, ya producto de la educación, y para su medición se diseñaron muchos tests al respecto.

La teoría de las inteligencias múltiples de Gardner (1983) proporciona otra perspectiva acerca de cómo las habilidades de procesamiento de la información subyacen a la conducta inteligente, y amplía el concepto al incluir siete áreas separadas del conocimiento (lingüística, lógico-matemática, musical, espacial, corporal-cinestésica, interpersonal e intrapersonal) que funcionan de manera relativamente independiente, pero que interactúan a otros niveles cuando el sujeto se dedica a la solución de problemas (Howell y otros, 1997).

Gardner cree que la inteligencia debería ser definida en función de las series distintas de las operaciones de procesamiento que permiten a los individuos solucionar problemas, crear productos y descubrir un nuevo conocimiento en diversas series de actividades valoradas culturalmente (Berk, 1998). La teoría de la inteligencia de Gardner ha alcanzado gran aceptación porque es fácil de comprender y porque permite explicar diversos tipos de capacidades superiores, con independencia del rendimiento académico.

Actualmente los expertos conciben la superdotación desde una perspectiva mucho más amplia que hace sólo unas décadas, y en las definiciones se introducen otras dimensiones como la creatividad, la motivación, el autoconcepto, la capacidad de liderazgo y la capacidad física, la socialización, así como factores no intelectivos y fortuitos y características cognitivas