27.5.08

Tres enfermedades desatendidas por los medios: mal de Chagas, enfermedad del sueño africana y filariasis linfática

Países endémicos para la enfermedad de Chagas
(gentileza Instituto de Salud Carlos III -www.isciii.es)


Enfermedades desatendidas por los medios masivos

por Luisa Massarani
Fuente SciDev.net

A pesar de que una de cada seis personas en el mundo es afectada por las llamadas "enfermedades desatendidas" –como la enfermedad de Chagas, la tripanosomiasis africana (enfermedad del sueño) , y la leishmaniasis– estas tienen poco espacio en la cobertura de los medios masivos, de acuerdo con un artículo publicado en PLoS Neglected Tropical Diseases.

En el estudio, los investigadores de la Universidad de Bordeaux (Francia) y la Agencia de Protección a la Salud de la Gran Betaña, analizaron once medios masivos de impacto internacional, que circulan en inglés, durante el periodo del 1 de enero de 2003 al 1 de junio de 2007. Los investigadores también entrevistaron a nueve periodistas.

Solamente 113 artículos fueron identificados en el periodo analizado. La BBC fue el medio masivo con más presencia del tema (20 artículos), seguido por Financial Times y la Agencia France Presse. CNN fue, entre todos, el que tuvo menor cobertura, con solo un texto publicado en el período de la investigación.

La enfermedad considerada "desatendida" que tuvo más prensa fue la leishmaniasis y la que menos apareció en los medios fue la enfermedad de Chagas.

Los científicos fueron la fuente de información más consultada en los artículos, mientras que la Organización Mundial de Salud (OMS) y la industria farmacéutica fueron las que tuvieron menos presencia.

Los periodistas entrevistados, en general, afirmaron estar de acuerdo en que la cobertura sobre el tema no es adecuada, pero dijeron que la falta de un ángulo noticioso es un obstáculo importante para una mayor presencia del tema en los medios en los cuales trabajan.

Además, los periodistas consideraron que las agencias de salud, especialmente la OMS, no están comunicando de forma adecuada las situaciones en que hay incrementos en los casos de las enfermedades desatendidas.

Según la OMS, hay 14 enfermedades incluidas en la lista de las enfermedades desatendidas, que reciben este nombre porque ellas persisten exclusivamente en las poblaciones más pobres y marginadas. Los niños son los más vulnerables a estas enfermedades que, de acuerdo con la OMS, podrían ser controladas y evitadas.

9.5.08

Curso : Creencias, pseudociencias y Pensamiento Crítico

CFI/ARGENTINA

CREENCIAS, PSEUDOCIENCIAS Y PENSAMIENTO CRÍTICO

PROGRAMA - 2008

CREENCIAS

¿Qué es una creencia? Sistemas de creencias. ¿En qué creemos y por qué? Fe, opinión, convicción y saber.

Creencias y sociedad: el “respeto” a las creencias. Creencias religiosas.

¿Quién decide cuál es una buena creencia? Relativismo cultural: ¿todo vale? Tolerancia y límites morales. El rol de las creencias en nuestra vida cotidiana. Ateísmo, agnosticismo y escepticismo.

¿Creemos lo que vemos o vemos lo que creemos? - La necesidad de confirmar nuestras creencias. ¿Por qué nos cuesta tanto erradicar una creencia? - Estrategias de autojustificación. Racionalizar no es razonar. El éxito siempre es nuestro pero el fracaso raramente depende de nosotros. ¿Por qué repetimos los mismos errores? La traición emocional.

PSEUDOCIENCIAS

¿Qué son las pseudociencias? Indicios para identificarlas. Definición y ejemplos. Astrología, mancias, parapsicología, medicinas “alternativas” y OVNIs. Muletillas más comunes de los charlatanes. “Energía”, “vibración” y “armonización”: tres palabras clave.

Características del pensamiento científico. El contraste entre ciencia y pseudociencia. El pensamiento mágico como base de la pseudociencia.

Charlatanismo y medios de comunicación: cómo el sensacionalismo y lo “noticiable” contribuyen a la desinformación.

Pseudociencia en la universidad: falsa ciencia con título oficial.

Psicología de la pseudociencia: ¿Por qué las pseudociencias son tan atractivas?

Pseudociencias “populares” y de “elite”: cambia el envase, el contenido es el mismo.

PENSAMIENTO CRÍTICO

Para qué sirve y cómo aplicarlo. Falacias más comunes. ¿Podemos probar que algo no existe? La carga de la prueba. ¿Por qué ponemos el carro delante del caballo?

La verdad no es la realidad. Pensar no siempre es pensar correctamente ¿Estamos preparados para percibir el mundo tal cual es? Errores de la percepción. Nuestra memoria falla: olvidamos lo que pasó y recordamos lo que no fue. Nuestro cerebro y la búsqueda de patrones.

“Esto no puede ser casualidad, algo hay...” El rol de la coincidencia y la casualidad en la vida cotidiana ¿Por qué todo tiene que tener una causa? Confusión entre causa y correlación. Cómo formamos asociaciones incorrectas.

Enemigos del pensamiento crítico. No hay alternativas: o estás conmigo o estás contra mí. Prejuicio, etiquetas y generalización. Falsas analogías. Definiciones vagas. El pensamiento blanco-negro. “Todos a Plaza de Mayo”, “El que no salta es...” Seguir a la manada: la manera más segura de equivocarse. Cómo el grupo influye, censura y modifica al individuo. Ejemplos históricos.

Informes e inscripción, 4811-1858, lunes, miércoles y viernes, de 15:30 a 20:00. E-mail a : info@ pensar.org

Está abierta la inscripción, en la sede del Centro, Av. Santa Fe 1145, 2do piso, Ciudad Aut. de Buenos Aires.

Aranceles:
Curso: $80 por mes (estudiantes universitarios 20% de descuento).
Curso + suscripción a la revista Pensar por un año: $100 por mes.


Inicia: viernes 6 de junio - Finaliza: viernes 25 de julio.
Horario: viernes de 19 a 21.

La inscripción se hace personalmente en la sede del CFI/Argentina: Av. Santa Fe 1145, 2do piso, Capital, los lunes, miércoles y viernes de 15.30 a 20.00. Para otras opciones, llame al 4811-1858 en los días y horarios mencionados o envíe e-mail a info@pensar.org


Alejandro J. Borgo
Director - Revista Pensar

www.pensar.org
Director CFI-Argentina
Av. Santa Fe 1145 - 2do piso
C1059ABF - Buenos Aires

5.5.08

Modularidad de la mente: la "navaja suiza" frenológica

Imagen del cerebro obtenida con resonancia magnética funcional (fMRI)
Foto gentileza de http://psychcentral.com/

En la columna escéptica del SCIAM del mes de mayo (que aún no está on line) el psicólogo Michael Shermer se refiere a los abusos que cometen ciertos neurocientíficos cognitivos con la metáfora de la modularidad de la mente . Shermer se pregunta si estamos ante una nueva frenología.
Para los neurocientíficos cognitivos "modulares" , el cerebro se parece a una navaja suiza con módulos específicos para el reconocimiento facial, el movimiento, la toma de decisiones , la visión, el habla e incluso la espiritualidad . Esta aproximación a las neurociencias se ha visto alimentada por el uso de una nueva tecnología: la resonancia magnética funcional a través de la cual se obtienen verdaderos mapeos cerebrales "determinando exactamente la parte del cerebro que está controlando funciones esenciales como el pensamiento, el habla, el movimiento y las sensaciones"(sic) . En las imágenes obtenidas, el cerebro se "ilumina" de diferentes maneras al realizar distintas actividades cognitivas.

El problema principal consiste en que la fMRI mide el cambio de flujo de sangre, no la actividad neuronal ; los colores no son "reales" sino que están añadidos artificialmente para observar con detenimiento las diferencias en el flujo sanguíneo. Peor aún: las imágenes expuestas en muchas investigaciones "no son del cerebro de una persona determinada sino una compilación estadística de los cerebros de muchos sujetos experimentales", según aclara el director de The Skeptic.

En referencia a un experimento realizado en la Universidad de Los Angeles que- ante la presentación de estímulos verbales tales como "demócrata" o "republicano"- correlaciona reacciones tales como ansiedad y repugnancia con la "iluminación" de determinadas zonas cerebrales , diecisiete neurocientíficos respondieron duramente en el New York Times : " como neurocientíficos cognitivos que usamos la misma tecnología de imágenes cerebrales sabemos que no es posible determinar si una persona está ansiosa simplemente por observar la actividad de una particular región cerebral. Esto es así porque normalmente las regiones cerebrales se ven comprometidas por varios estados mentales", y añaden " la amígdala, por ejemplo, es activada por el estado de alerta (arousal) pero también por emociones positivas, la clave para interpretar las imágenes obtenidas consiste en realizar un cuidadoso diseño experimental que permita comparar los estados cerebrales".

Shermer va más allá pues asegura que ciertas afirmaciones de algunos neurocientíficos modulares son tan pseudocientíficas como las de los astrólogos y recurre a uno de los firmantes de la aclaración del NYT : Russell Poldrack señala que " si los modulares ven actividad en una determinada región cerebral concluyen que ésa es la zona del cerebro donde X ocurre". Podemos mostrar que su amígdala se enciende cuando colocamos al sujeto experimental ante una situación de miedo , pero esto no significa que siempre que experimente miedo se "iluminará" su amígdala." Concluye el neurocientífico diciendo que " cada área cerebral se enciende bajo muchos estados diferentes, pero no tenemos los datos justos para saber como se activa una región específica de manera selectiva".

Profundizando su escepticismo sobre la "modularidad de la mente ", Shermer recuerda lo que le confió la neurofilósofa Patricia Churchland: "Los módulos mentales son completas tonterías . No existen "módulos encapsulados" que envíen su propia información a un procesador central". Y agrega: "Por supuesto , hay áreas de especialización y tal vez "redes", pero éstas no siempre se dedican a una tarea particular."

El artículo finaliza con una advertencia : es legítimo buscar redes neurales que se asocien a conceptos psicológicos ... siempre que no sucumbamos al canto de sirena de la frenología.

20.4.08

Redes neuronales y conexionismo en las neurociencias



James McClelland
Co- autor de "Introducción al procesamiento distribuido en paralelo" Ed. Alianza, 1992
Foto gentileza de http://www.grawemeyer.org/


El artículo que sigue fue publicado en la revista Anábasis marzo 2007 año II n°3, bajo una licencia Creative Commons.



REDES NEURONALES Y CONEXIONISMO EN LAS NEUROCIENCIAS
por Juan Canseco


El análisis de las relaciones entre el aprendizaje (y otros procesos cognitivos) y sus bases celulares y químicas constituye una cuestión capital para la filosofía de la ciencia contemporánea. La neurociencia más reciente ha emprendido pasos decisivos al momento de identificar correspondencias rigurosas entre la modificación de las conductas (aprendizaje, adquisición-retención de conocimientos), por un lado, y cambios químicos a nivel sináptico, así como cambios morfológicos y funcionales tanto a nivel celular como de redes neuronales. Las neurociencias, en nuestros días, están apuntalando una descripción eminentemente plástica del sistema nervioso. Si el aprendizaje ha sido concebido tradicionalmente como una manifestación de la plasticidad o maleabilidad de la conducta de muchos animales, hoy ya se conoce que a nivel biológico y químico esta propiedad también está presente de forma ya indiscutida (p.e. Hebb, 1949; Kandel y Hawkins, 1983). Recientemente, una aproximación teórica y metodológica conocida bajo el nombre de conexionismo”, ha propuesto modelos matemáticos de conectividad neuronal, entre los que se incluyen ciertas técnicas y algoritmos que intentan aproximarse al cambio efectivo que tiene lugar en las conexiones entre las neuronas (Rumelhart et al., 1992).

P.S. Churchland y T. Sejnowski (1990) sostienen que en los enfoques clásicos (o simbólicos) del estudio de la cognición se ha simplificado excesivamente el nivel de implementación físico (v.gr. neurobiológico), como consecuencia del enfoque trimembre del cerebro que ha privilegiado la metáfora informática. Los tres niveles contemplados clásicamente son: contenido, estructura e implementación. Pero la neurociencia no constituye un “nivel” homogéneo de materia indiferenciada sobre la que se asientan símbolos y pensamientos.

Existen de hecho muchos niveles en la propia neurociencia (op. cit. p. 356). El sistema nervioso es “plástico”, no rígido. Esto significa que se le puede considerar como un sistema dinámico (se transforma o evoluciona a lo largo del tiempo), y en modo alguno puede considerarse organizado en niveles casi autónomos entre sí, niveles como los propuestos por Marr (1985) en su teoría computacional de la visión. El conexionismo y la neurocomputación dinámica son tendencias que abogan por interacciones múltiples y cambiantes entre todos los niveles. Hay más de un nivel de instanciación. Las neurociencias estudian desde el nivel molecular hasta los niveles sucesivamente más “elevados” de las neuronas y las sinapsis, los circuitos, los sistemas, etc. Además del “sueño de Marr”, acerca de niveles de cómputo, Churchland y Sejnowski proponen “despertarse” de otros dos sueños, el de Boole (el cerebro como máquina lógica que maneja oraciones expresadas simbólicamente), así como del sueño de Ramón y Cajal (el cerebro descrito prioritariamente al nivel de fisiología de la neurona). Además, no hay un programa escrito con las reglas de actuación del sistema sino que, en cierta forma, el sistema dinámico “se programa él mismo” (Churchland y Sejnowsky, op. cit. p. 361), en virtud de los cambios en los “pesos” asignados para el procesamiento. En este sentido se dice que el sistema “aprende” recomponiéndose automáticamente al comparar el patrón deseado con el patrón obtenido en cada fase de cómputos, corrección que se puede lograr por medio de diversas técnicas de modificación de conexiones. Nótese que en los sistemas conexionistas esta palabra de “aprendizaje” se emplea en un sentido de acomodación entre valores numéricos actuales y valores deseados, y no está implicada una teleología por parte de la red. Otro rasgo de la neurocomputación es que no hay representaciones “puntuadas”, ni localizables, sino que la información está distribuida en las propias conexiones. No hay representación en almacenes ni en puntos particulares. El procesado ocurre en paralelo, no secuencialmente, lo que implica la multi-interacción entre niveles. El cerebro funciona de un modo más bien geométrico, que no sintáctico.

Una conducta compleja y organizada, como el lenguaje, se debe a cómputos que por sí mismos no exhiben una forma sintáctica. La unidad de procesamiento “conexionista” es la neurona abstracta. Las operaciones de sus modelos se caracterizan como “inspiradas neuronalmente”. La arquitectura de computación no es de tipo von Neumann, sino que se pretende una aproximación a la arquitectura biológica del cerebro. El grupo PDP, encabezado por Rumelhart y McClelland, oponen un nivel subsimbólico al nivel superior o simbólico (conceptual). Las huellas de memoria, p. e., se conciben “dinámicamente” como cambios en los pesos de conexión. Escriben Rumelhart y McClelland (1992, p. 304): “Cada huella de memoria está distribuida en muchas conexiones diferentes y cada conexión interviene en muchas huellas de conexión distintas”. La recuperación, asimismo, se concibe como una reinstauración de un patrón de activación anterior, el cual contenía previamente un fragmento que luego servirá para ulteriores recuperaciones. Las unidades están conectadas entre sí según ciertas fuerzas o pesos. Hay toda una serie de “unidades ocultas” que soportan la tarea de ocuparse de las representaciones internas.

Los conexionistas consideran que no es momento de abrir brechas con la tradición precedente, y por ello entienden (metafísicamente) la relación entre la mente y una red de neuronas en términos de emergencia. Sin embargo, otros autores, (Ramsey et al., 1990) sostienen que el conexionismo está ligado a una filosofía eliminacionista, y que tales simulaciones resultan incompatibles con los constructos mentalistas y los términos de la psicología popular. A diferencia del cognitivismo clásico, que no era incompatible, dicen, con una teoría popular en términos de actitudes, creencias, deseos, etc., el conexionismo moviliza una nueva ontología no-conservacionista, formada por entidades nuevas que destruyen a (o son incompatibles con) las entidades de la teoría que se ha dejado atrás (como fue el caso de las teorías físico-químicas que destruyeron entidades supuestas como el éter o el flogisto). Parece que esta identificación entre conexionismo y eliminacionismo, viene unida a la crítica basada en la irrelevancia de las redes neuronales para la psicología-popular. Un mismo estado mental (una creencia, un deseo) puede ser representado por un número indefinidamente elevado de redes conexionistas, lo cual será como decir que son irrelevantes para asuntos de “alto nivel” cognitivo. Se viene a decir que las redes neuronales son meras simulaciones de los “substratos” y las causas de la vida mental, pero ninguna de ellas logra construir clases naturales de esos estados mentales de alto nivel, lo cual es como sostener que son irrelevantes para la cognición, a diferencia de las redes clásicas, p.e. de tipo proposicional.

Esta identificación del conexionismo con una filosofía eliminacionista no es compartida por Smolensky, autor que ha procurado explicitar lo que él denomina un adecuado tratamiento del conexionismo. Según Smolensky, los modelos conexionistas sirven para refinar los modelos simbólicos,eliminando las distancias que los separan por medio de una “traducción” de los sistemas de símbolos discretos en computaciones continuas. Es decir, se aboga por un programa de reconstrucción de las entidades precedentes (simbólicas) por medio de una dinámica subsimbólica. Por otro lado, Smolensky nos recuerda que importantes algoritmos incorporados a los sistemas conexionistas, como p.e. el algoritmo de retropropagación y la máquina de Boltzmann, se han desarrollado por medio de consideraciones estrictamente matemáticas y no, en cambio, de tipo neuronal. Hay que tener en cuenta que nuestro conocimiento acumulado sobre el sistema nervioso es, principalmente, de tipo estructural (v.gr. anatómico) pero no tenemos un conocimiento igualmente profundo de su dinámica.

Los defensores del paradigma conexionista advierten acerca de las diferencias existentes entre el cerebro real, y las simulaciones “inspiradas neuronalmente”. La morfología de las neuronas es muy compleja. Las neuronas no sólo son unidades que reciben o envían un valor numérico. Las neuronas reales son mucho más lentas, pero en cambio hay un número enorme de ellas. Las neuronas reciben entradas desde un elevadísimo número de sinapsis. La base del conocimiento está en esa masa cambiante de conexiones, y no en las unidades mismas. Estas unidades, en la simulaciones, no son sino unidades arbitrarias o “neuronas formales”. Por otro lado, hay varias clases de señal neuronal, mientras que las señales entre unidades conexionistas son de tipo único. La idea de que los límites del lenguaje son los límites del sistema cognitivo, es la que usan Fodor y Pylyshyn (1988) para emprender su crítica contra las arquitecturas conexionistas. La mente real está sometida a las mismas restricciones que un lenguaje real, desde el punto de vista del paradigma simbólico. A saber: (1) Productividad: como ya señalara Chomsky, no es posible suponer que una mente almacene todos los pares que definen una función de correspondencia entre representaciones y las proposiciones que expresan esas proposiciones. Se supone que la mente posee una capacidad finita de almacenamiento y, sin embargo, su facultad generadora de oraciones es infinita. Los sistemas conexionistas se enfrentan con este problema de la infinitud. Para aproximarse a la enorme productividad real de la mente, necesitarían de una memoria expandible ad infinitum, la cual no es necesaria en las arquitecturas clásicas. (2) Sistematicidad: puede entenderse como la conectividad que unos enunciados (“mentales”) tienen con respecto a otros. No obstante, los críticos del conexionismo, Fodor y Pylyshyn deben argumentar que el estudio etológico de organismos infraverbales deja abierta la cuestión de la sistematicidad cognitiva en otras especies, como una cuestión empírica y no sujeta a argumentaciones a priori. Por último, (3) el principio de la compositividad de las representaciones: en la medida en que un lenguaje es sistemático, se asume que un elemento léxico debe realizar aproximadamente) la misma contribución semántica a cada expresión en la que ocurre este elemento. Este principio supone un amplio margen para una semántica independiente del contexto. Pero Smolensky ha replicado que sólo es legítimo al hablar de una compositividad “aproximada”. Los distintos niveles influyen recíprocamente y de distintas maneras. Así, el nivel sintáctico se vería influido por la específica implementación que le subyace, pero también por niveles semánticos que están actuando sobre las propiedades estructurales. El enfoque sintáctico de la mente se basa en una lógica-matemática discreta, que consta de símbolos generados por reglas de formación y transformación. Smolensky, por su parte, contrapone unas matemáticas “continuas”, de tipo estadístico y vectorial. Estas otras técnicas de formalización contrastan con las versiones atomísticas de la semántica y sintaxis clásicas. Los sistemas conexionistas se presentan, pues, como modelos altamente interaccionistas, lo cual contrasta con el enfoque modular. Según Fodor y Pylyshyn los sistemas conexionistas no iluminan, ni siquiera mínimamente, la estructura (sintaxis y semántica) de la cognición, y sólo simulan cómo podría implementarse a nivel neurológico y causal, pero no de una forma esencial, sino de una forma irrelevante (habría indeterminación de múltiples implementaciones para cada estructura).

Los modelos conexionistas, a nuestro juicio, poseen la ventaja de salir al paso de los toscos modelos de cajas y flechas de flujo. Asimismo suponen una verdadera destrucción de la metáfora del ordenador, no por medio de un abandono o negación (por una mera posición actitudinal o ideológica de los investigadores), sino precisamente por ampliación, por profundización de las nuevas posibilidades derivadas del desarrollo de la ciencias y las tecnologías del cómputo. De igual forma, las célebres jerarquías de niveles (físico---> simbólico--->semántico--->pragmático) pueden destruirse en virtud de la múltiple virtualidad de interconexión de unos mismos elementos u objetos básicos (términos fisicalistas), que entran en relaciones de distinta clase por referencia precisamente a la diversa operatoriedad del agente. Así, en el conexionismo, los niveles jerarquizados se desvanecen, mas no por medio de una mezcolanza de estos subsistemas o módulos en un sólo sistema indiferenciado u holista (mente, cerebro), sino precisamente por medio de las múltiples escalas o planos de intercalación, idea ésta que es una de las más fértiles de entre las aportadas por el conexionismo.

Muchos otros modelos o metáforas han sido propuestos en la historia de las neurociencias. Estaciones telefónicas, tendidos eléctricos, organigramas empresariales, topologías y grafos, hologramas, fractales, etc. En general, una cosa nos parece cierta: el cerebro es un sistema que requiere, como cualquier otro, una aproximación científica en términos organizativos. Además de unas estructuras anatómicas, se hace preciso apelar a funciones (fisiológicas, conductuales). Las correspondencias entre éstas y aquéllas no son simples. Es más, el mismo término “correspondencia” nos parece completamente inservible con vistas a una reconstrucción gnoseológica de las neurociencias. Las formas -o pautas organizativas de la materia- no son otra cosa que el funcionamiento o actividad de la materia misma implicada (moléculas, células, tejidos, cuerpos, etc.). Debemos precisar más aún: ninguna ciencia agota un objeto o una jurisdicción de objetos. Hay unos límites (difusos y empíricamente relativos) en los que el estudio del tejido nervioso es y debe ser el estudio de la conducta, y recíprocamente, hay momentos prácticos y empíricos en los cuales la investigación conductual (y lingüística) involucra a los tejidos, moléculas, etc. Asimismo, las descripciones no tienen la menor utilidad ni guardan la menor relación con las demarcaciones entre ciencias, y en ese sentido se debe rechazar de lleno esa epistemología ingenua de “abrir la cabeza y observar qué acontece dentro”, como forma de concebir un programa de reduccionismo neuronal aplicado a la psicología. Muchos filósofos y científicos se aferran a esta epistemología ingenua, a este materialismo vulgar, cuando despachan todo un campo empírico de investigación por medio de alusiones misteriosas y expeditivas como estas: “hechos físicos del cerebro”, “eventos neuronales”, “descripción reduccionista”, “causalidad física en ultima instancia”, etc.

En la filosofía de la mente y de la psicología, diversas tendencias que se autodefinen como materialistas y funcionalistas asumen que el problema filosófico por excelencia reside en la búsqueda de algún esquema de conexión fiable entre esos eventos materiales (físicos) y espirituales (cognitivos). De forma enteriza, y con una ignorancia imperdonable hacia la práctica científica implicada en los problemas (la práctica de los neurocientíficos, pero también la de psicólogos, etólogos, lingüistas), los esquemas conectivos toman la formas de emergentismo, reduccionismo, epifenomenalismo, y entre otros más, el esquema reciente de la mente “sobrevenida” (supervenience) a partir de hechos físicos. En toda esta literatura se plantean preguntas acerca de si es posible una mente habitando un sistema físico, si una mente puede tener poderes causales sobre la conducta o sobre otros sistemas físicos. Incluso hay marcadas tendencias hacia la ciencia-ficción: baste recordar, por ejemplo, los debates acerca de si un ordenador puede llegar a pensar, o en torno al caso de un marciano con substrato neuroquímico completamente diferente al nuestro pero dotado de una capacidad cognitiva equivalente a la humana (nuevas versiones, éstas, del bizantinismo especulativo). Tales desvaríos –con respecto a la investigación empírica rigurosa- sólo sirven a los efectos de legitimar ideológicamente el mentalismo, el espiritualismo y la creación ex nihilo de unos pensamientos que vuelven a adornar el mundo grosero de la materia. Precisamente, la persistencia del fisicalismo, como doctrina filosófica en las actuales “teorías materialistas de la mente” ha servido para remozar viejísimas concepciones metafísicas de la materia. La materia es entendida de nuevo como un homogéneo sustrato brutal y desorganizado (que obedece solamente a las “leyes físicas”) carente de formas y de pensamientos. Este materialismo grosero es el mejor aliado y la más notoria consecuencia del moderno espiritualismo. Esta vía de degradación de la materia (materia “meramente física”, como a veces se dice, como si con ello pudiera implicarse que la materia adoleciese de algo), es la mejor propaganda para una vergonzante rehabilitación de la idea de espíritu.



Bibliografía

Churchland, P.S. y Sejnowsky, T. (1990): “Neural representation and neural computation”, pps. 343-382, en Tomberlin, J. (ed.), Philosophical perspectives, 4.

Fodor, J.A. y Pylyshyn, Z. (1988): “Connectionism and cognitive architecture: a critical analysis”, Cognition, 28, 3-71.

Hebb, D. (1949): The organization of behavior, Wiley: Nueva York.

Kandel, E. y Hawkins, R. (1993): “Bases biológicas del aprendizaje y de la individualidad”, pps. 54-63 en V.V.A.A., Mente y cerebro, Prensa Científica:Barcelona.

Marr, D. (1985): Visión, Alianza: Madrid.

Ramsey et al (1990): “Connectionism, eliminativism, and the future of folk psychology”, pps. 499-533 en Tomberlin, J. (ed.), Philosophical perspectives, 4; Action Theory and Philosophy of mind, Ridgeviews: Atascadero.

Rumelhart et al. (1992): Introducción al procesamiento distribuido en paralelo, Alianza: Madrid.

Smolensky, P. (1988): “On the proper treatment of connectionism”, Behavioral and Brain Sciences, 11, 1-23.

ADDENDA del autor del blog:

Quienes estén interesados en leer artículos de aplicación pueden acceder en forma gratuita al monográfico de Philosophical Transactions of the Royal Society -Biological Sciences Volume 362, Number 1479 / March 29, 2007 titulado ‘The use of artificial neural networks to study perception in animals’


9.4.08

Invitación Encuentro con Mario Bunge


La SOCIEDAD CIENTÍFICA ARGENTINA y el CFI/ARGENTINA invitan a Ud. a participar del encuentro

"Sesión de preguntas y respuestas con Mario Bunge"

donde el destacado filósofo abordará, entre otros, temas relacionados con la pseudociencia, la filosofía y los sistemas de creencias.

El encuentro se llevará a cabo el sábado 26 de abril a las 18.30, en el Salón "Florentino Ameghino" de la Sociedad Científica Argentina. Av. Santa Fe 1145 - 1er piso - Ciudad de Buenos Aires

Se ofrecerá, a título voluntario, un bono contribución de $10 para todos aquellos asistentes que deseen colaborar con estas dos instituciones sin fines de lucro dedicadas a promover la divulgación de la ciencia.


José M. Lentino

Secretario - Soc. Cientifica Argentina


Alejandro J. Borgo Director - CFI/Argentina

7.4.08

Antibiótico contra TB 'tiene efectos secundarios graves'


Streptococcus pneumoniae
Foto gentileza http://s-pneumoniae.blogspot.com/

La noticia que sigue fue publicada en http://www.scidev.net/es bajo licencia Creative Commons

Antibiótico contra TB 'tiene efectos secundarios graves'

Christina Scott

31 marzo 2008

Un antibiótico utilizado para combatir la tuberculosis resistente a múltiples medicamentos en niños podría estar ocasionando una resistencia similar en una bacteria no relacionada y que causa la enfermedad por neumococo, señalaron investigadores.

Los autores del estudio publicado la semana pasada en la revista The Lancet (24 de marzo) dicen que este problema debería ser tomado en cuenta por las autoridades de salud que intentan prevenir la propagación del Streptococcus pneumoniae resistente a los medicamentos.

Los investigadores evaluaron 21.521 casos de la enfermedad por neumococo invasiva, incluyendo neumonía, septicemia y meningitis, obtenidos por el Laboratorio del Servicio Nacional de Salud de Sudáfrica en un monitoreo microbiológico de rutina, entre 2000 y 2006.

Los investigadores descubrieron que doce niños infectados con la bacteria Streptococcus pneumoniae eran resistentes al tratamiento con un medicamento llamado levofloxacina, del grupo de fármacos fluoroquinolona y que se utilizan para tratar la tuberculosis resistente a múltiples medicamentos.

El 89 por ciento de esos niños había sido previamente tratado con fluoroquinolona contra la tuberculosis. La mayoría de ellos adquirió la infección por neumococo mientras estaba en el hospital.

"Es una noticia muy importante", dice Anne von Gottberg, codirectora de la unidad de investigación de patógenos respiratorios y meníngeos del Instituto Nacional de Enfermedades Contagiosas, en Sudáfrica.

"El problema es que los niños que recibieron tratamiento para la tuberculosis resistente a los medicamentos pueden propagar a un mayor número de personas la bacteria neumococo, ahora también resistente a los fármacos".

"Los adultos, especialmente de edad avanzada o personas con un sistema inmunológico débil, estarán en riesgo si el tipo resistente de esta bacteria se propaga debido a que el tratamiento contra la neumonía podría fallar".

Los resultados obtenidos destacan la importancia del permanente monitoreo de rutina del Laboratorio del Servicio Nacional de Salud, dijo Nelesh Govender, patólogo de la entidad y coautor de la publicación.

"No tendríamos indicios de este problema si no tuviéramos un excelente sistema de control en el laboratorio, lugar donde monitoreamos la resistencia a los medicamentos", afirmó.

Como una medida a corto plazo, la investigación podría incentivar esfuerzos para extender la utilización de vacunas contra el neumococo, pocas veces disponibles en la mayoría de las naciones africanas, especialmente para niños hospitalizados a causa de la tuberculosis resistente a los medicamentos, señaló Govender.

11.3.08

El candidato republicano y el movimiento antivacunas

(John Mc Cain- Foto gentileza Revista Time)

John Mc Cain ya es el candidato de los republicanos para la presidencia de los EEUU y no ha perdido el tiempo en demostrar su ignorancia respecto a temas científicos.

No sería grave si la cuestión tuviera que ver con asuntos tales como el estatuto de Plutón como "planeta enano" o los mecanismos de la síntesis proteica, pero sí lo es cuando fomenta el miedo irracional de los padres hacia las vacunas pediátricas.

Es que desde que Andrew Wakefield publicara en 1998 en la revista médica The Lancet un artículo que "sugería" que la vacuna triple viral podía causar autismo sin hacer público que al mismo tiempo trabajaba como perito experto de asociaciones de padres de autistas en litigio con laboratorios, se desencadenó una verdadera histeria "anti vacuna" entre miles de padres europeos . No bastó con que casi todos los autores del paper se retractaran de lo publicado en 2004. El miedo se había extendido en Norteamérica al timerosal (un derivado del mercurio presente en otras vacunas infantiles, como la triple bacteriana) de tal forma que fue retirado preventivamente aunque no hubiera ni una sola evidencia a favor de esa hipótesis.

Numerosas investigaciones no hallaron correlación alguna entre timerosal y autismo (como por ejemplo el mega estudio de Eric Fonbonne realizado en Canadá en 2006, publicado en la revista "Pediatrics") y así los defensores del vínculo seguían -contra toda evidencia- en el terreno de las puras especulaciones .

El "movimiento antivacuna" fue tema de tapa del último Skeptical Inquirer , y ha sido motivo de análisis en diversas publicaciones tales como "Pensar" y "El escéptico". En todos los casos se resaltó la ausencia de evidencia de relación entre timerosal y autismo, y el papel que desempeñan organizaciones de abogados y médicos "alternativos" interesados en desintoxicar a los niños vacunados con por ej. "terapias de quelación".

Hace poco, una madre perteneciente a una de aquellas organizaciones interesadas en que los padres reciban "compensaciones monetarias" del Estado por sus hijos afectados de encefalopatías y autismo le preguntó a Mc Cain que posición tenía al respecto y, muy suelto del cuerpo, el candidato republicano le respondió que "there’s strong evidence" that thimerosal, a mercury-based preservative that was once in many childhood vaccines, is responsible for the increased diagnoses of autism in the U.S." (Es decir: afirma que existe evidencia sólida de que el timerosal produce autismo ) . No cita las fuentes en que se basa para su temeraria afirmación, claro.

Enlazamos a la opinión de algunos blogueros norteamericanos (sólo algunos destacados) que están mejor informados que el candidato republicano . Por aquí también . Y por aquí.

3.2.08

El legado de Hebb para la psicología científica


Donald Hebb (Gentileza UNED)

En su libro de 1949 titulado 'The Organization of Behavior' , Donald Hebb provocó un viraje en el estudio del aprendizaje en psicología : lo orientó hacia el sistema nervioso.

"When an axon of cell A is near enough to excite cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A's efficiency, as one of the cells firing B, is increased" ("Cuando un axón de una célula A está lo suficientemente cercano a una célula B como para excitarla y participa repetida o persistentemente en su disparo, ocurre algún proceso de crecimiento o cambio metabólico en una o en ambas células de modo tal que aumenten tanto la eficiencia de A como la de una de las distintas células que disparan a B")

En Lecciones de Psicología Médica, el Dr. López Ibor lo refiere de forma más sencilla : " cada acontecimiento relevante para el organismo se mantiene como un flujo de actividad dentro de un bucle neuronal. Cuando la estimulación que recibe el bucle es lo suficientemente intensa o persistente, la actividad reverberante introduce cambios estructurales, celulares y duraderos".

El psicólogo Raymond Klein autorizó al autor de éste blog a reproducir el artículo que publicara la "Revista canadiense de psicología experimental" en su número de homenaje a Donald Hebb de 1999 .

El legado de Hebb
por Raymond Klein

Donald Olding Hebb (1904-1985) fue una figura extraordinariamente influyente para la psicología. Su oposición al conductismo radical y su énfasis por entender qué ocurre entre el estímulo y la respuesta (percepción, aprendizaje, pensamiento) ayudaron a despejar el paso a la revolución cognitiva. Su visión de la psicología como una ciencia biológica y su propuesta neuropsicológica de "asambleas neuronales" rejuvenecieron el interés por la psicología fisiológica. Desde su muerte, las ideas seminales de Hebb influyen cada vez más en aquellos que estén interesados en la mente (ciencia cognitiva) , en el cerebro (neurociencia), y en cómo el cerebro pone en marcha a la mente (neurociencia cognitiva) .

Nacido en Chester, Nueva Escocia(Canadá) Hebb se graduó en la Universidad Dalhousie (Canadá) en 1925. Él aspiraba a escribir novelas, pero escogió el campo más práctico de la educación ; rápidamente se convirtió en un director escolar en la provincia de Quebec. Los escritos de James, Freud, y Watson estimularon su interés por la psicología, y como estudiante graduado de tiempo parcial en la Universidad McGill , conoció el programa que había enseñado Pavlov en Rusia. Sin embargo, poco impresionado, fue a trabajar con Karl Lashley y en 1936 completó su doctorado en Harvard estudiando los efectos que se producen en ratas en la percepción del tamaño y brillo , debidos a deprivación visual temprana . Aceptó la oferta que le hizo Wilder Penfield de una beca en el Instituto Neurológico de Montreal donde exploró el impacto de la cirugía y daño cerebral (particularmente lesiones de los lóbulos frontales) en la inteligencia humana y el comportamiento. De sus observaciones de que la extracción de grandes cantidades de tejido fino podrían tener poco impacto en la memoria y la inteligencia, Hebb infirió un sustrato neural que se distribuía extensamente .

En la universidad de Queens , desarrolló pruebas de inteligencia animal y humana, incluyendo el laberinto "Hebb-Williams"que posteriormente sería usado en cientos de estudios para investigar la inteligencia de muchas especies animales diferentes (Brown y Stanford, 1997) . Sus estudios sobre inteligencia lo llevaron a la conclusión de que la experiencia desempeña un papel mucho mayor que el que se daba por sentado (Hebb, 1942). Más tarde señalaría que cada parte del comportamiento está determinada tanto por herencia y ambiente, en forma similar a como la superficie de un campo está compuesta por el largo y el ancho (Hebb, 1953).

En 1942 Hebb se reencontró con Lashley, que se había convertido en el director del laboratorio Yerkes de biología de primates. Alli exploró el miedo, la cólera y otros procesos emocionales en el chimpancé. Estimulado por el clima intelectual del laboratorio Yerkes , Hebb comenzó a escribir un libro sintetizando sus diferentes líneas de investigación en una "teoría general del comportamiento" que intentara tender un puente entre la neurofisiología y la psicología (Hebb, 1949,) . Regresó a McGill como profesor de psicología y en 1948 fue designado catedrático. Su libro "La organización de la conducta: una teoría neuropsicológica " ejerció una especie de magia en los años posteriores a su aparición (Hebb, 1949) lo que atrajo a muchos científicos brillantes a la psicología, hizo a la Universidad McGill una meca para los científicos interesados en los mecanismos cerebrales del comportamiento, condujo a muchos descubrimientos importantes y lanzó a la psicología contemporánea a un camino más fecundo.

Cuando el libro de Hebb fue publicado,en 1949, la psicología fisiológica estaba en declinación y dentro de la psicología generalmente se tendía a rechazar los conceptos fisiológicos (Skinner, 1938). "La organización de la conducta" marcó un giro en la dirección de esa tendencia. "El problema para comprender el comportamiento es el problema de comprender la acción total del sistema nervioso, y viceversa" (1949, p XIV)

Se abusaba de las metáforas con propiedades sobre-entendidas para explicar el comportamiento y el pensamiento. La "química mental" de los asociacionistas británicos, los modelos hidráulicos de psicoterapia, los "campos magnéticos" de la psicología de la Gestalt , y la metáfora computacional de la psicología de procesamiento de información habían sido fecundos , pero también modelos limitados y engañosos. La alternativa atractiva y simple de Hebb fue explicar tanto al comportamiento como el pensamiento en términos del dispositivo que los produce: el cerebro.

En "La organización de la conducta", Hebb presentó justamente algo semejante a una teoría neuropsicológica.

Sus postulados esenciales fueron tres:

1. Las conexiones entre neuronas aumentan en eficacia, según el grado de correlación entre la actividad pre y post sináptica. "Cuando un axón de una célula A está lo suficientemente cercano a una célula B como para excitarla y participa repetida o persistentemente en su disparo, ocurre algún proceso de crecimiento o cambio metabólico en una o en ambas células de modo tal que aumenten tanto la eficiencia de A como la de una de las distintas células que disparan a B" (p. 62). En Neurociencia , las sinapsis que se comportan según esta propuesta son conocidas como las "Sinapsis de Hebb "- la primera instancia de lo que más tarde fue descubierto en la "potenciación a largo plazo" (Bliss y Lomo, 1973) y excitación (Goddard, McIntyre y Leech, 1969)-, mientras que en ciencia cognitiva este postulado, a menudo llamado la "Regla de Hebb", provee el algoritmo de aprendizaje más básico para ajustar las cargas de conexión en los modelos de redes neurales artificiales.

2. La actividad de los grupos de neuronas que tienden a excitar en forma conjunta a una asamblea de células puede persistir después del acontecimiento que desencadena y sirve a bosquejar. Esta propuesta, ilustrada por Hebb en forma esquemática y mostrada aquí en la Figura , es considerada por algunos como la contribución conceptual más importante de Hebb (Milner, 1986).

3. El pensamiento es la activación secuencial de conjuntos de asambleas celulares.


Hebb resume su teoría en la introducción del libro:

Cualquier estimulación particular frecuentemente repetida, conducirá al lento desarrollo de una "asamblea celular" -una estructura difundida que abarca células del cortex y del diencéfalo (y además-quizás-en los ganglios basales del cerebro)-, capaz de actuar brevemente como un sistema cerrado, facilitando a otros sistemas semejantes y teniendo usualmente una facilitación motora específica.

Una serie de tales eventos constituye una "secuencia de fase" - el proceso de pensamiento-. Cada acción de la asamblea puede ser despertada por una asamblea precedente, por un acontecimiento sensorial, o -normalmente- por ambos.

La facilitación central de una de estas actividades sobre la próxima es el prototipo de la "atención"" ... La teoría es evidentemente una forma de conexionismo...aunque no comercia con conexiones directas entre vías aferentes y eferentes :no es una teoría E-R si la respuesta significa "respuesta muscular"...

Además, eso no convierte a cualquier vía o neurona en esencial para cualquier hábito o cualquier percepción " (p. xix)


Hebb sabía que su teoría era especulativa, vaga e incompleta. Por ejemplo, estaba ausente de su modelo la "inhibición neural"(Milner, 1957) -un concepto que más tarde incorporaría -; (1959;1980a) . Pero él consideraba que hacía falta una clase de teoria que generara nueva evidencia. Las ideas de Hebb ciertamente fueron fructíferas para generar nueva evidencia: fomentaron literatura sobre el rol de la experiencia temprana en el desarrollo perceptual (Hunt, 1979), la deprivación sensorial (Zubek, 1969), la auto-estimulación (Olds y Milner, 1954), el bloqueo de la imagen retiniana (Pritchard, Heron, y Hebb, 1960), la transformación sináptica (Goddard, 1980), y el aprendizaje no conciente (McKelvie, 1987).
Hebb construyó los fundamentos para el neoconexionismo que busca explicar los procesos cognitivos en términos de conexiones entre asambleas de neuronas reales o artificiales.

Déjeme colocarle el título de "héroe de culto" a Hebb por predecir la madurez de nuestra relativamente joven ciencia; la estatura de las ideas de Hebb dentro de la psicología y la neurociencia conductual crecerín tanto como para competir con la estatura de las ideas de Darwin dentro de la biología.

Durante el curso de su vida, Hebb logró muchos honores y premios y mantuvo varias posiciones de jefatura. En medio de esto, fue nombrado miembro de la Sociedad Real de Canadá y de la Royal Society de Londres, se le otorgó el premio de la APA por su distinguida contribución científica y fue presidente de las asociaciones psicologicas canadiense y americana. Las contribuciones específicas de Hebb así como también sus influencias directas e indirectas han sido frecuentemente reconocidas en muchos artículos de revisión , simposios y libros, y en cátedras y condecoraciones que poseen su nombre.

Tanto la Asociación Psicológica Canadiense como la Sociedad Canadiense para el Cerebro, la Conducta y la Ciencia Cognitiva otorgaron el nombre de Hebb a condecoraciones y premios otorgadas a las contribuciones sobresalientes para la ciencia psicológica.

Para el lector interesado en aprender más acerca de la vida de Hebb y la evolución de sus ideas, interesan e informan sus artículos (Hebb, 1959, 1980b) así como también los de Glickman (1996) y Milner (1986) . El interés de Hebb en "La naturaleza del pensamiento" fue tema de una serie de conferencias y del libro con el mismo nombre (1980a) que celebraba su regreso a Dalhousie en 1977 como profesor honorario.

En un capítulo introductorio para ese libro tuve mi primer oportunidad de mostrar mi aprecio por las contribuciones de Hebb (Klein, 1980). Hacia el final de su vida, Hebb se interesó en los fenómenos y trastornos disociativos, confiado de que el análisis experimental cuidadoso y la aplicación inteligente de un entramado de asambleas celulares produciría una comprensión científicamente respetable de esta cuestión controvertida. Su entusiasmo animó a Ben Doane (un psiquiatra de Dalhousie y uno de los primeros estudiantes graduados de Hebb en McGill) y a mí a organizar un simposio y editar un libro sobre este tema (Klein y Doane, 1994) que dedicamos a la memoria de Hebb y sus contribuciones.

Las referencias en la literatura científica a Hebb , a la asamblea celular hebbiana, a la sinapsis de Hebb y a la regla de Hebb , aumentan cada año. Estas ideas vigorosas de 1949 son ahora aplicadas en ingeniería, robótica, y computación así como tambien neurofisiología, neurociencia y psicología. Son un tributo a la perspicacia científica de Hebb, previsión y coraje para adelantar una teoría fundacional neuropsicológica de la organización de comportamiento.



Línea del tiempo (Vida y obra de Donald Hebb)
Para agrandar la figura , haga click sobre ella
Gentileza Nature Neuroscience

Referencias:

  1. Bliss, T. V. P., & Lomo, T. (1973). Long lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path. Journal of Phsyiology, 232, 331-356.

  2. Boring, E. G. (1950). A history of experimental psychology, 2nd ed. New York: Appleton-Century-Crofts.

  3. Brown, R. E., & Stanford, L. (1997). The Hebb-Williams Maze: 50 years of research (1946-1996). Society for Neuroscience Abstracts (#110.15), 23, 278.

  4. Glickman, S. (1996). Donald Olding Hebb: Returning the nervous system to psychology. In G. Kimble, C. Boneau, & M. Wertheimer (Eds.), Portraits of pioneers in psychology Vol 2. Hillsdale, N. J.: Erlbaum.

  5. Goddard, G. V. (1980). Component properties of the memory machine: Hebb revisited. In P. W. Jusczyk & R. M. Klein (Eds.), The Nature of Thought: Essays in Honor of D. O. Hebb (pp.231-247). Hillsdale, N. J.: Erlbaum.

  6. Goddard, G. V., McIntyre, D. C., & Leech, C. K. (1969). A permanent change in brain function resulting from daily electrical stimulation. Experimental Neurology, 25, 295-330.

  7. Hebb, D. O. (1942). The effects of early and late brain injury upon test scores, and the nature of normal adult intelligence. Proceedings of the American Philosophical Society, 85, 275-292.

  8. Hebb, D. O. (1949). The Organization of Behavior: A neuropsychological theory. New York: Wiley.

  9. Hebb, D. O. (1953). Heredity and environment in mammalian behavior. British Journal of Animal Behavior, 1, 43-47.

  10. Hebb, D. O. (1959). A neuropsychological theory. In S. Koch (Ed.), Psychology: A Study of a Science (Vol. 1). New York: McGraw-Hill.

  11. Hebb, D. O. (1980a). Essay on mind. Hillsdale, N. J.: Earlbaum.

  12. Hebb, D. O. (1980b). D. O. Hebb. In G. Lindzey (Ed.), A history of psychology in autobiography Vol. VII. San Fransisco: W. H. Freeman.

  13. Hunt, J. M. (1979). Psychological development: Early experience. Annual Review of Psychology, 30, 103-143.

  14. Jusczyk, P. W., & Klein, R. M. (Eds.). (1980). The Nature of Thought: Essays in Honour of D. O. Hebb. Hillsdale, N. J.: Erlbaum.

  15. Klein, R. M. (1980). D. O. Hebb: An appreciation. In P. W. Jusczyk & R. M. Klein (Eds.), The Nature of Thought: Essays in Honor of D. O. Hebb (pp.1-18). Hillsdale, N. J.: Erlbaum.

  16. Klein, R. M., & Doane, B. K. (Eds.). (1994). Psychological Concepts and Dissociative Disorders. Hillsdale: Erlbaum.

  17. McKelvie, S. (1987). Learning and awareness in the Hebb digits task. Journal of General Psychology, 114, 75-88.

  18. Milner, P. M. (1957). The cell assembly: Mark II. Psychological Review, 64, 242-252.

  19. Milner, P. M. (1986). The mind and Donald O. Hebb. Scientific American, 268, 124-129.

  20. Olds, J., & Milner, P. M. (1954). Positive reinforcement produced by electrical stimulation of the septal area and other regions of the rat brain. Journal of Comparative and Physiological Psychology, 47, 419-427.

  21. Pritchard, R. M., Heron, W., & Hebb, D. O. (1960). Visual perception approached by the method of stabilized images. Canadian Journal of Psychology, 14, 67-77.

  22. Skinner, B. F. (1938). The Behavior of Organisms: An Experimental Analysis New York: Appleton-Century.

  23. Zubek, P. (1969). Sensory Deprivation: 15 years of Research New York: Meredith

29.1.08

La función del I.P.C.C.

Rajendra Pachauri , presidente actual del IPCC
gentileza de www.chinadaily.com.cn/


El año comenzó con la noticia de la muerte del meteorólogo Bert Bolin, diseñador y primer presidente del Panel Internacional de Expertos para el estudio del Cambio Climático (I.P.C.C.) que fue creado en 1988 por la Organización Meteorológica Mundial y la Organización de Naciones Unidas y compartió el Premio Nobel de la Paz en 2007 con Al Gore (mal que nos pese a los que detestamos el "ecologismo catastrofista" del autor de "Una verdad inconveniente")

Respetado y/o denostado por los mass media y por muchísimos autodenominados "escépticos del c.c") , se habla de él en la misma medida en que el gran público tiene una idea errada de lo que que es.

"La ciencia no se hace por consenso", es el latiguillo que suelen repetir los que lo descalifican pasando por alto el detalle no menor de que el IPCC no realiza investigaciones científicas sino que-apoyándose en investigaciones científicas- produce informes sobre evaluación de riesgo de cambio climático debido a la acción de actividades humanas (no es lo mismo: prestemos atención) Análogamente, no se debe confundir un "paper" escrito para una publicación científica con un informe de actividades científicas destinada a la población general .

Para realizar su tarea, el IPCC se apoya en publicaciones científicas sometidas al sistema de "revisión por pares" (desde luego que eso no es "hacer ciencia por consenso", lo digo por las dudas, aunque no es lo que afirma Crichton) - atendiendo a la implementación del Convenio Marco de las Naciones Unidas sobre cambio climático cuyo objetivo es crear conciencia a nivel mundial de los problemas derivados de ése fenómeno. El convenio se celebró en 1992 y en 1997 los gobiernos decidieron implementar medidas vinculantes jurídicamente . A eso se lo ha llamado "Protocolo de Kyoto" y ha sido muy criticado por varios : no se deben confundir las críticas racionales (estén en lo cierto o estén equivocadas) con las críticas malintencionadas y el falseamiento de información).

Se comprometieron a reducir las emisiones de seis gases provocadores del calentamiento global: dióxido de carbono , metano , óxido nitroso , hidrofluorocarbonos , perfluorocarbonos y hexafluoruro de azufre en un 5% dentro del período que va desde el año 2008 al 2012, en comparación a las emisiones al año 1990. (Fuente:wikipedia)

Cómo se ve, la acción del Panel es tanto científica como política (se reclama ésto último como si fuera un "motivo espúreo" cuando está entre sus objetivos explícitos) . No sólo se propone informar lo que las investigaciones científicas vayan revelando sino concientizar a los gobiernos de las mejores medidas a tomar. ¿Cuál es el pecado? Mas bien, creo que el pecado lo comete quienes marean la perdiz , caricaturizándolos como si fueran " stalinistas" que expulsan a los disidentes ( John Gibbs en "Cambio climático: ni siquiera ciencia" en "The Skeptic" de Australia) Otros hablan incluso de la "Iglesia del cambio climático".

Se realizaron cuatro Informes de evaluación, el último a comienzos de 2007 .(Lo mejor es leer los informes sin intermediarios en la web del Panel )

El IPCC consta de tres Grupos de trabajo y un Equipo especial: En inglés está la síntesis del Informe de la cuarta evaluación y en español se detalla grupo por grupo (los documentos pdf bajan algo lentos).

Recomiendo especialmente el F.A.Q en español del Primer Grupo de Trabajo. Es muy ilustrativo como introducción al tema.

Addenda: En inglés hay una completa historia de cómo los científicos han venido tratando- desde el siglo XIX- la posibilidad de que sea el hombre el responsable de los cambios en el calentamiento global (por el Centro de historia de la Física, del Instituto Norteamericano de Física)