5 de diciembre de 2013

Freud, ¿el "número uno"?

FREUD "EL NÚMERO UNO"


Por Klaus Ziegler

La obsesión por cuantificar lo incuantificable, por comparar lo incomparable, propia de esa programación anodina y superficial de canales como “History Channel” o “Discovery”, parece haberse extendido hasta el ámbito académico.
En el mismo espíritu de “Los diez más”, expertos en informática de la Universidad de Indiana desarrollaron una nueva herramienta de medición, “Scholarometer”, capaz de discriminar entre las grandes luminarias a los pensadores más influyentes, sumando científicos y humanistas por igual. El primer lugar correspondió a Sigmund Freud, “el más extremo”, según la fórmula, seguido de un pososcurantista, Jaques Derrida. El tercer escaño quedó reservado para un experto en dietas y el cuarto para un gran sicólogo, Jean Piaget.
Bajo la nueva métrica, Einstein no figura ni siquiera en el décimo lugar de la clasificación. Tampoco aparecen los padres de la mecánica cuántica, ni Watson ni Crick, ni ninguno de los íconos de la ciencia del siglo XX. Entre los elegidos no brillan los artífices de los antibióticos, ni los pioneros de las vacunas, ni los padres de la genética moderna. El transistor, los circuitos integrados, el computador, la internet, el láser, la resonancia magnética, los polímeros, los plásticos, los fármacos sintéticos…, todo aquello que caracteriza la ciencia y la tecnología de los últimos dos siglos palidece al lado del Complejo de Edipo, de la Teoría de los sueños, y luce bien lánguido al comparárselo con las propuestas filosóficas del vocero del deconstruccionismo.
No hay duda, el padre del sicoanálisis podría ser el autor más citado de la historia reciente. Otro asunto es que ello constituya prueba indirecta de la trascendencia de sus contribuciones o del valor de sus ideas. Con criterios similares, el éxito comercial serviría como medida de la calidad intelectual de un autor. Si así fuera, Chopra y Coelho tendrían que figurar entre los grandes intelectuales contemporáneos.
Calificar a Freud de científico es, para comenzar, un absurdo. El Complejo de Edipo, piedra angular del sicoanálisis freudiano, es una fantasía sin realidad empírica alguna, al igual que “La envidia del pene” o el “Complejo de Electra”. Ni la “Interpretación de los sueños” ni la “Libre asociación” tienen la menor validez científica. Tampoco posee sustento empírico la idea de que el inconsciente sea un reservorio de experiencias infantiles traumáticas reprimidas o sublimadas que influyan de manera constante en nuestra conducta.
Ni la depresión ni la esquizofrenia corresponden a desórdenes narcisistas o a conflictos no resueltos. La teoría resulta tan absurda como atribuir la causa de la insuficiencia cardíaca a un "conflicto masturbatorio". Pero la teoría no solo es errada, sino perversa, pues serían “madres esquizogénicas” las responsables de los trastornos síquicos de su prole. Es difícil desestimar el sufrimiento de tantas mujeres convencidas de ser culpables de la locura o del autismo de sus hijos. Estas sandeces resultan hoy inaceptables, máxime cuando empieza a conocerse el origen neurofisiológico de estas enfermedades. Las teorías de Freud reflejan los prejuicios de una época en la que se consideraba a las mujeres seres inferiores, y a la homosexualidad, una degeneración.
Pero es el carácter dogmático, cerrado y completo de la doctrina freudiana lo que la convierte en un objeto terminal, en un dinosaurio del mundo de las ideas. Si la siquiatría moderna pudo desarrollarse no fue gracias a la teoría sicoanalítica, sino a pesar de ella. La historia de la ciencia ofrece un sinnúmero de teorías falsa las cuales jugaron un papel histórico significativo, pues aunque fueron refutadas sirvieron no obstante de estímulo para el desarrollo científico posterior. Del sicoanálisis ni siquiera podríamos afirmar algo semejante, pues se trata de una seudociencia blindada, y no es concebible experimento alguno que la refute.
Y en cuanto a Freud, fueron los mismos sicoanalistas quienes desenmascararon sus fabricaciones. Protegido por el secreto médico, Freud gozó de licencia para distorsionar y sesgar la información a su antojo. Sólo en épocas recientes se han identificado los verdaderos personajes detrás de los seudónimos, "Cecilia M.", “El Hombre de los Lobos", “El Pequeño Hans". La trágica realidad es que ninguno de estos individuos se curó, en contradicción con la historia oficial, y a pesar de años de terapia sicoanalítica.
Y no son propiamente sus contradictores quienes han denunciado sus abusos. Sicoanalistas tan respetables como Jacques Van Rillaer o historiadores como Mikkel Borch-Jacobsen se han encargado de contarnos cómo Freud falsificó y tergiversó sus observaciones clínicas en aras de apoyar sus elucubraciones. Hoy se sabe, por ejemplo, que Freud jamás confirmó su teoría de la sexualidad mediante la observación directa de los niños, ni descubrió el Complejo de Edipo sobre la base de falsos recuerdos de seducción paterna, como ha señalado Frank Cioffi en su ensayo "Freud y la cuestión de la seudociencia".
El sicoanálisis como disciplina ha desaparecido casi por completo del mundo académico respetable. Si en la década de 1970 no había un solo departamento de sicología que no estuviese bajo la autoridad de sicoanalistas, hoy, al menos en el mundo anglosajón, su presencia e influencia es insignificante. A excepción de Buenos Aires, París y de algunos reductos en Brasil, en ningún centro académico de importancia se enseña sicoanálisis como parte de los currículos de siquiatría o sicología, de la misma manera que ni la homeopatía ni la bioenergética hacen parte de la formación médico-científica contemporánea. De ahí que los sicoanalistas se asemejen cada vez más a una cofradía cerrada. Aislados de la comunidad científica, permanecen ajenos y displicentes ante los avances de la neurología, e imperturbables ante los logros de la fármaco-siquiatría. Y no es precisamente debido a la terapia sicoanalítica que miles de esquizofrénicos y maniacodepresivos pueden llevar hoy una existencia soportable.
A Freud podríamos reconocerle su talento literario, su arrojo, su determinación. Pero interpretar el cociente entre el número de citas y la producción media en su campo como prueba de la trascendencia de sus ideas resulta tan elemental como esos índices de felicidad para determinar el país más feliz del mundo, o de maldad, para saber quién es más abominable entre Hitler y Nerón.



Fuente: elespectador.com

30 de octubre de 2013

un científico debe ser coherente

UN CIENTÍFICO DEBE SER COHERENTE

Por Emilio Yunis
Emilio Yunis, eminente genetista colombiano

La pregunta que debo responder después de atender la obligante invitación del periódico El Tiempo es cómo se puede descubrir que es serio un científico. La respuesta tradicional habla del número de publicaciones, las revistas arbitradas que las publican, el número de citas que posee, las patentes reales con que cuenta, entre otros elementos. Esto es lo tradicional, no aceptado por todos. Se conoce que Francis Crick, a la edad de 40 años contaba con una sola publicación cuando con James Watson publicaron su trabajo en unas cuantas páginas sobre la doble hélice y por qué ese modelo cubría las propiedades que debía poseer la molécula de la herencia. De manera rápida se convirtió en la publicación más citada, tanto que hoy ya no lo es más porque hace parte del conocimiento y alguien en su posesión no lo cuestiona.
Sin embargo, hay más elementos en juego, tanto para los científicos como para los medios informativos. Para los primeros no deben olvidar que tanto para el científico como para la ciencia el valor supremo siempre es una mayor aproximación a la verdad. Siempre debe estar dispuesto a rectificar, tanto lo que de él se dice, como sus logros, y esto tanto en su vida pública como en la privada. En una palabra, la coherencia debe ser su norma. No se separa de la esencia del medio informativo y del informador. Tiene las herramientas para ello, crea y destruye premios Nobel, trabajos en la NASA, producir títulos equivocados porque de la "calumnia" algo queda, como dar tintes de “racismo” donde no existe. La esencia del periodista y del medio informativo también es aproximarse cada vez más a la verdad.



Fuente: eltiempo.com

17 de octubre de 2013

teoría (hipótesis y validación experimental en la física)

TEORÍA


Por José Fernando Isaza

La física encuentra sus bases en hipótesis teóricas; algunas de ellas tardan muchos años en ser validadas con resultados experimentales

Galileo dedujo la ley de caída de los cuerpos por medio de un experimento mental; no hay evidencia de que lo haya comprobado arrojando dos objetos de diferente masa desde la torre de Pisa. Los avances, posteriores a Newton, en la mecánica clásica, realizados por Hamilton, Lagrange, parten de un postulado: la pereza es la madre de todos los inventos, la naturaleza es sabia y perezosa, por lo tanto las trayectorias de los objetos siguen el recorrido del menor esfuerzo.
Se pensaba que el universo era infinito y homogéneo. En 1823, Olbers echa al traste dicha concepción cósmica: de ser el universo infinito y homogéneo, la noche sería tan luminosa como el día. Es la paradoja de Olbers: como la noche es oscura, el universo es finito. La cosmología del siglo XX, apoyada en resultados experimentales, acepta como hipótesis la finitud del cosmos.
Los orígenes de la mecánica cuántica se basan en un trabajo teórico, papel y lápiz, realizado por Planck en el año 1900; busca responder la pregunta ¿por qué existe la materia? De acuerdo con la teoría de la radiación, se deducía que se iban produciendo en cualquier volumen ondas de menor y menor longitud sin límite, el resultado: la catástrofe electromagnética, solo radiación sin materia. Como esto no es así, Planck postuló que la energía no puede tener valores muy pequeños, deben ser mayores que un quántum y se evita así la “catástrofe”.
En el año 1905, cuando Einstein formula la teoría de la relatividad especial, no existía posibilidad técnica para demostrar la equivalencia masa-energía, ni el aumento de masa al crecer la velocidad. Hoy esos experimentos son el trabajo cotidiano de la comunidad científica. Einstein postula su hipótesis y deduce las ecuaciones para permitir que la formulación del electromagnetismo de Maxwell no se modifique si el objeto radiante está o no inmóvil en relación con un observador.
Los modelos del átomo, un núcleo de carga positiva (protones y neutrones) alrededor del cual giran partículas de carga negativa, electrones, no permiten la existencia de la materia; en un instante los electrones colapsan en el núcleo. Un teórico, Louis de Broglie, resuelve esta falencia, postulando que, de acuerdo con Planck, los electrones solo pueden girar en órbitas cuya energía es un múltiplo de un quántum.
Antes de que los aceleradores de partículas pudieran comprobar la existencia de la antimateria —partículas idénticas a la materia pero de carga eléctrica de signo contrario—, Paul Dirac introdujo en las ecuaciones de mecánica cuántica la energía relativista. La expresión es una raíz cuadrada. ¿Qué pasa si se toma el signo negativo? No hay ninguna contradicción y la solución es la antimateria.
Los bosones W y Z que explican las fuerzas en el átomo fueron postulados por S. Glasgow, S. Weinberg y A. Salam; muchos años después se comprobó su existencia.
El premio Nobel de Física en 2013 premia la hipótesis de la existencia de una partícula que les da masa a las partículas, el bosón de Higgs, la maldita partícula (The Godman particle) —su nombre políticamente correcto es La partícula de Dios—. Pasan 48 años entre el descubrimiento teórico y la comprobación experimental.


Fuente: elespectador.com


15 de octubre de 2013

"imponderable" (el primer modelo estándar de la física)

IMPONDERABLE: EL PRIMER MODELO ESTÁNDAR DE LA FÍSICA

Por César Tomé


Cuando los humanos nos enfrentamos a algo complejo usamos analogías con otra cosa que nos es familiar. Estas analogías cambian con el tiempo y la evolución de la técnica y nuestra familiaridad con nuevos dispositivos. Así, por ejemplo, el funcionamiento del encéfalo humano a mediados del siglo XX se asemejaba a una centralita de teléfonos, mientras que hoy se suele comparar con un ordenador. En el siglo XVIII y a comienzos del siglo XIX las semejanzas se hacían con dispositivos mecánicos en general. Fenómenos tan novedosos como la electricidad o el estudio del calor encontraron pronto acomodo en la analogía con las conducciones de agua.
Esta analogía para la electricidad puede trazarse hasta un momento preciso. En 1729 Stephen Gray descubrió que un hilo empapado conduce la electricidad, por lo que de ahí a asimilar el agente de la electricidad con agua corriendo por una tubería había un paso. Esta analogía se vería completada poco después por la comparación que hizo Benjamin Franklin entre las máquinas que se usaban para generar electricidad (en esta época poco más que cilindros y esferas de cristal que se frotaban, esto es, generadores electrostáticos rudimentarios) y las bombas impulsoras y entre las botellas de Leyden (los primeros condensadores) y los embalses.
Para aquellos que aceptaron la versión de Robert Symmer (1759) de la teoría de Franklin en la que las cargas negativas eran tan reales como las positivas, en la electricidad participaban dos fluidos que, dado que los cuerpos cargados pesados pesaban tanto como los neutros, se asumía que tenían un peso no medible, esto es, eran imponderables. Se iniciaba así la construcción de un modelo, el modelo imponderable, que llegaría al siglo XX.
Con objeto de explicar los fenómenos eléctricos más evidentes, los filósofos naturales adscribieron fuerzas atractivas y repulsivas a las “gotas” de los fluidos eléctricos; repulsivas entre las del mismo fluido y atractivas entre las de fluidos diferentes y entre un fluido y la materia ordinaria. Por otra parte, para dar cuenta de las diferencias en el grado de electrificación o la tensión que presentan los conductores aislados de diferentes formas y tamaños electrificados de la misma manera por la misma máquina, los filósofos atribuyeron una presión a el/los fluido/s y capacidades eléctricas específicas a los conductores. Estos conceptos los desarrollaron Johan Carl Wilcke y Alessandro Volta en la década de 1770.
En paralelo, la mayor parte de químicos y filósofos naturales del siglo XVIII atribuían la acción del calor, como en la electricidad, a una sustancia especial también imponderable que se consideraba que era un fluido expansivo ya que fluía de cuerpos calientes a fríos. También como la electricidad se asumía que sus componentes eran auto-repelentes para explicar la expansión de los cuerpos cuando se calentaban.
Las representaciones habituales del magnetismo y de la luz visible se adaptaron a la perfección a modelos imponderables. Por analogía con la electricidad (un fenómeno ya familiar) el magnetismo vino a considerarse como una fuerza a distancia que surgía de los fluidos magnéticos cuyas partículas seguían las mismas reglas de atracción y repulsión que regulaban las interacciones de los fluidos eléctricos. La principal distinción, a saber, que en el magnetismo no existía nada comparable a los conductores eléctricos, se consideró una cuestión de grado no de clase: los fluidos magnéticos permanecían en las sustancias magnéticas de la misma forma que los eléctricos se quedaban en los aislantes. Franz Aepinus fue el autor de estos paralelismos con cierto detalle en 1759.
En lo que respecta a la luz, su naturaleza corpuscular era la visión predominante basada en la sólida física newtoniana y sus teorías ópticas que atribuían a las partículas de luz con fuerzas de corto alcance por las que interactuaban con la materia para producir los fenómenos de reflexión, refracción e inflexión (difracción).
El impulso definitivo al modelo imponderable fue el descubrimiento por parte de William Herschel en 1800 del calor radiante más allá del extremo rojo del espectro de la luz visible. La luz infrarroja conectaba de forma elegante el calor con la luz ordinaria y, vía las analogías entre el calor y la electricidad, la luz con el magnetismo.
Otros filósofos naturales más especulativos añadían al modelo más imponderables (fuego, llama, flogisto, etc.) a los cinco aceptados generalmente. En cualquier caso, alrededor de 1800 el modelo imponderable se convirtió en el primer modelo estándar de las ciencias físicas. El siglo XIX vería su maduración y cómo el afán por completarlo llevó a una nueva física más allá del modelo estándar. Eso lo exploraremos en la próxima anotación.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Fuente: culturacientifica.com, esta anotación es una participación del Cuaderno de Cultura Científica en la XLV Edición del Carnaval de la Física que acoge Cuantos y cuerdas.



10 de octubre de 2013

el nobel de física y el origen de la materia

SOBRE EL ORIGEN DE LA MATERIA


Por Julio César Londoño

El Premio Nobel de Física recayó en François Englert y Peter Higgs, dos de los seis físicos que predijeron la existencia del bosón Higgs, la “partícula divina”. Los que quedaron por fuera (Gerard Guralnik, Tom Kibble y Carl Hagen) han revirado con justa razón. "A Peter Higgs lo trataron como una especie de estrella de rock pero la audiencia apenas nos prestó atención al resto. Estaba claro que Higgs era el nombre dominante por el hecho de que su nombre se ha asociado al bosón", refunfuñó Hagen (el sexto hombre, Robert Brout, murió en 2011 en el más estricto e injusto anonimato).
Lo cierto es que estos seis hombres, detectives de partículas de altas energías, entrevieron en 1964, a través de las brumas de 13.700 millones años de distancia, la sombra matemática de la partícula que vibró un instante en la primera milbillonésima de segundo del Big Bang, condensó la energía, inventó la materia, es decir, les dio masa y sustancia a los fermiones, trazó las leyes del cosmos y desapareció para siempre.
La Academia Sueca de Ciencias eligió a Higgs y a Englert porque son los autores de los papers más completos sobre la famosa partícula. Y porque no podía premiarlos a los seis: una cláusula de los Fundación Nobel establece que solo se puede premiar a un máximo de tres personas por categoría.
Como nadie ignora, el universo está hecho de fermiones (las briznas últimas de la materia) y bosones (los vehículos de las cuatro fuerzas que rigen el universo: gravitacional, nuclear débil, nuclear fuerte y electromagnetismo). Todo cuanto existe –el agua, las piedras, las estrellas, los pájaros, las flores y Sofía Vergara– es una combinación de fermiones y bosones en un orden precioso.
Durante 48 años, los hombres de ciencia buscaron de manera infructuosa el crucial bosón.
La cacería terminó el 4 de julio de 2012, cuando los físicos del Cern (el Centro Europeo de Investigaciones Nucleares) hallaron trazas de una partícula que reunía las características del dichoso bosón: era muy pesada y tenía una vida media muy corta. En los meses siguientes, los hombres del Cern, el enorme complejo subterráneo donde se creó la web y se puso a punto la teoría electrodébil, confirmaron el hallazgo: la partícula detectada en los big bang a escala producidos por el Colisionador de Hadrones del Cern, era la esquiva partícula predicha en 1964.
El bosón Higgs es clave por varias razones: a) al explicar el origen de la materia, ajusta el modelo estándar de la física. b) rehabilita al Cern del ‘oso’ cometido en 2011, cuando sus científicos anunciaron que habían descubierto neutrinos más rápidos que la luz.
Nada, ni siquiera un cruce de banquero y senador, puede ser más listo que la luz. c) garantiza que buena parte de los recursos de la investigación de punta –monopolizados por las investigaciones militares, farmacéuticas y biológicas– vuelva a las arcas de los laboratorios nucleares. d) libra a los físicos de la incómoda sonrisita de los teólogos. e) y quizá la razón más importante, permite que los astrofísicos vuelvan a acariciar el sueño de la teoría total, un corpus económico que explique las relaciones entre las cuatro fuerzas del universo. Un conjunto pequeño de ecuaciones capaz de descifrar el pasado y hacer transparente el futuro.



Fuente: elpais.com.co