Presentación

Estimadas y estimados amigos relanzamiento de blog MINADATOS. A partir de ahora continuarán recibiendo las noticias desde este nuevo blog, personal.

Buscar este blog

sábado, 26 de febrero de 2011

Cuándo y cómo se pierde la versatilidad propia de las células madre

Puntúa la entrada

Las células madre son las progenitoras de cada célula de nuestro cuerpo. Algunas de estas células incomparablemente versátiles mantienen esta notable plasticidad a lo largo de la vida de un animal, preparadas para reaccionar y hacer su trabajo en cuanto se las necesite, por ejemplo para reparar los daños causados por una lesión. Otras se diferencian en células especializadas, regeneran tejidos o intervienen en algún otro proceso antes de morir.

[Img #1350]
Un folículo piloso. (Foto: Rockefeller University)
Una reciente investigación define el punto en el cual las células madre del folículo piloso abandonan su versatilidad, al dejar su nicho para producir cabellos. También muestra cómo estas descendientes de las células madre regulan entonces la actividad de sus predecesoras.

El equipo de Elaine Fuchs, Jefa del Laboratorio de Desarrollo y Biología Celular en Mamíferos de la Universidad de Rockefeller, y Ya-Chieh Hsu, del mismo laboratorio, se centró en los folículos pilosos de ratón, sometidos a procesos que requerían la activación natural de las células madre.

Las células madre acostumbran a estar inactivas, pero cuando se activan, proliferan, y en este caso conducen al surgimiento de nuevos cabellos.

Los investigadores analizaron a fondo este ciclo, identificando el punto en el que las células madre activadas se convierten de manera irreversible en células especializadas para el crecimiento del pelo.

Los investigadores han comprobado que las primeras células madre descendientes pueden heredar y retener su capacidad de ser células madre, y regresar a ese estado cuando se detiene el crecimiento capilar.

Más información en:

Scitech News

Cuándo y cómo se pierde la versatilidad propia de las células madre

Puntúa la entrada

Las células madre son las progenitoras de cada célula de nuestro cuerpo. Algunas de estas células incomparablemente versátiles mantienen esta notable plasticidad a lo largo de la vida de un animal, preparadas para reaccionar y hacer su trabajo en cuanto se las necesite, por ejemplo para reparar los daños causados por una lesión. Otras se diferencian en células especializadas, regeneran tejidos o intervienen en algún otro proceso antes de morir.

[Img #1350]
Un folículo piloso. (Foto: Rockefeller University)
Una reciente investigación define el punto en el cual las células madre del folículo piloso abandonan su versatilidad, al dejar su nicho para producir cabellos. También muestra cómo estas descendientes de las células madre regulan entonces la actividad de sus predecesoras.

El equipo de Elaine Fuchs, Jefa del Laboratorio de Desarrollo y Biología Celular en Mamíferos de la Universidad de Rockefeller, y Ya-Chieh Hsu, del mismo laboratorio, se centró en los folículos pilosos de ratón, sometidos a procesos que requerían la activación natural de las células madre.

Las células madre acostumbran a estar inactivas, pero cuando se activan, proliferan, y en este caso conducen al surgimiento de nuevos cabellos.

Los investigadores analizaron a fondo este ciclo, identificando el punto en el que las células madre activadas se convierten de manera irreversible en células especializadas para el crecimiento del pelo.

Los investigadores han comprobado que las primeras células madre descendientes pueden heredar y retener su capacidad de ser células madre, y regresar a ese estado cuando se detiene el crecimiento capilar.

Más información en:

Scitech News

Grafito, ¿un imán permanente?

Puntúa la entrada

Investigadores de la Universidad Autónoma de Madrid (UAM) y del Instituto de Ciencia de Materiales de Madrid (CSIC), en un estudio publicado recientemente en la revista Physical Review Letters, explican el origen de un exótico comportamiento del grafito. Los resultados revelan que los escalones de grafito no presentan carácter ferromagnético.

[Img #1348]
(Foto: UAM, ICMM)
Bien conocido por sus propiedades como lubricante sólido, o por encontrarse como principal componente de la mina de los lápices, el grafito todavía sigue escondiendo el origen de algunas de sus propiedades físicas. Constituido únicamente por átomos de Carbono, su estructura se compone de delgadas láminas, de espesor atómico, conocidas como grafeno —el Premio Nobel de Física de 2010 ha tenido como principal motivo el aislamiento individual de estas láminas—.

Durante los últimos diez años, el grafito ha sido protagonista de un gran número de publicaciones científicas al descubrirse en él evidencias de un inesperado comportamiento ferromagnético, similar al de un imán permanente, en regiones localizadas de tamaño nanométrico asociadas con defectos de la red cristalina que lo forma.

En octubre de 2009, un grupo de investigadores de la Universidad técnica de Eindhoven y la Universidad Radboud de Nijmegen en Holanda, parecía haber encontrado la clave de dicho comportamiento. Según ellos, a lo largo de los escalones monoatómicos en la superficie del grafito, formados por una gran cantidad de defectos a escala atómica, se observaba una clara e inequívoca señal ferromagnética.

Sin embargo, los experimentos anteriores no son concluyentes, dado que sigue sin resolver el conocido problema para separar los campos eléctricos de los magnéticos en la nanoescala. El estudio de estas interacciones es fundamental para la Nanotecnología, ya que son el origen de las fuerzas que gobiernan el mundo de lo pequeño, pues en esas dimensiones la gravedad, que nos es tan familiar, es despreciable.

Cuatro investigadores de la UAM (David Martínez-Martín, Miriam Jaafar, Rubén Pérez y Julio Gómez-Herrero) junto con la investigadora Agustina Asenjo, del Instituto de Ciencia de Materiales de Madrid (CSIC), consiguieron desarrollar una nueva metodología que permite, por fin, la separación correcta de las interacciones eléctricas y magnéticas en sistemas nanoscópicos.

Para desenmascarar el comportamiento magnético del grafito, los investigadores se valieron de un dispositivo experimental que integra de forma simultánea (1) la microscopía de fuerza atómica, (2) la microscopía de sonda Kelvin y (3) la microscopía de fuerza magnética.

La primera es la encargada de adquirir la información topográfica superficial de la muestra en estudio. La segunda, sensible únicamente a los campos eléctricos, determina con gran exactitud el campo eléctrico local asociado a un punto determinado de la topografía; y crea un campo eléctrico igual pero de sentido opuesto al existente, de manera que el campo eléctrico resultante es nulo.

La microscopía de fuerza magnética, por su parte, determina con altísima sensibilidad el campo magnético en esa región del espacio. Toda esta instrumentación se encuentra en el interior de una campana de alto vacío, lo cual consigue aumentar muy eficazmente sus límites de detección.

Los resultados del estudio, publicados recientemente por la revista Physical Review Letters, han desvelado que los escalones de grafito no presentan carácter ferromagnético. El trabajo confirma también que la señal observada a lo largo de los escalones de grafito es independiente del campo magnético externo aplicado, corroborando la naturaleza no magnética de la señal observada en tales defectos cristalinos.

Además, los investigadores han señalado que un gran número de las evidencias que se pueden encontrar en la literatura, son el resultado de confundir interacciones eléctricas con interacciones magnéticas. El equipo confía en que el método permitirá avanzar en el conocimiento de los muchos procesos que tienen lugar a escalas atómica y molecular. (Fuente: SINC/UAM)

Grafito, ¿un imán permanente?

Puntúa la entrada

Investigadores de la Universidad Autónoma de Madrid (UAM) y del Instituto de Ciencia de Materiales de Madrid (CSIC), en un estudio publicado recientemente en la revista Physical Review Letters, explican el origen de un exótico comportamiento del grafito. Los resultados revelan que los escalones de grafito no presentan carácter ferromagnético.

[Img #1348]
(Foto: UAM, ICMM)
Bien conocido por sus propiedades como lubricante sólido, o por encontrarse como principal componente de la mina de los lápices, el grafito todavía sigue escondiendo el origen de algunas de sus propiedades físicas. Constituido únicamente por átomos de Carbono, su estructura se compone de delgadas láminas, de espesor atómico, conocidas como grafeno —el Premio Nobel de Física de 2010 ha tenido como principal motivo el aislamiento individual de estas láminas—.

Durante los últimos diez años, el grafito ha sido protagonista de un gran número de publicaciones científicas al descubrirse en él evidencias de un inesperado comportamiento ferromagnético, similar al de un imán permanente, en regiones localizadas de tamaño nanométrico asociadas con defectos de la red cristalina que lo forma.

En octubre de 2009, un grupo de investigadores de la Universidad técnica de Eindhoven y la Universidad Radboud de Nijmegen en Holanda, parecía haber encontrado la clave de dicho comportamiento. Según ellos, a lo largo de los escalones monoatómicos en la superficie del grafito, formados por una gran cantidad de defectos a escala atómica, se observaba una clara e inequívoca señal ferromagnética.

Sin embargo, los experimentos anteriores no son concluyentes, dado que sigue sin resolver el conocido problema para separar los campos eléctricos de los magnéticos en la nanoescala. El estudio de estas interacciones es fundamental para la Nanotecnología, ya que son el origen de las fuerzas que gobiernan el mundo de lo pequeño, pues en esas dimensiones la gravedad, que nos es tan familiar, es despreciable.

Cuatro investigadores de la UAM (David Martínez-Martín, Miriam Jaafar, Rubén Pérez y Julio Gómez-Herrero) junto con la investigadora Agustina Asenjo, del Instituto de Ciencia de Materiales de Madrid (CSIC), consiguieron desarrollar una nueva metodología que permite, por fin, la separación correcta de las interacciones eléctricas y magnéticas en sistemas nanoscópicos.

Para desenmascarar el comportamiento magnético del grafito, los investigadores se valieron de un dispositivo experimental que integra de forma simultánea (1) la microscopía de fuerza atómica, (2) la microscopía de sonda Kelvin y (3) la microscopía de fuerza magnética.

La primera es la encargada de adquirir la información topográfica superficial de la muestra en estudio. La segunda, sensible únicamente a los campos eléctricos, determina con gran exactitud el campo eléctrico local asociado a un punto determinado de la topografía; y crea un campo eléctrico igual pero de sentido opuesto al existente, de manera que el campo eléctrico resultante es nulo.

La microscopía de fuerza magnética, por su parte, determina con altísima sensibilidad el campo magnético en esa región del espacio. Toda esta instrumentación se encuentra en el interior de una campana de alto vacío, lo cual consigue aumentar muy eficazmente sus límites de detección.

Los resultados del estudio, publicados recientemente por la revista Physical Review Letters, han desvelado que los escalones de grafito no presentan carácter ferromagnético. El trabajo confirma también que la señal observada a lo largo de los escalones de grafito es independiente del campo magnético externo aplicado, corroborando la naturaleza no magnética de la señal observada en tales defectos cristalinos.

Además, los investigadores han señalado que un gran número de las evidencias que se pueden encontrar en la literatura, son el resultado de confundir interacciones eléctricas con interacciones magnéticas. El equipo confía en que el método permitirá avanzar en el conocimiento de los muchos procesos que tienen lugar a escalas atómica y molecular. (Fuente: SINC/UAM)

El efecto del sentimiento de traición cuando un dispositivo de seguridad entraña riesgos

Un nuevo estudio explora las razones por las que tendemos a sentir rechazo hacia dispositivos que aumentan la seguridad pero que al mismo tiempo añaden un pequeño riesgo, y por qué ante tal situación preferimos un dispositivo que nos protege menos pero que nunca nos hará daño, a uno que nos protege más pero que podría llegar a hacérnoslo, aún cuando el beneficio neto de este segundo sea superior al del primero.

Recurrimos al airbag, a los detectores de humo y a las vacunas, para gozar de una mayor seguridad. Desafortunadamente, las vacunas a veces provocan efectos secundarios graves, y los airbags en ocasiones pueden provocar lesiones e incluso matar a la persona a la que debían proteger. Pero sólo porque estos dispositivos no sean perfectos eso no significa que debamos rechazarlos a ultranza.

Andrew D. Gershoff (Universidad de Texas en Austin) y Johnathan J. Koehler (Universidad del Noroeste, Estados Unidos) han descubierto que las personas nos sentimos traicionadas cuando nos enteramos de los riesgos relacionados con los productos de seguridad en los que debemos depositar nuestra confianza. Entonces, nuestras emociones interfieren en el proceso de toma racional de decisiones.

Los investigadores estudiaron el “efecto traición” observando las reacciones de los sujetos de estudio ante el ejemplo de los airbags. Pidieron a esas personas que escogieran entre dos automóviles. Uno estaba equipado con un airbag que era menos capaz de salvar la vida del usuario en caso de un accidente grave. El otro automóvil tenía un airbag más capaz de salvar la vida del usuario, pero que también tenía una pequeña oportunidad de causar su muerte debido a la gran fuerza con la que se desplegaba.

La mayoría de los participantes rechazó el airbag que tenía la pequeña oportunidad de dañarles, pese a que al hacerlo estaban aceptando una oportunidad mucho más grande de sufrir daños graves en un accidente.

Lo desvelado por esta investigación muestra que las personas experimentamos potentes reacciones emocionales cuando un dispositivo cuya misión es protegernos resulta tener un cierto potencial de dañarnos, por pequeño que sea éste, y por más que esté compensado por su capacidad protectora. Así, más que sopesar los pros y los contras, tendemos a rechazar por completo un dispositivo de seguridad capaz de generar riesgos, incluso si esta decisión nos lleva a aceptar un grado de riesgo neto mayor que el derivado de dejarnos proteger por el dispositivo "traidor".

Más información en:

Scitech News

El efecto del sentimiento de traición cuando un dispositivo de seguridad entraña riesgos

Un nuevo estudio explora las razones por las que tendemos a sentir rechazo hacia dispositivos que aumentan la seguridad pero que al mismo tiempo añaden un pequeño riesgo, y por qué ante tal situación preferimos un dispositivo que nos protege menos pero que nunca nos hará daño, a uno que nos protege más pero que podría llegar a hacérnoslo, aún cuando el beneficio neto de este segundo sea superior al del primero.

Recurrimos al airbag, a los detectores de humo y a las vacunas, para gozar de una mayor seguridad. Desafortunadamente, las vacunas a veces provocan efectos secundarios graves, y los airbags en ocasiones pueden provocar lesiones e incluso matar a la persona a la que debían proteger. Pero sólo porque estos dispositivos no sean perfectos eso no significa que debamos rechazarlos a ultranza.

Andrew D. Gershoff (Universidad de Texas en Austin) y Johnathan J. Koehler (Universidad del Noroeste, Estados Unidos) han descubierto que las personas nos sentimos traicionadas cuando nos enteramos de los riesgos relacionados con los productos de seguridad en los que debemos depositar nuestra confianza. Entonces, nuestras emociones interfieren en el proceso de toma racional de decisiones.

Los investigadores estudiaron el “efecto traición” observando las reacciones de los sujetos de estudio ante el ejemplo de los airbags. Pidieron a esas personas que escogieran entre dos automóviles. Uno estaba equipado con un airbag que era menos capaz de salvar la vida del usuario en caso de un accidente grave. El otro automóvil tenía un airbag más capaz de salvar la vida del usuario, pero que también tenía una pequeña oportunidad de causar su muerte debido a la gran fuerza con la que se desplegaba.

La mayoría de los participantes rechazó el airbag que tenía la pequeña oportunidad de dañarles, pese a que al hacerlo estaban aceptando una oportunidad mucho más grande de sufrir daños graves en un accidente.

Lo desvelado por esta investigación muestra que las personas experimentamos potentes reacciones emocionales cuando un dispositivo cuya misión es protegernos resulta tener un cierto potencial de dañarnos, por pequeño que sea éste, y por más que esté compensado por su capacidad protectora. Así, más que sopesar los pros y los contras, tendemos a rechazar por completo un dispositivo de seguridad capaz de generar riesgos, incluso si esta decisión nos lleva a aceptar un grado de riesgo neto mayor que el derivado de dejarnos proteger por el dispositivo "traidor".

Más información en:

Scitech News

La proteína Lazarillo es clave en enfermedades neurodegenerativas

Puntúa la entrada

Una proteína que en los insectos se conoce como Lazarillo y en humanos se corresponde con la apolipoproteína D parece jugar un papel muy importante en las enfermedades neurodegenerativas y en el envejecimiento. Investigadores del Instituto de Biología y Genética Molecular (IBGM) han comprobado que la presencia de dicha sustancia refuerza a las principales células del sistema nervioso, las neuronas, mientras que su ausencia se relaciona con la aparición de patologías como alzhéimer, párkinson o esclerosis múltiple, además de acelerar el envejecimiento.

[Img #1358]
Proteína Lazarillo. (Foto: IBGM/DiCYT)
Han llegado a esta conclusion usando el modelo de la mosca del vinagre (Drosophila melanogaster) para experimentar. El científico Diego Sánchez, del IBGM, centro de la Universidad de Valladolid y el CSIC, lo ha explicado en Salamanca en el Instituto de Neurociencias de Castilla y León (Incyl).

"Es una proteína producida por células del sistema nervioso que normalmente ayudan a las neuronas a funcionar mejor", ha señalado el experto en referencia a las células de la glía. "Lo que sabemos ahora mismo es que Lazarillo (llamada así por estos investigadores porque sirve de guía de los axones o conexiones neuronales) es que es la proteína que aumenta más su cantidad en el cerebro humano cuando envejecemos y que, por lo tanto, tiene un papel muy importante en el envejecimiento. Además en muchas enfermedades neurodegenerativas como alzhéimer, párkinson, esclerosis múltiple, que tienen mucho que ver con el envejecimiento del cerebro, la proteína se pone en marcha", afirma, en declaraciones a DiCYT.

En los animales que son modelos mutantes que carecen de la proteína, hay fenómenos que simulan los procesos neurodegenerativos, por ejemplo, la mosca del vinagre muere mucho antes sin la proteína Lazarillo. Por el contrario, "si generas una mosca que tiene mucha más cantidad de la proteína dura entre un 20 y un 40% más", comenta el investigador. Sin embargo, para los científicos del IBGM lo más importante es cómo actúa: "a lo mejor no se trata de dar una pastilla de apolipoproteína D, sino de buscar el fenómeno por el cual esta proteína hace mejor a las neuronas, porque quizá en este punto resida el potencial farmacológico".

De acuerdo con las investigaciones de este grupo, la apolipoproteína podría mejorar el estado de las membranas de las células, una parte esencial, en este caso, de las neuronas. "Si tienes una membrana que no funciona bien, muchas de las funciones de las neuronas no van a desarrollarse de manera adecuada", indica. Por eso, su hipótesis es que "el estado de salud de las membranas podría ser el punto clave donde esta proteína ayuda".

La forma de la proteína Lazarillo o apolipoproteína D sería clave, ya que se asemeja a un cáliz, es decir, "es como una copa en la que dentro del vaso lleva moléculas lipídicas", un aspecto que sería esencial para las membranas celulares, puesto que están hechas de estas moléculas y, por lo tanto, se beneficiarían de la presencia de la proteína.

Aunque se trata de una investigación básica, los científicos vallisoletanos piensan que tiene la apolipoproteína D tiene mucho potencial, ya que es estable y se encuentra en el plasma humano. En este sentido, "es difícil que entre en el sistema nervioso de forma natural, porque una barrera separa la sangre del sistema nervioso". Sin embargo, precisamente, en casos de neurodegeneración dicha barrera se rompe, así que "es posible que un exceso de esta proteína puesto en sangre pudiera llegar a las zonas donde hay lesiones, pero eso es terreno de experimentación para la ciencia aplicada, nosotros solo nos ocupamos de cómo se produce", agrega Diego Sánchez.

El grupo de Diego Sánchez y Dolores Ganfornina, en el IBGM de Valladolid, es el único que trabaja con Drosophila melanogaster o mosca del vinagre en el campo de las Neurociencias en Castilla y León, según ellos mismos han indicado.

¿Cuál es la razón de que recurran a este animal que, en principio, parece tan alejado evolutivamente del ser humano? La razón es carácter práctico. "Es un animal que envejece en tres meses, mientras que los ratones lo hacen en tres años", apunta Diego Sánchez. Además, "podemos tener centenares de individuos para experimentar salidos de un solo tubo en un plazo de 25 días". Por el contrario, tener centenares de ratones supondría un gasto enorme y la necesidad de contar con una gran infraestructura. Por eso, sólo cuando están seguros de que un modelo funciona es cuando dan el salto para experimentar con vertebrados. (Fuente: DICYT)

La proteína Lazarillo es clave en enfermedades neurodegenerativas

Puntúa la entrada

Una proteína que en los insectos se conoce como Lazarillo y en humanos se corresponde con la apolipoproteína D parece jugar un papel muy importante en las enfermedades neurodegenerativas y en el envejecimiento. Investigadores del Instituto de Biología y Genética Molecular (IBGM) han comprobado que la presencia de dicha sustancia refuerza a las principales células del sistema nervioso, las neuronas, mientras que su ausencia se relaciona con la aparición de patologías como alzhéimer, párkinson o esclerosis múltiple, además de acelerar el envejecimiento.

[Img #1358]
Proteína Lazarillo. (Foto: IBGM/DiCYT)
Han llegado a esta conclusion usando el modelo de la mosca del vinagre (Drosophila melanogaster) para experimentar. El científico Diego Sánchez, del IBGM, centro de la Universidad de Valladolid y el CSIC, lo ha explicado en Salamanca en el Instituto de Neurociencias de Castilla y León (Incyl).

"Es una proteína producida por células del sistema nervioso que normalmente ayudan a las neuronas a funcionar mejor", ha señalado el experto en referencia a las células de la glía. "Lo que sabemos ahora mismo es que Lazarillo (llamada así por estos investigadores porque sirve de guía de los axones o conexiones neuronales) es que es la proteína que aumenta más su cantidad en el cerebro humano cuando envejecemos y que, por lo tanto, tiene un papel muy importante en el envejecimiento. Además en muchas enfermedades neurodegenerativas como alzhéimer, párkinson, esclerosis múltiple, que tienen mucho que ver con el envejecimiento del cerebro, la proteína se pone en marcha", afirma, en declaraciones a DiCYT.

En los animales que son modelos mutantes que carecen de la proteína, hay fenómenos que simulan los procesos neurodegenerativos, por ejemplo, la mosca del vinagre muere mucho antes sin la proteína Lazarillo. Por el contrario, "si generas una mosca que tiene mucha más cantidad de la proteína dura entre un 20 y un 40% más", comenta el investigador. Sin embargo, para los científicos del IBGM lo más importante es cómo actúa: "a lo mejor no se trata de dar una pastilla de apolipoproteína D, sino de buscar el fenómeno por el cual esta proteína hace mejor a las neuronas, porque quizá en este punto resida el potencial farmacológico".

De acuerdo con las investigaciones de este grupo, la apolipoproteína podría mejorar el estado de las membranas de las células, una parte esencial, en este caso, de las neuronas. "Si tienes una membrana que no funciona bien, muchas de las funciones de las neuronas no van a desarrollarse de manera adecuada", indica. Por eso, su hipótesis es que "el estado de salud de las membranas podría ser el punto clave donde esta proteína ayuda".

La forma de la proteína Lazarillo o apolipoproteína D sería clave, ya que se asemeja a un cáliz, es decir, "es como una copa en la que dentro del vaso lleva moléculas lipídicas", un aspecto que sería esencial para las membranas celulares, puesto que están hechas de estas moléculas y, por lo tanto, se beneficiarían de la presencia de la proteína.

Aunque se trata de una investigación básica, los científicos vallisoletanos piensan que tiene la apolipoproteína D tiene mucho potencial, ya que es estable y se encuentra en el plasma humano. En este sentido, "es difícil que entre en el sistema nervioso de forma natural, porque una barrera separa la sangre del sistema nervioso". Sin embargo, precisamente, en casos de neurodegeneración dicha barrera se rompe, así que "es posible que un exceso de esta proteína puesto en sangre pudiera llegar a las zonas donde hay lesiones, pero eso es terreno de experimentación para la ciencia aplicada, nosotros solo nos ocupamos de cómo se produce", agrega Diego Sánchez.

El grupo de Diego Sánchez y Dolores Ganfornina, en el IBGM de Valladolid, es el único que trabaja con Drosophila melanogaster o mosca del vinagre en el campo de las Neurociencias en Castilla y León, según ellos mismos han indicado.

¿Cuál es la razón de que recurran a este animal que, en principio, parece tan alejado evolutivamente del ser humano? La razón es carácter práctico. "Es un animal que envejece en tres meses, mientras que los ratones lo hacen en tres años", apunta Diego Sánchez. Además, "podemos tener centenares de individuos para experimentar salidos de un solo tubo en un plazo de 25 días". Por el contrario, tener centenares de ratones supondría un gasto enorme y la necesidad de contar con una gran infraestructura. Por eso, sólo cuando están seguros de que un modelo funciona es cuando dan el salto para experimentar con vertebrados. (Fuente: DICYT)

La bifurcación evolutiva de un gen en dos con funciones distintas

Puntúa la entrada

Por primera vez se ha logrado analizar a escala molecular cómo un gen que desarrolle dos funciones que compitan una con la otra por la asignación de recursos, puede finalmente dividirse en dos, a través de la duplicación génica, cesando esa competición entre funciones al ser asignada cada una a un gen distinto y seguir cada uno de estos un camino evolutivo separado.

[Img #1356]
Christina Cheng. (Foto: L. Brian Stauffer)
El estudio valida una hipótesis de décadas de antigüedad sobre un mecanismo clave de la evolución. La investigación también confirma la ascendencia de una familia de proteínas anticongelantes que ayuda a un pez antártico a sobrevivir en las frías aguas del Océano Antártico.

Christina Cheng, profesora de Biología Animal en la Universidad de Illinois, lleva tres décadas estudiando las adaptaciones genéticas que permiten a los peces antárticos sobrevivir en una de las zonas más frías del planeta.

Los científicos saben desde el año 2001 que la secuencia genética que codifica para una familia de proteínas anticongelantes (conocida como AFP III) es muy similar a una parte de la secuencia de un gen que codifica para una enzima celular en los seres humanos. Ya que el pez antártico objeto de estudio también produce esta enzima (SAS), se pensaba que los genes para estas proteínas anticongelantes de alguna manera habían evolucionado a partir de una copia duplicada del gen SAS. Sin embargo, ningún estudio lo había demostrado con datos experimentales lo bastante convincentes.

El hallazgo hecho por Cheng y sus colegas de la Academia China de Ciencias apoya esa hipótesis de que cuando un gen comienza a desarrollar más de una función, la duplicación de ese gen podría resultar en la evolución divergente del gen original y su duplicado.

En la antigua enzima SAS, la función original desempeñada por ella y la función adicional emergente relacionada con el hielo, quizá entraron en conflicto una con la otra. Cuando el gen SAS-B fue creado por duplicación como resultado de un error de copiado o de algún otro suceso fortuito en la célula, entonces cada uno de los genes duplicados fue liberado del conflicto y siguió su propio camino evolutivo.

Más información en:

Scitech News

La bifurcación evolutiva de un gen en dos con funciones distintas

Puntúa la entrada

Por primera vez se ha logrado analizar a escala molecular cómo un gen que desarrolle dos funciones que compitan una con la otra por la asignación de recursos, puede finalmente dividirse en dos, a través de la duplicación génica, cesando esa competición entre funciones al ser asignada cada una a un gen distinto y seguir cada uno de estos un camino evolutivo separado.

[Img #1356]
Christina Cheng. (Foto: L. Brian Stauffer)
El estudio valida una hipótesis de décadas de antigüedad sobre un mecanismo clave de la evolución. La investigación también confirma la ascendencia de una familia de proteínas anticongelantes que ayuda a un pez antártico a sobrevivir en las frías aguas del Océano Antártico.

Christina Cheng, profesora de Biología Animal en la Universidad de Illinois, lleva tres décadas estudiando las adaptaciones genéticas que permiten a los peces antárticos sobrevivir en una de las zonas más frías del planeta.

Los científicos saben desde el año 2001 que la secuencia genética que codifica para una familia de proteínas anticongelantes (conocida como AFP III) es muy similar a una parte de la secuencia de un gen que codifica para una enzima celular en los seres humanos. Ya que el pez antártico objeto de estudio también produce esta enzima (SAS), se pensaba que los genes para estas proteínas anticongelantes de alguna manera habían evolucionado a partir de una copia duplicada del gen SAS. Sin embargo, ningún estudio lo había demostrado con datos experimentales lo bastante convincentes.

El hallazgo hecho por Cheng y sus colegas de la Academia China de Ciencias apoya esa hipótesis de que cuando un gen comienza a desarrollar más de una función, la duplicación de ese gen podría resultar en la evolución divergente del gen original y su duplicado.

En la antigua enzima SAS, la función original desempeñada por ella y la función adicional emergente relacionada con el hielo, quizá entraron en conflicto una con la otra. Cuando el gen SAS-B fue creado por duplicación como resultado de un error de copiado o de algún otro suceso fortuito en la célula, entonces cada uno de los genes duplicados fue liberado del conflicto y siguió su propio camino evolutivo.

Más información en:

Scitech News

El tiranosaurio rex no era un carroñero sino un depredador

Puntúa la entrada

El tiranosaurio rex cazaba como un león, en vez de vivir habitualmente de los cadáveres de animales muertos como si fuese una hiena, según revela una nueva investigación. El hallazgo pone fin a un largo debate acerca de la conducta alimentaria de esta bestia impresionante.

[Img #1359]
(Foto: ZSL)
Los autores del estudio, de la Sociedad Zoológica de Londres (ZSL por sus siglas en inglés) utilizaron un modelo ecológico basado en las relaciones de los depredadores en la zona del Parque Nacional de Serengeti para determinar si la conducta carroñera pudo ser una estrategia eficaz para la alimentación del tiranosaurio rex.

Los intentos anteriores para resolver las dudas sobre si el tiranosaurio rex era mayormente un depredador o un carroñero se centraron en su morfología. El fallo de este enfoque es que dos especies pueden poseer características físicas similares, pero contar con estrategias de caza muy diferentes, como sucede con los buitres y las águilas.

Al tener una idea clara de las fuerzas ecológicas que intervienen en la cuestión, el equipo de Chris Carbone ha sido capaz de demostrar que la conducta carroñera no era una opción viable para el tiranosaurio rex, ya que se habría visto superado por la acción de dinosaurios carroñeros más abundantes y más pequeños, quienes se le adelantarían con facilidad ante cualquier nuevo cadáver. Estas especies descubrirían los cadáveres con mayor rapidez, sacando así el máximo partido de las oportunidades.

Los autores del estudio creen que el tiranosaurio rex era capaz de recorrer grandes distancias para atrapar a sus presas, al igual que hacen depredadores actuales como los osos polares y los leones.

Esta investigación abre ahora las puertas para analizar el comportamiento del tiranosaurio rex como un depredador.

Más información en:

Scitech News

El tiranosaurio rex no era un carroñero sino un depredador

Puntúa la entrada

El tiranosaurio rex cazaba como un león, en vez de vivir habitualmente de los cadáveres de animales muertos como si fuese una hiena, según revela una nueva investigación. El hallazgo pone fin a un largo debate acerca de la conducta alimentaria de esta bestia impresionante.

[Img #1359]
(Foto: ZSL)
Los autores del estudio, de la Sociedad Zoológica de Londres (ZSL por sus siglas en inglés) utilizaron un modelo ecológico basado en las relaciones de los depredadores en la zona del Parque Nacional de Serengeti para determinar si la conducta carroñera pudo ser una estrategia eficaz para la alimentación del tiranosaurio rex.

Los intentos anteriores para resolver las dudas sobre si el tiranosaurio rex era mayormente un depredador o un carroñero se centraron en su morfología. El fallo de este enfoque es que dos especies pueden poseer características físicas similares, pero contar con estrategias de caza muy diferentes, como sucede con los buitres y las águilas.

Al tener una idea clara de las fuerzas ecológicas que intervienen en la cuestión, el equipo de Chris Carbone ha sido capaz de demostrar que la conducta carroñera no era una opción viable para el tiranosaurio rex, ya que se habría visto superado por la acción de dinosaurios carroñeros más abundantes y más pequeños, quienes se le adelantarían con facilidad ante cualquier nuevo cadáver. Estas especies descubrirían los cadáveres con mayor rapidez, sacando así el máximo partido de las oportunidades.

Los autores del estudio creen que el tiranosaurio rex era capaz de recorrer grandes distancias para atrapar a sus presas, al igual que hacen depredadores actuales como los osos polares y los leones.

Esta investigación abre ahora las puertas para analizar el comportamiento del tiranosaurio rex como un depredador.

Más información en:

Scitech News

La biología de los efectos positivos y negativos del miedo

Puntúa la entrada

Desde hace mucho, se sabe que ser consciente de un peligro inminente puede aumentar la habilidad humana de detectar leves cambios en el entorno, ya sean visuales, sonoros o de otro tipo. Por ejemplo, el leve crujido de una hoja seca puede delatar la aproximación sigilosa de un depredador. Pero, por otra parte, también es obvio que el estrés y la ansiedad inducidos por una amenaza pueden afectar de modo negativo nuestra capacidad de pensar con claridad y de llevar a cabo tareas mentales complejas. En un nuevo estudio se ha comprobado de manera detallada el alcance de esta confrontación entre ambos efectos.

Dicha comprobación se ha hecho midiendo los cambios en la actividad eléctrica del cerebro, captados por una densa red de sensores colocados sobre el cuero cabelludo.

El estudio lo ha llevado a cabo el equipo de Alexander Shackman y Richard Davidson, ambos de la Universidad de Wisconsin-Madison.

Enfrentados a un riesgo, los sujetos de estudio, que se ofrecieron voluntariamente para el mismo, mostraron una mayor actividad en los circuitos cerebrales responsables de captar información visual, pero también un nivel de señal más débil en la circuitería responsable de analizar y valorar esa información. Cuando el riesgo desaparecía (y por lo tanto, el estrés y la ansiedad) el efecto se invertía: El cerebro destinaba menos potencia para la vigilancia, y más potencia para la toma de decisiones estratégicas.

El miedo nos hace más sensibles a nuestro entorno externo como una forma de identificar un peligro potencial y por dónde se acerca, pero interfiere en nuestra capacidad de pensamiento complejo.

En los últimos años, algunos teóricos han defendido la hipótesis de que esta confrontación de capacidades podría reflejar la interacción entre dos sistemas cerebrales que funcionan al mismo tiempo: Uno sería responsable de la detección rápida de los estímulos externos. El otro se ocuparía del proceso más lento de evaluar cuidadosamente esa información entrante. El estrés desbarata el equilibrio entre esos sistemas.

Nuestra habilidad de realizar tareas complejas se ve perturbada precisamente cuando aumenta la cantidad de información que recibimos a través de los ojos y los oídos. Cuando somos conscientes de que estamos en peligro, nuestro cerebro absorbe una mayor cantidad de información sensorial, pero al mismo tiempo experimentamos dificultades para concentrarnos en ese gran caudal de datos.

La confusión resultante favorece las acciones rápidas, irreflexivas, dictadas más por el instinto de supervivencia que por el razonamiento lógico, como por ejemplo echarse a correr al oír ese crujido de una hoja seca. En el pasado de nuestra especie, la evolución sin duda favoreció al nerviosismo incontrolable que empuja a las personas a reaccionar así.

Más información en:

Scitech News

La biología de los efectos positivos y negativos del miedo

Puntúa la entrada

Desde hace mucho, se sabe que ser consciente de un peligro inminente puede aumentar la habilidad humana de detectar leves cambios en el entorno, ya sean visuales, sonoros o de otro tipo. Por ejemplo, el leve crujido de una hoja seca puede delatar la aproximación sigilosa de un depredador. Pero, por otra parte, también es obvio que el estrés y la ansiedad inducidos por una amenaza pueden afectar de modo negativo nuestra capacidad de pensar con claridad y de llevar a cabo tareas mentales complejas. En un nuevo estudio se ha comprobado de manera detallada el alcance de esta confrontación entre ambos efectos.

Dicha comprobación se ha hecho midiendo los cambios en la actividad eléctrica del cerebro, captados por una densa red de sensores colocados sobre el cuero cabelludo.

El estudio lo ha llevado a cabo el equipo de Alexander Shackman y Richard Davidson, ambos de la Universidad de Wisconsin-Madison.

Enfrentados a un riesgo, los sujetos de estudio, que se ofrecieron voluntariamente para el mismo, mostraron una mayor actividad en los circuitos cerebrales responsables de captar información visual, pero también un nivel de señal más débil en la circuitería responsable de analizar y valorar esa información. Cuando el riesgo desaparecía (y por lo tanto, el estrés y la ansiedad) el efecto se invertía: El cerebro destinaba menos potencia para la vigilancia, y más potencia para la toma de decisiones estratégicas.

El miedo nos hace más sensibles a nuestro entorno externo como una forma de identificar un peligro potencial y por dónde se acerca, pero interfiere en nuestra capacidad de pensamiento complejo.

En los últimos años, algunos teóricos han defendido la hipótesis de que esta confrontación de capacidades podría reflejar la interacción entre dos sistemas cerebrales que funcionan al mismo tiempo: Uno sería responsable de la detección rápida de los estímulos externos. El otro se ocuparía del proceso más lento de evaluar cuidadosamente esa información entrante. El estrés desbarata el equilibrio entre esos sistemas.

Nuestra habilidad de realizar tareas complejas se ve perturbada precisamente cuando aumenta la cantidad de información que recibimos a través de los ojos y los oídos. Cuando somos conscientes de que estamos en peligro, nuestro cerebro absorbe una mayor cantidad de información sensorial, pero al mismo tiempo experimentamos dificultades para concentrarnos en ese gran caudal de datos.

La confusión resultante favorece las acciones rápidas, irreflexivas, dictadas más por el instinto de supervivencia que por el razonamiento lógico, como por ejemplo echarse a correr al oír ese crujido de una hoja seca. En el pasado de nuestra especie, la evolución sin duda favoreció al nerviosismo incontrolable que empuja a las personas a reaccionar así.

Más información en:

Scitech News

Controlar la tensión arterial mediante estimulación cerebral profunda

Puntúa la entrada

Se ha descubierto lo que podría ser una alternativa quirúrgica a la medicación para controlar la presión arterial persistentemente alta en pacientes que no responden a los medicamentos.

[Img #1366]
(Foto: Bristol U.)
El equipo de la Universidad de Bristol y el Hospital de Frenchay se ha ocupado del caso de un hombre de 55 años al que se le diagnosticó hipertensión arterial cuando sufrió un derrame cerebral. Su presión arterial seguía elevada pese a los intentos por controlarla utilizando medicamentos.

Con el uso de un implante quirúrgico similar al marcapasos en un corazón, el equipo de Nikunj K. Patel ha conseguido controlar el problema de este hombre. El dispositivo envía impulsos eléctricos a su cerebro, en un procedimiento conocido como estimulación cerebral profunda, y la presión arterial se mantiene por debajo de niveles peligrosos.

Se ha verificado que la disminución de la presión arterial es una respuesta a la estimulación cerebral profunda, y no un resultado de cambios en los demás factores que promueven la tensión alta en este individuo.

Aunque la estimulación eléctrica no alivia de manera permanente el dolor de este hombre, los investigadores sí han comprobado que disminuye su presión arterial lo suficiente como para que pueda dejar de tomar los medicamentos para controlarla.

Éste es un hallazgo esperanzador, pues la hipertensión afecta a millones de personas y puede llevar a ataques al corazón y derrames cerebrales, con el agravante de que para aproximadamente una de cada diez personas, la tensión alta no se puede controlar con medicamentos o el paciente no los tolera.

Se necesita investigar más para confirmar estos resultados en un mayor número de personas, pero lo descubierto hasta ahora sugiere que la estimulación puede producir un descenso notable y sostenido de la presión arterial.

Scitech News

Controlar la tensión arterial mediante estimulación cerebral profunda

Puntúa la entrada

Se ha descubierto lo que podría ser una alternativa quirúrgica a la medicación para controlar la presión arterial persistentemente alta en pacientes que no responden a los medicamentos.

[Img #1366]
(Foto: Bristol U.)
El equipo de la Universidad de Bristol y el Hospital de Frenchay se ha ocupado del caso de un hombre de 55 años al que se le diagnosticó hipertensión arterial cuando sufrió un derrame cerebral. Su presión arterial seguía elevada pese a los intentos por controlarla utilizando medicamentos.

Con el uso de un implante quirúrgico similar al marcapasos en un corazón, el equipo de Nikunj K. Patel ha conseguido controlar el problema de este hombre. El dispositivo envía impulsos eléctricos a su cerebro, en un procedimiento conocido como estimulación cerebral profunda, y la presión arterial se mantiene por debajo de niveles peligrosos.

Se ha verificado que la disminución de la presión arterial es una respuesta a la estimulación cerebral profunda, y no un resultado de cambios en los demás factores que promueven la tensión alta en este individuo.

Aunque la estimulación eléctrica no alivia de manera permanente el dolor de este hombre, los investigadores sí han comprobado que disminuye su presión arterial lo suficiente como para que pueda dejar de tomar los medicamentos para controlarla.

Éste es un hallazgo esperanzador, pues la hipertensión afecta a millones de personas y puede llevar a ataques al corazón y derrames cerebrales, con el agravante de que para aproximadamente una de cada diez personas, la tensión alta no se puede controlar con medicamentos o el paciente no los tolera.

Se necesita investigar más para confirmar estos resultados en un mayor número de personas, pero lo descubierto hasta ahora sugiere que la estimulación puede producir un descenso notable y sostenido de la presión arterial.

Scitech News

Gesticular ejerce una influencia subliminal sobre algunas tareas manuales

Algunas veces es casi imposible hablar sin usar las manos. Estos gestos proporcionan pistas visuales a nuestros interlocutores y, según sugiere una nueva teoría, pueden incluso modificar nuestros propios pensamientos.

Las investigadoras Sian Beilock y Susan Goldin-Meadow de la Universidad de Chicago diseñaron un estudio para analizar cómo los gestos propios afectan al pensamiento de quien los hace.

Para el estudio, Beilock y Goldin-Meadow pidieron a los voluntarios que encontrasen la solución a un problema conocido como la Torre de Hanoi. Es un juego en el que hay que mover discos apilados de una estaca a otra. Después de terminar la prueba, los voluntarios fueron llevados a otra habitación y se les pidió que explicaran cómo lo habían logrado. Es casi imposible explicarlo sin usar las manos.

A continuación, los voluntarios hicieron la tarea nuevamente. Pero esta vez había un truco: para algunas personas, se había cambiado secretamente el peso de los discos, de modo que el disco más pequeño, que antes era lo bastante liviano como para poderlo mover con una mano, ahora necesitaba de las dos manos.

Las personas que habían usado una mano en sus gestos al hablar sobre cómo mover el disco pequeño tuvieron dificultades cuando ese disco se hizo más pesado. Les llevó más tiempo completar la tarea en comparación con las personas que usaron las dos manos en sus gestos; y cuantos más gestos con una sola mano hicieron, más tiempo tardaron. Esto sugiere, según las autoras del estudio, que el modo en que se gesticula afecta a cómo se piensa luego.

Más información en:

Scitech News

Desarrollan el primer antiláser del mundo

Puntúa la entrada

Cincuenta años después de la invención del láser, un equipo de científicos de la Universidad de Yale (EE UU) ha construido el primer antiláser del mundo. Con un centímetro de diámetro, este desarrollo podría tener aplicaciones en la nueva generación de ordenadores “ópticos” y en la radiología.

[Img #1334]
(Foto: AAAS/Science)
“El dispositivo absorbe los rayos láser entrantes y transforma la energía de la luz de estos rayos en energía eléctrica o térmica”, explica a SINC A. Douglas Stone, investigador de la Universidad de Yale (EE UU) y miembro del equipo que ha desarrollado el primer antiláser del mundo.

El mecanismo, denominado “amortiguador de coherencia perfecta” (CPA por sus siglas en inglés), enfoca dos rayos láser con una frecuencia específica dentro de una cavidad que contiene un disco de silicio como material semiconductor. El disco alinea las ondas de luz, que rebotan de forman indefinida hasta que se absorben y se transforman en calor, tal y como detalla el artículo publicado hoy en Science.

Cincuenta años después de la invención del láser, “el antiláser ejecuta un proceso óptio fundamental que no había sido estudiado hasta ahora”, asegura Douglas Stone. Es, por tanto, un láser que funciona al revés: absorbe la luz en frecuencias específicas en lugar de emitirla.

El dispositivo mide cerca de un centímetro de diámetro aunque los científicos esperan contruir uno de tan solo seis micras. Por el momento, el antiláser absorbe el 99,4% de la luz entrante, aunque debería ser capaz de absorber el 99,999%. “Confío en que comenzará a acercarse al límite teórico a medida que construyamos CPA más sofisticados”, declara el investigador.

La próxima generación de ordenadores, conocidos como “ópticos”, podría utilizar esta nueva tecnología en interruptores, detectores y diversos componentes. Además, el antiláser podría utilizarse en el campo de la radiología, al dirigir la radiación electromagnética a una región de tejidos humanos opacos. De esta forma, se podrían obtener imágenes o utilizar el mecanismo con fines terapeúticos.

Los científicos confían en que, en el futuro, el dispositivo sea capaz de absorber la luz visible y las frecuencias específicas de infrarrojos que se utilizan en las comunicaciones de fibra óptica. (Fuente: SINC)


Desarrollan el primer antiláser del mundo

Puntúa la entrada

Cincuenta años después de la invención del láser, un equipo de científicos de la Universidad de Yale (EE UU) ha construido el primer antiláser del mundo. Con un centímetro de diámetro, este desarrollo podría tener aplicaciones en la nueva generación de ordenadores “ópticos” y en la radiología.

[Img #1334]
(Foto: AAAS/Science)
“El dispositivo absorbe los rayos láser entrantes y transforma la energía de la luz de estos rayos en energía eléctrica o térmica”, explica a SINC A. Douglas Stone, investigador de la Universidad de Yale (EE UU) y miembro del equipo que ha desarrollado el primer antiláser del mundo.

El mecanismo, denominado “amortiguador de coherencia perfecta” (CPA por sus siglas en inglés), enfoca dos rayos láser con una frecuencia específica dentro de una cavidad que contiene un disco de silicio como material semiconductor. El disco alinea las ondas de luz, que rebotan de forman indefinida hasta que se absorben y se transforman en calor, tal y como detalla el artículo publicado hoy en Science.

Cincuenta años después de la invención del láser, “el antiláser ejecuta un proceso óptio fundamental que no había sido estudiado hasta ahora”, asegura Douglas Stone. Es, por tanto, un láser que funciona al revés: absorbe la luz en frecuencias específicas en lugar de emitirla.

El dispositivo mide cerca de un centímetro de diámetro aunque los científicos esperan contruir uno de tan solo seis micras. Por el momento, el antiláser absorbe el 99,4% de la luz entrante, aunque debería ser capaz de absorber el 99,999%. “Confío en que comenzará a acercarse al límite teórico a medida que construyamos CPA más sofisticados”, declara el investigador.

La próxima generación de ordenadores, conocidos como “ópticos”, podría utilizar esta nueva tecnología en interruptores, detectores y diversos componentes. Además, el antiláser podría utilizarse en el campo de la radiología, al dirigir la radiación electromagnética a una región de tejidos humanos opacos. De esta forma, se podrían obtener imágenes o utilizar el mecanismo con fines terapeúticos.

Los científicos confían en que, en el futuro, el dispositivo sea capaz de absorber la luz visible y las frecuencias específicas de infrarrojos que se utilizan en las comunicaciones de fibra óptica. (Fuente: SINC)


El capitalismo cognitivo

Actualmente se viene desarrollando renovadas discusiones en torno a los grandes cambios tecnológicos, sociales, económicos, políticos y culturales. Cambios que redundan en las ciencias sociales y económicas, por ende en la estructura económico social del capitalismo, las mismas que se expresan en categorías para describirlas como: "sociedad de consumo",(Bauman, 2000), “posfordismo" (Negri-Hardt, 2002) "Capitalismo cognitivo", (Boutang, 2004 "La era de la información” (Manuel Castell)", sistemas mundo (Inmanuel Wallerstein) etc. lo que implica la necesidad de revisar dichos conceptos y de sus relaciones con la finalidad de conocer los planteamientos contemporáneos sobre la relación de trabajo en el contexto de una "sociedad de consumo"

En el presente nos ocuparemos del Capitalismo Cognitivo, la nueva gran transformación, categoría referida conceptualmente a las prácticas económicas sobre las producciones del conocimiento enmarcadas en el capitalismo globalizado de finales del siglo XX y principios del XXI, es considerado como la base del capitalismo sobre bienes inmateriales, fue publicado como ensayo por Yann-Moulier Boutang y como hipótesis de trabajo denotando así los grandes cambios sobre el capitalismo y su gran transformación.

En “Le capitalisme cognitif…”, Yann Moulier Boutang se refiere a nuevo capitalismo basado en la difusión del saber y en el que la producción de conocimiento pasa a ser el principal eje de la valorización del capital, constituyéndose así la denominada sociedad del conocimiento donde la actividad productiva desborda los límites estrictos del trabajo asalariado, de las horas de trabajo, de los empleos.

Los cambios profundos que se darían con el capitalismo cognitivo serían en el trabajo, en el modelo productivo con actividades intensas en conocimiento y en cooperación productiva, entre las que destaca el modelo de desarrollo de software, en particular de software libre.

Por lo tanto, para Yann Moulier Boutang, estamos frente a un proceso de cambio en la sociedad, centrado en los siguientes aspectos:
• El conocimiento,
• la tecnología
• la información
• la comunicación

Las nuevas fuentes de productividad vendrían hacer los procesos donde interactúan los conocimientos dándose lugar así a la “sociedad del conocimiento”, “sociedad de la información”, mostrando al conocimiento cómo un bien inmaterial que se convierte en el fundamento que reorganiza el mundo productivo y social.

En ese sentido, denotamos que el capitalismo cognitivo, es una nueva forma de capitalismo, el cual ha pasado de un capital fordista a un capital toyotista.

El fordismo se refiere al modo de producción en cadena que llevó a la práctica Henry Ford; fabricante de automóviles de Estados Unidos. Este sistema comenzó con la producción del Ford con una combinación y organización general del trabajo altamente especializada y reglamentada a través de cadenas de montaje, maquinaria especializada, salarios más elevados y un número elevado de trabajadores en plantilla y fue utilizado posteriormente en forma extensiva en la industria de numerosos países, hasta la década de los 70 del siglo XX.

El toyotismo corresponde a una relación en el entorno de la producción industrial que fue pilar importante en el sistema de procedimiento industrial japonés y coreano, y que después de la crisis del petróleo de 1973 comenzó a desplazar al fordismo como modelo referencial en la producción en cadena. Se destaca de su antecesor básicamente en su idea de trabajo flexible, aumento de la productividad a través de la gestión y organización (just in time) y el trabajo combinado que supera a la mecanización e individualización del trabajador, elemento característico del proceso de la cadena fordista.

En el postfordismo el trabajo necesita un espacio con estructura pública (cooperación). Hoy, ésta se realiza por medio de la comunicación humana de múltiples formas, una complejidad que actualmente se hace a través de infinidad de acciones, que se han tomado toda la vida, ése es el toyotismo

Estamos en una etapa en el cual el proceso de producción cuenta con una nueva materia prima: la tecnología, el conocimiento que se realiza a través de la investigación, bajo sus bases del saber, la información, la cultura, en las cuales en el proceso productivo mismo se ha instalado la comunicación y el lenguaje, haciendo que el trabajo sea una permanente interacción social.

Dándose lugar así a un sistema de reproducción de una sociedad de clases con nuevas características de control.

Emergen bienes y servicios cognitivos como bienes inmateriales donde se consumen y no se gastan, tienen un uso productivo, ya que cada vez más aumentan su valor. Su proliferación se da a una escala inimaginable. Esta nueva forma de producción introduce una dinámica diferente a las sociedades salariales, vuelve central la parte creativa y del conocimiento

En concordancia con Boutang, otro autor como Marx de los Gruñidse manifiesta que el intelecto llega hacerse público, refiriéndose así a la inteligencia que hoy se constituiría en una nueva forma de capitalismo, esta “inteligencia ” se convertiría en la base de la nueva producción de la riqueza.

DIVISIÓN DEL TRABAJO
Una transformación importante en el capitalismo cognitivo es la división del trabajo. En el capitalismo industrial, la cooperación social derivaba de la coordinación técnica en las fabricas, en el capitalismo cognitivo los dispositivos de captación de valor ya no derivan del trabajo en dichas fábricas, sino de la actividad cooperativa humana y del objeto del conocimiento.

Los tipos de división de la actividad, el trabajo y el empleo, se dan a través de la cooperación, la organización en red se convierte en una alternativa al mercado descentralizado, a la empresa privada, y al Estado jerarquizado. Así el mercado deja de tener preponderancia como el tamaño de la red (de clientes, de proveedores, etc.), que permite una asignación de recursos más eficaz. Esta actividad económica en red genera un excedente estructural de valor, que suele denominarse "externalidad positiva de la red", "efecto biblioteca", o “efecto red”: la utilidad de un bien para un agente depende del número de los demás usuarios, de modo que todo miembro de una red se beneficia de ventajas por las que no tiene que pagar. La lógica de los clubs, de las listas de correos, de un servicio como Wikipedia, se va extendiendo a toda la actividad económica.

La acumulación de conocimientos se caracteriza, por rendimientos crecientes de aprendizaje.

UN NUEVO MODELO PRODUCTIVO
La economía contemporánea de lo digital, afronta el mundo de la abundancia de lo inmaterial, pero la escasez del tiempo y de la atención”.

La atención que exige un ordenador es multitareas y multifuncional, y exige ante todo creatividad (las operaciones mecánicas las ejecuta el ordenador). El trabajo en red exige cada vez más conectividad, capacidad de reacción, autonomía e inventiva. La relación del tiempo es importante. La producción de mercancías exige unos tiempos bien delimitados. Pero esto no sucede con la producción de bienes-conocimiento o de servicios.

La producción de conocimientos continuamente renovados no tiene fin. En este sentido, el trabajo se aproxima a la investigación científica, pero también al arte. Las comunidades de software libre, el peer-to-peer, Wikipedia, muestran motivaciones diferente al interés material o al afán de poder, como el deseo de conocimiento o el puro entretenimiento. Esto se explica porque la producción de conocimientos por medio de conocimientos exige una cooperación de los agentes más profunda y continúa que la mera división técnica industrial limitada al tiempo de la fábrica. El capitalismo industrial no reclamaba de la fuerza de trabajo obrera, del cuerpo del trabajador, más que una iniciativa limitada y fuertemente encuadrada. Ahora la implicación va mucho más lejos, y la conectividad permanente que proporciona un teléfono móvil nos da una idea de su significado.

LAS CONTRADICCIONES DEL CAPITALISMO COGNITIVO
Boutang da a conocer que la explotación en el capitalismo cognitivo se da en dos niveles: por un lado, el trabajo vivo como gasto energético que se consume y cristaliza en nuevas máquinas y trabajo muerto, en el ciclo siguiente; pero al mismo tiempo, subsiste trabajo vivo como medio de producción a lo largo de todo el ciclo (segundo nivel o grado). Es decir, no es un consumo intermedio, sino que sirve para producir más trabajo vivo, se construye como un saber que se resiste a su reducción como capital humano objetivable.

“El capitalismo industrial predomina el consumo de fuerza de trabajo. Para poder extraer el exceso de trabajo, que es la fuente de la plusvalía, era necesario consumir la fuerza de trabajo viva. Por tanto, que sea necesario transformarla en salario de reconstitución del potencial biológico y cultural de la fuerza de trabajo, o bien en beneficios contabilizados en el ciclo siguiente como nuevas máquinas. En el capitalismo cognitivo, para explotar la inteligencia colectiva, no hace falta sólo reunir trabajadores, sino evitar esta objetivación perfecta (cosificación o alienación) de la fuerza-invención en el proceso de trabajo o en el producto.”

Las figuras laborales que interesan particularmente al capitalismo cognitivo son el “cognitariado”, los "precarios", los activos independientes, los trabajadores cognitivos dependientes del mercado, los trabajadores cognitivos libres, etc. Surgen así nuevas fracturas y divisiones.

“Los bienes inmateriales o intangibles presentan el inconveniente de que son indivisibles, no rivales y no excluibles (al contrario que los bienes materiales) por lo que la cuestión de la propiedad suele resolverse mediante la atribución de un monopolio de explotación temporal por medio de una patente, de una marca o de un derecho de autor. Pero en el capitalismo cognitivo este tipo de bienes tiene en su mayoría un estatus de bien casi público, lo cual, unido a la difusión masiva de las nuevas tecnologías de la información y de la comunicación (NTIC).

La ejecución de los derechos de propiedad se vuelve cada vez más problemática. En estas condiciones, la reacción desesperada de una parte de los industriales de la comunicación, de la cultura y de la biotecnología ha consistido en la represión penal de la copia, el desarrollo de dispositivos técnicos de protección, canon para las sociedades gestoras de derechos de autor, patentes farmacéuticas, patentes sobre el genoma, etc. Es la contrarrevolución de los “nuevos cercamientos” también del control de las redes sociales. La reacción estatal consiste en la publicación de leyes de excepción, la vulneración de las libertades públicas y la derogación de la democracia.

Según Boutang, por las propias necesidades del capitalismo cognitivo. La cooperación entre cerebros que trabajan mediante ordenadores personales conectados por medio de redes necesita libertad para innovar (por ejemplo, Google necesita la actividad diaria de millones de usuarios). Y la apropiación de las tecnologías digitales por el mayor número posible de personas es la condición imprescindible para “recuperar” el trabajo de la inteligencia colectiva Sin esta condición, la productividad de la explotación de segundo grado desaparece. El capitalismo cognitivo, cuyo objetivo es producir valor (que pueda traducirse en beneficio privado) “necesita multiplicar los puntos de contacto con la sociedad en movimiento, con la actividad viva. La sociedad del conocimiento produce usos innovadores, y la empresa convierte ahora la riqueza que está ya en el espacio digital en valor económico. Es la definición de empresario “político”, alguien capaz de entender las redes sociales y apoyarse en ellas”.
Teniendo en cuenta lo anterior, el papel del estado seria de controlar la sociedad del conocimiento, como los intentos de someterlos a prácticas monopolísticas, se enfrentan a serias dificultades estructurales internas. Limitar el acceso a la red, también por vía de la exclusión social, tiene como consecuencia la pérdida de productividad.

El trabajo ya no puede remunerarse como un factor de producción aislado del capital, pues codetermina la remuneración de los cuatro componentes: hardware, software, wetware (la actividad cerebral) y netware (la red cooperativa).”

Sin embargo en este cambio se una agravan las desigualdades, y de da una precarización de las relaciones salariales, sin que haya desaparecido la subordinación del trabajador dependiente, Además, las nuevas formas de trabajo propias del capitalismo cognitivo son las menos protegidas. El sentimiento de injusticia es tanto mayor cuanto los valores de la sociedad del conocimiento son más igualitarios. Y la infinita fragmentación de intereses parece imposibilitar cualquier intento de unidad política de la contestación.

“Pero es que además la división cognitiva del trabajo hace que los grupos de pertenencia a instituciones educativas generen nuevas divisiones sociales. Además, la extrema valorización del conocimiento genera exclusiones muy fuertes, al incorporar las formas de competencia propias del arte y de la excelencia aristocrática de la universidad. Al mismo tiempo, la movilidad no necesariamente geográfica, sino mental y también social, distorsiona muchas fronteras preestablecidas. La red permite cooperar con gente de orígenes sociales muy diferentes. A estos elementos hay que añadir el estatuto jurídico, el grado de libertad jurídica, para tener una visión más aproximada de las “clases sociales” en formación.

Tomando en consideración la presente tesis, a manera de conclusión manifestamos que desde el momento en que la sociedad genera cambios en la información y el conocimiento, el capitalismo se apropia del saber, otorgándole así un propio concepto como el de capitalismo cognitivo, por lo que, quienes tenemos que ver con el ámbito académico y educativo, nos compete asumir con responsabilidad social la formación académica para así generar un pensamiento critico que nos permita desarrollar una visión de ser humano con dignidad y de una sociedad democrática con ciudadanía y ejercicio de derechos para replantear el rol académico y que este no se constituya en un motor netamente mercantilista. Por lo que no se puede reemplazar la inteligencia con lo económico.

BIBLIOGRAFIA
BOUTANG, Yann Moullier (1999), ¨Riqueza, propiedad, libertad y renta en el capitalismo cognitivo¨, en Rodríguez, Emanuel y Sánchez, Raúl (Compiladores) Capitalismo cognitivo, propiedad intelectual y creación colectiva, Madrid: Traficantes de Sueños.

El capitalismo cognitivo

Actualmente se viene desarrollando renovadas discusiones en torno a los grandes cambios tecnológicos, sociales, económicos, políticos y culturales. Cambios que redundan en las ciencias sociales y económicas, por ende en la estructura económico social del capitalismo, las mismas que se expresan en categorías para describirlas como: "sociedad de consumo",(Bauman, 2000), “posfordismo" (Negri-Hardt, 2002) "Capitalismo cognitivo", (Boutang, 2004 "La era de la información” (Manuel Castell)", sistemas mundo (Inmanuel Wallerstein) etc. lo que implica la necesidad de revisar dichos conceptos y de sus relaciones con la finalidad de conocer los planteamientos contemporáneos sobre la relación de trabajo en el contexto de una "sociedad de consumo"

En el presente nos ocuparemos del Capitalismo Cognitivo, la nueva gran transformación, categoría referida conceptualmente a las prácticas económicas sobre las producciones del conocimiento enmarcadas en el capitalismo globalizado de finales del siglo XX y principios del XXI, es considerado como la base del capitalismo sobre bienes inmateriales, fue publicado como ensayo por Yann-Moulier Boutang y como hipótesis de trabajo denotando así los grandes cambios sobre el capitalismo y su gran transformación.

En “Le capitalisme cognitif…”, Yann Moulier Boutang se refiere a nuevo capitalismo basado en la difusión del saber y en el que la producción de conocimiento pasa a ser el principal eje de la valorización del capital, constituyéndose así la denominada sociedad del conocimiento donde la actividad productiva desborda los límites estrictos del trabajo asalariado, de las horas de trabajo, de los empleos.

Los cambios profundos que se darían con el capitalismo cognitivo serían en el trabajo, en el modelo productivo con actividades intensas en conocimiento y en cooperación productiva, entre las que destaca el modelo de desarrollo de software, en particular de software libre.

Por lo tanto, para Yann Moulier Boutang, estamos frente a un proceso de cambio en la sociedad, centrado en los siguientes aspectos:
• El conocimiento,
• la tecnología
• la información
• la comunicación

Las nuevas fuentes de productividad vendrían hacer los procesos donde interactúan los conocimientos dándose lugar así a la “sociedad del conocimiento”, “sociedad de la información”, mostrando al conocimiento cómo un bien inmaterial que se convierte en el fundamento que reorganiza el mundo productivo y social.

En ese sentido, denotamos que el capitalismo cognitivo, es una nueva forma de capitalismo, el cual ha pasado de un capital fordista a un capital toyotista.

El fordismo se refiere al modo de producción en cadena que llevó a la práctica Henry Ford; fabricante de automóviles de Estados Unidos. Este sistema comenzó con la producción del Ford con una combinación y organización general del trabajo altamente especializada y reglamentada a través de cadenas de montaje, maquinaria especializada, salarios más elevados y un número elevado de trabajadores en plantilla y fue utilizado posteriormente en forma extensiva en la industria de numerosos países, hasta la década de los 70 del siglo XX.

El toyotismo corresponde a una relación en el entorno de la producción industrial que fue pilar importante en el sistema de procedimiento industrial japonés y coreano, y que después de la crisis del petróleo de 1973 comenzó a desplazar al fordismo como modelo referencial en la producción en cadena. Se destaca de su antecesor básicamente en su idea de trabajo flexible, aumento de la productividad a través de la gestión y organización (just in time) y el trabajo combinado que supera a la mecanización e individualización del trabajador, elemento característico del proceso de la cadena fordista.

En el postfordismo el trabajo necesita un espacio con estructura pública (cooperación). Hoy, ésta se realiza por medio de la comunicación humana de múltiples formas, una complejidad que actualmente se hace a través de infinidad de acciones, que se han tomado toda la vida, ése es el toyotismo

Estamos en una etapa en el cual el proceso de producción cuenta con una nueva materia prima: la tecnología, el conocimiento que se realiza a través de la investigación, bajo sus bases del saber, la información, la cultura, en las cuales en el proceso productivo mismo se ha instalado la comunicación y el lenguaje, haciendo que el trabajo sea una permanente interacción social.

Dándose lugar así a un sistema de reproducción de una sociedad de clases con nuevas características de control.

Emergen bienes y servicios cognitivos como bienes inmateriales donde se consumen y no se gastan, tienen un uso productivo, ya que cada vez más aumentan su valor. Su proliferación se da a una escala inimaginable. Esta nueva forma de producción introduce una dinámica diferente a las sociedades salariales, vuelve central la parte creativa y del conocimiento

En concordancia con Boutang, otro autor como Marx de los Gruñidse manifiesta que el intelecto llega hacerse público, refiriéndose así a la inteligencia que hoy se constituiría en una nueva forma de capitalismo, esta “inteligencia ” se convertiría en la base de la nueva producción de la riqueza.

DIVISIÓN DEL TRABAJO
Una transformación importante en el capitalismo cognitivo es la división del trabajo. En el capitalismo industrial, la cooperación social derivaba de la coordinación técnica en las fabricas, en el capitalismo cognitivo los dispositivos de captación de valor ya no derivan del trabajo en dichas fábricas, sino de la actividad cooperativa humana y del objeto del conocimiento.

Los tipos de división de la actividad, el trabajo y el empleo, se dan a través de la cooperación, la organización en red se convierte en una alternativa al mercado descentralizado, a la empresa privada, y al Estado jerarquizado. Así el mercado deja de tener preponderancia como el tamaño de la red (de clientes, de proveedores, etc.), que permite una asignación de recursos más eficaz. Esta actividad económica en red genera un excedente estructural de valor, que suele denominarse "externalidad positiva de la red", "efecto biblioteca", o “efecto red”: la utilidad de un bien para un agente depende del número de los demás usuarios, de modo que todo miembro de una red se beneficia de ventajas por las que no tiene que pagar. La lógica de los clubs, de las listas de correos, de un servicio como Wikipedia, se va extendiendo a toda la actividad económica.

La acumulación de conocimientos se caracteriza, por rendimientos crecientes de aprendizaje.

UN NUEVO MODELO PRODUCTIVO
La economía contemporánea de lo digital, afronta el mundo de la abundancia de lo inmaterial, pero la escasez del tiempo y de la atención”.

La atención que exige un ordenador es multitareas y multifuncional, y exige ante todo creatividad (las operaciones mecánicas las ejecuta el ordenador). El trabajo en red exige cada vez más conectividad, capacidad de reacción, autonomía e inventiva. La relación del tiempo es importante. La producción de mercancías exige unos tiempos bien delimitados. Pero esto no sucede con la producción de bienes-conocimiento o de servicios.

La producción de conocimientos continuamente renovados no tiene fin. En este sentido, el trabajo se aproxima a la investigación científica, pero también al arte. Las comunidades de software libre, el peer-to-peer, Wikipedia, muestran motivaciones diferente al interés material o al afán de poder, como el deseo de conocimiento o el puro entretenimiento. Esto se explica porque la producción de conocimientos por medio de conocimientos exige una cooperación de los agentes más profunda y continúa que la mera división técnica industrial limitada al tiempo de la fábrica. El capitalismo industrial no reclamaba de la fuerza de trabajo obrera, del cuerpo del trabajador, más que una iniciativa limitada y fuertemente encuadrada. Ahora la implicación va mucho más lejos, y la conectividad permanente que proporciona un teléfono móvil nos da una idea de su significado.

LAS CONTRADICCIONES DEL CAPITALISMO COGNITIVO
Boutang da a conocer que la explotación en el capitalismo cognitivo se da en dos niveles: por un lado, el trabajo vivo como gasto energético que se consume y cristaliza en nuevas máquinas y trabajo muerto, en el ciclo siguiente; pero al mismo tiempo, subsiste trabajo vivo como medio de producción a lo largo de todo el ciclo (segundo nivel o grado). Es decir, no es un consumo intermedio, sino que sirve para producir más trabajo vivo, se construye como un saber que se resiste a su reducción como capital humano objetivable.

“El capitalismo industrial predomina el consumo de fuerza de trabajo. Para poder extraer el exceso de trabajo, que es la fuente de la plusvalía, era necesario consumir la fuerza de trabajo viva. Por tanto, que sea necesario transformarla en salario de reconstitución del potencial biológico y cultural de la fuerza de trabajo, o bien en beneficios contabilizados en el ciclo siguiente como nuevas máquinas. En el capitalismo cognitivo, para explotar la inteligencia colectiva, no hace falta sólo reunir trabajadores, sino evitar esta objetivación perfecta (cosificación o alienación) de la fuerza-invención en el proceso de trabajo o en el producto.”

Las figuras laborales que interesan particularmente al capitalismo cognitivo son el “cognitariado”, los "precarios", los activos independientes, los trabajadores cognitivos dependientes del mercado, los trabajadores cognitivos libres, etc. Surgen así nuevas fracturas y divisiones.

“Los bienes inmateriales o intangibles presentan el inconveniente de que son indivisibles, no rivales y no excluibles (al contrario que los bienes materiales) por lo que la cuestión de la propiedad suele resolverse mediante la atribución de un monopolio de explotación temporal por medio de una patente, de una marca o de un derecho de autor. Pero en el capitalismo cognitivo este tipo de bienes tiene en su mayoría un estatus de bien casi público, lo cual, unido a la difusión masiva de las nuevas tecnologías de la información y de la comunicación (NTIC).

La ejecución de los derechos de propiedad se vuelve cada vez más problemática. En estas condiciones, la reacción desesperada de una parte de los industriales de la comunicación, de la cultura y de la biotecnología ha consistido en la represión penal de la copia, el desarrollo de dispositivos técnicos de protección, canon para las sociedades gestoras de derechos de autor, patentes farmacéuticas, patentes sobre el genoma, etc. Es la contrarrevolución de los “nuevos cercamientos” también del control de las redes sociales. La reacción estatal consiste en la publicación de leyes de excepción, la vulneración de las libertades públicas y la derogación de la democracia.

Según Boutang, por las propias necesidades del capitalismo cognitivo. La cooperación entre cerebros que trabajan mediante ordenadores personales conectados por medio de redes necesita libertad para innovar (por ejemplo, Google necesita la actividad diaria de millones de usuarios). Y la apropiación de las tecnologías digitales por el mayor número posible de personas es la condición imprescindible para “recuperar” el trabajo de la inteligencia colectiva Sin esta condición, la productividad de la explotación de segundo grado desaparece. El capitalismo cognitivo, cuyo objetivo es producir valor (que pueda traducirse en beneficio privado) “necesita multiplicar los puntos de contacto con la sociedad en movimiento, con la actividad viva. La sociedad del conocimiento produce usos innovadores, y la empresa convierte ahora la riqueza que está ya en el espacio digital en valor económico. Es la definición de empresario “político”, alguien capaz de entender las redes sociales y apoyarse en ellas”.
Teniendo en cuenta lo anterior, el papel del estado seria de controlar la sociedad del conocimiento, como los intentos de someterlos a prácticas monopolísticas, se enfrentan a serias dificultades estructurales internas. Limitar el acceso a la red, también por vía de la exclusión social, tiene como consecuencia la pérdida de productividad.

El trabajo ya no puede remunerarse como un factor de producción aislado del capital, pues codetermina la remuneración de los cuatro componentes: hardware, software, wetware (la actividad cerebral) y netware (la red cooperativa).”

Sin embargo en este cambio se una agravan las desigualdades, y de da una precarización de las relaciones salariales, sin que haya desaparecido la subordinación del trabajador dependiente, Además, las nuevas formas de trabajo propias del capitalismo cognitivo son las menos protegidas. El sentimiento de injusticia es tanto mayor cuanto los valores de la sociedad del conocimiento son más igualitarios. Y la infinita fragmentación de intereses parece imposibilitar cualquier intento de unidad política de la contestación.

“Pero es que además la división cognitiva del trabajo hace que los grupos de pertenencia a instituciones educativas generen nuevas divisiones sociales. Además, la extrema valorización del conocimiento genera exclusiones muy fuertes, al incorporar las formas de competencia propias del arte y de la excelencia aristocrática de la universidad. Al mismo tiempo, la movilidad no necesariamente geográfica, sino mental y también social, distorsiona muchas fronteras preestablecidas. La red permite cooperar con gente de orígenes sociales muy diferentes. A estos elementos hay que añadir el estatuto jurídico, el grado de libertad jurídica, para tener una visión más aproximada de las “clases sociales” en formación.

Tomando en consideración la presente tesis, a manera de conclusión manifestamos que desde el momento en que la sociedad genera cambios en la información y el conocimiento, el capitalismo se apropia del saber, otorgándole así un propio concepto como el de capitalismo cognitivo, por lo que, quienes tenemos que ver con el ámbito académico y educativo, nos compete asumir con responsabilidad social la formación académica para así generar un pensamiento critico que nos permita desarrollar una visión de ser humano con dignidad y de una sociedad democrática con ciudadanía y ejercicio de derechos para replantear el rol académico y que este no se constituya en un motor netamente mercantilista. Por lo que no se puede reemplazar la inteligencia con lo económico.

BIBLIOGRAFIA
BOUTANG, Yann Moullier (1999), ¨Riqueza, propiedad, libertad y renta en el capitalismo cognitivo¨, en Rodríguez, Emanuel y Sánchez, Raúl (Compiladores) Capitalismo cognitivo, propiedad intelectual y creación colectiva, Madrid: Traficantes de Sueños.