viernes, 29 de junio de 2012

El superordenador Sequoia de IBM pasa a ser oficialmente el más potente del mundo.

Es utilizada para realizar operaciones como simulaciones de explosiones nucleares.
Para lograr toda su potencia emplea más de 1,5 millones de procesadores.
Sequoia, un equipo construido por IBM para la Administración Nacional de Seguridad Nuclear (NNSA) de Estados Unidos acaba de ser coronado como el superordenador más rápido del mundo en el listado del Top 500 de computación, robándole el puesto a K, la computadora japonesa diseñada por Fujitsu.
La supercomputadora de la NNSA está instalada en el Laboratorio Lawrence Livermore National de California, y es utilizada para realizar complejas operaciones como simulaciones de explosiones nucleares, cambios climáticos a largo plazo y estimaciones de capacidad de yacimientos de gas y petróleo, sin necesidad de realizar test reales.
Este equipo, que usa más de 1,5 millones de procesadores, es capaz de hacer en una hora cálculos que requerirían el trabajo diario de 6,7 millones de personas con calculadoras de mano durante 320 años.

El Cern se acerca al bosón de Higgs.

El bosón de Higgs es una partícula que explicaría cómo obtienen masa las demás.
Se trata de la última pieza por descubrir en el Modelo Estándar de Física de Partículas.Los experimentos ATLAS y CMS presentarán a las 9 de la mañana del próximo 4 de julio, durante un seminario científico en la sede del Laboratorio Europeo de Física de Partículas (CERN) de Ginebra, sus últimos resultados en la búsqueda del bosón de Higgs. Se trata de la última pieza que falta por descubrir en el modelo estándar de física de partículas que explicaría cómo obtienen masa las partículas elementales.
Los experimentos han estado tomando datos hasta el lunes 18 de junio para acumular la máxima estadística posible antes de la mayor conferencia del año sobre física de altas energía, la ICHEP 2012 que se celebra en Melbourne (Australia) del 4 al 11 de julio. ATLAS y CMS mostrarán allí todos sus resultados preliminares.
Según Steve Myers, director de Aceleradores y Tecnología del CERN, la toma de datos para la ICHEP concluyó después de un exitoso primer periodo de funcionamiento del LHC durante 2012. Este año, el funcionamiento del LHC estaba diseñado para ofrecer la máxima cantidad posible de datos a los experimentos antes de la conferencia ICHEP. Con más datos obtenidos entre abril y junio de 2012 que en todo 2011, la estrategia ha sido un éxito.
Además, los experimentos han estado refinando sus técnicas de análisis para mejorar su eficiencia en la selección de colisiones como las que producirían el bosón de Higgs de las millones que se producen cada segundo. Esto quiere decir que su sensibilidad a nuevos fenómenos físicos se ha incrementado significativamente durante estos dos años de recogida de datos.

Consejos para evitar el mareo por tierra, mar y aire.

 Colocarse en la zona de menor movimiento del medio de transporte, evitar la lectura y mirar al horizonte, algunas de las claves
Evitar la lectura y ventilar el vehículo, entre los consejos para evitar el mareo
La cinetosis, más conocida como mareo, afecta a ocho de cada diez españoles cuando viajan en coche, aunque también puede desencadenarse en el avión, el barco o el tren. El movimiento del medio de transporte es el factor que más contribuye al mareo, pero también intervienen factores psicológicos como los nervios, y fisiológicos como el cansancio, el dolor de cabeza o la somnolencia.
Las olas, las curvas o las inestabilidad del avión son los principales motivos por los que aparece la sensación de náuseas, vértigo, pérdida del equilibrio y de la coordinación. Para que tus próximos viajes no sean un infierno te damos a continuación diez útiles consejos*:
-Colócate en la zona de menor movimiento del medio de transporte: el asiento delantero del automóvil, autocar y el tren, la cubierta del barco o los asientos cercanos a las alas del avión.
-La mejor posición es decúbito supino o semirrecostado con la cabeza bien apoyada.
-Evita la lectura.
-Mantén el eje de visión con un ángulo de 45º por encima del horizonte para reducir la susceptibilidad.
-Para algunas personas es útil evitar fijar la vista sobre las olas u otros objetos en movimiento.
-En un barco es importante un camarote bien ventilado, así como salir a la cubierta para respirar aire fresco.
-En el coche también deben evitarse el calor y los olores fuertes, como a tabaco.
-El exceso de alcohol o comida antes del viaje o durante el mismo aumenta la probabilidad de mareo.
-Se deben consumir cantidades pequeñas de líquidos y comidas sencillas con frecuencia durante un viaje prolongado, aunque si se trata de un viaje corto en avión es preciso evitar los líquidos y sólidos.
-Si a pesar de los anteriores consejos, no consigues librarte del mareo, existen medicamentos que evitan o contrarrestan los síntomas.
*Con información de la Clínica Universidad de Navarra.

El tabaco de liar es más perjudicial.

 El tabaco de liar es más perjudicial para la salud que los cigarrillos convencionales, pese a la percepción social de que el primero contiene menos aditivos y que conlleva menos riesgos para la salud, según constata un estudio del Centro de Investigación y Control de la Calidad del Instituto Nacional del Consumo.
El trabajo, que publica Gaceta Sanitaria, señala que el tabaco de liar puede llegar a contener hasta el 70% más de nicotina de lo que permite la legislación en los cigarrillos convencionales, y hasta el 85% más de alquitrán y de monóxido de carbono. De hecho, el consumo de tabaco de liar aumentó un 32% entre 2008 y 2009, según datos del Comisionado para el Mercado de Tabacos, que atribuyen el incremento al menor precio del tabaco de liar.
El tabaco de liar no está sometido a la misma regulación que el convencional y las marcas que lo comercializan no están obligadas a indicar su composición. Por ese motivo, esta investigación ha analizado los contenidos de nicotina, alquitrán y monóxido de carbono de las seis marcas que aglutinan alrededor del 70% del mercado español -Golden Virginia, Amber Leaf, Domingo Azul, Drum, Turner Halfware y Cutters Choice-.
Alquitrán
Las muestras del estudio se realizaron con 750 miligramos de tabaco y un papel con filtro incorporado para obtener las mismas dimensiones en todos sus componentes que un cigarrillo convencional para su posterior comparación. Los valores de nicotina detectados en estas marcas de tabaco de liar oscilan entre 1 y 1,7 miligramos por cigarrillo, superando el miligramo que la ley permite como valor máximo para los cigarrillos convencionales, según el estudio. A su vez, las cantidades de alquitrán abarcan de los 13,7 a los 18,5 mg/cigarrillo y las de monóxido de carbono de los 13,5 a los 18,4 mg/cigarrillo, sobrepasando con creces el límite de 10 miligramos por cigarrillo que la legislación establece para ambas sustancias en el tabaco normal.
El estudio también analiza la información que recibe el consumidor sobre los componentes del tabaco de liar, que señalan como claramente insuficiente. Ninguna marca especifica en su etiquetado los contenidos de monóxido de carbono y sólo dos de las seis analizadas indica las cantidades de nicotina y alquitrán; en estas dos excepciones, además, los datos son poco clarificadores.
A pesar de que especifican los niveles de cada sustancia en función de los tipos de papel A y B, el papel para liar no indica el tipo de papel al que corresponde. De este modo, el fumador muchas veces desconoce estas dos categorías y que la tasa de alquitrán inhalada puede variar hasta en un 60% según el papel utilizado.
Por otra parte, el etiquetado indica los niveles para dos cantidades concretas de tabaco (750 y 400 miligramos) y el fumador generalmente desconoce la cantidad de tabaco que utiliza para elaborar sus cigarrillos; y por último, el etiquetado tampoco contempla el uso de filtro.

¿Por qué los tomates del súper no saben a nada?.?

 Científicos descubren por qué los tomates más bonitos son los que menos saben
Encontrar un tomate que sepa a tomate hoy en día es casi misión imposible. En los últimos tiempos, los supermercados nos ofrecen piezas muy rojas y perfectas que quedan muy bonitas en la ensalada, pero que aportan poco sabor. ¿Por qué?
A esta pregunta han respondido un grupo de científicos del Instituto Boyce Thompson (BTI), el USDA, la Universidad de California en Davis, la Universidad Politécnica de Valencia (España), la Universidad de Málaga (España), y la Universidad de Suleyman Demiral (Turquía), que han descifrado el gen que está detrás de la mutación que provoca esta maduración uniforme.
Este gen hace que los tomates adquieran un perfecto color rojo, pero al mismo tiempo reduce los azúcares y nutrientes de la fruta. «Es un gen que te des cuenta o no, tienen la mayoría de los tomates», asegura James Giovannoni, biólogo molecular de plantas en el Departamento de Agricultura de EE.UU. y coautor principal del estudio.

domingo, 24 de junio de 2012

Microsoft compite con Apple tras el lanzamiento de su nueva tableta Surface, aunque esta, se bloquea en la presentación.

 El modelo más poderoso mide 13,5 milímetros de ancho, pesa 903 gramos y estará disponible en versiones de 64 y 128 gigabytes.
Los datos sobre los precios de las tabletas y su disponibilidad en el mercado no se conocen todavía.
El gigante informático Microsoft desveló este lunes su tableta Surface para competir con el omnipresente iPad de Apple, en una presentación a la prensa en Los Ángeles.
El director ejecutivo del titán informático, Steve Ballmer, describió al competidor de iPad como una tableta que "trabaja y juega".
"Es una comunidad de computadoras de Microsoft completamente nueva", dijo Ballmer. "Encarna la noción de que 'hardware' y 'software' se impulsan mutuamente hacia adelante".
Tienen además un soporte trasero desplegable que permite mantenerlo levantado para ver imágenes o video; y una funda que, al abrirse, funciona como un teclado.
De esta forma, la tableta puede convertirse en una pequeña computadora de escritorio.
La versión de la tableta Surface con el sistema operativo RT mide 9,3 milímetros de ancho y pesa 676 gramos, y tendrá 32 y 64 gigabytes de memoria, según Microsoft.
El modelo más poderoso, con el sistema operativo Windows 8 Pro, mide 13,5 milímetros de ancho, pesa 903 gramos y estará disponible en versiones de 64 y 128 gigabytes.
Ambos tienen una pantalla táctil de alta definición de 10,6 pulgadas (26,9 centímetros).
Microsoft no reveló los precios de las tabletas Surface ni especificó cuando saldrán al mercado, pero probablemente coincidan con el lanzamiento del nuevo software Windows 8, que se espera para más adelante este año.
Un video en línea con la demostración de la tableta publicado en microsoft.com/surface/ promete que el producto estará "pronto" en el mercado.
Surface también es el nombre de una computadora de mesa gigante con pantalla táctil que Microsoft pretende introducir en el mercado para su uso en restaurantes, negocios, bares y otros locales.
"Este producto marca un importante giro en la estrategia de producto de Microsoft", dijo la analista Sarah Rotman Epps, de la firma de investigación de mercados Forrester.
"Pone el foco en el consumidor más que en la prensa", continuó en un comentario en su blog. "Y le permite a Microsoft competir con Apple en un terreno más uniforme".
No obstante, Microsoft podría convertirse en "su peor enemigo" en el mercado de las tabletas si abruma al público con demasiadas opciones y especificaciones, en lugar de seguir la tendencia de Apple de ofrecer opciones simples, advirtió la analista.
"Apple limita sus opciones a conectividad, almacenamiento, blanco o negro", dijo.
Microsoft, que construyó su fortuna especializándose en el diseño de software y dejando a sus socios el trabajo de construir computadoras y equipos, ha tenido resultados mixtos las veces que se aventuró en el mercado del hardware.
El coloso con sede en Redmond, en el estado de Washington (noroeste de EEUU), ha estampado su marca en teclados, audífonos, parlantes, cámaras web y mouses.
El mayor éxito de la compañía en el terreno del hardware ha sido su consola de videojuegos Xbox, en contraste con el fallido reproductor de música Zune, que dejó de fabricar el año pasado.
La Xbox debutó en noviembre de 2001 para competir con los sistemas PlayStation en una batalla por apoderarse del entretenimiento en el hogar.

 La nueva tableta de Microsoft, se quedó colgada durante su presentación
Mientras el ponente muestra la tableta, el dispositivo dejó de responder.
El directivo de Microsoft tragó saliva y decidió cambiarla rápidamente por otra.
No hay peor carta de presentación que lanzar un nuevo producto y que éste no funcione bien. Esto es lo que, al parecer, le ocurrió a Microsoft en el lanzamiento mundial de Surface, su propuesta de tableta informática con la que pretende competir con el iPad de Apple.
En la imágen vemos como el ponente muestra una de las características de la tableta cuando, de repente, el dispositivo no responde. Aunque intenta disimular, la tableta se queda muerta, mientras el directivo de Microsoft sigue adelante con la explicación y oculta la pantalla esperando a que la tableta se recupere.
El hombre traga saliva y la tableta sigue sin funcionar, así que decide cambiarla rápidamente por otra, que por fin sí funciona. Aunque la presentación acabó con normalidad, las bromas en la Red ya se han desatado y puede que la compañía fundada por Bill Gates haya comenzado a buscar un culpable del desastre. ¿Rodarán cabezas?.

sábado, 23 de junio de 2012

Crean una cámara fotografica cinco veces más precisa que la visión humana.

Los investigadores creen que la generación de las «cámaras gigapíxel» llegará a las tiendas antes de cinco años
Una cámara de 50 gigapíxeles. O lo que es lo mismo, de 50.000 megapíxeles. Un dispositivo capaz de conseguir imágenes con un detalle sin precedentes. Por ahora es un prototipo, un trabajo de un grupo de ingenieros eléctricos de las universidades de Duke y Arizona, pero en unos años estará probablemente en los comercios.
Esta imagen pluscuamperfecta se logra mediante la sincronización de 98 cámaras diminutas en un único dispositivo. La resolución de la cámara es cinco veces mayor que la visión humana normal, según se detalla en la revista Nature.
La nueva cámara puede capturar hasta 50 gigapíxeles de datos. Hay que tener en cuenta que la mayoría de las cámaras de los consumidores oscilan, en el mejor de los casos, entre 8 y 40 megapíxeles, lo que da idea del salto logrado en este prototipo.
No es el primer dispositivo que toma fotografías que se pueden medir en gigapíxeles. Cada día se difunden proyectos de este tipo tanto en el área civil como en el militar. En el primer caso, destacan iniciativas como 360world, dentro del cual se consiguió una imagen de 70 GB con dos cámaras. En el lado militar, hace unos meses supimos que los aviones estadounidenses sin piloto que sobrevuelan Afganistán pueden tomar imágenes con una resolución de 1,8 gigapíxeles.
En el futuro, mucho más pequeñas
Los autores del trabajo conocido hoy creen que dentro de cinco años se habrá logrado que los componentes electrónicos de las cámaras puedan ser mucho más pequeños y eficientes, de forma que la próxima generación de cámaras gigapixel podría llegar entonces al público en general.
«La cámara es así de grande -como se aprecia en la foto que ilustra esta noticia- debido a los tableros de control electrónico y a la necesidad de añadir componentes para evitar que se sobrecaliente», aseguró David Brady, uno de los coautores del experimento.
Tradicionalmente, la mejora de las cámaras se conseguía añadiendo elementos de cristal, haciéndolas más complejas. Sin embargo, en un determinado momento -según los investigadores- la complejidad satura el mecanismo y eleva demasiado los costes. En este nuevo ingenio hay un software que combina el trabajo de las microcámaras, y una lente-objetivo común que recoge la luz y dirige esas 98 cámaras diminutas. «Cada una de ellas trabaja en una zona concreta de la imagen. Y algunas se superponen, de forma que no nos perdemos nada», según Michael Gehm, profesor de la Universidad de Arizona.

Nuevo test de riesgo genético para la degeneración macular

 La Unidad de Genética del Instituto de Microcirugía Ocular de Barcelona (IMO) ofrece de forma pionera desde mayo consejo genético sobre la enfermedad a todas aquellas personas que accedan a someterse a un sencillo test. A partir de una muestra de saliva, se realiza un análisis del ADN del individuo, que permite conocer si es propenso, desde el punto de vista genético, a sufrir la patología. Para ello se estudian los marcadores de los principales genes involucrados en la dolencia.
La DMAE es una enfermedad compleja, debida en un 70% a factores genéticos y en un 30% a factores ambientales. La causan un conjunto de genes que combinados incrementan el riesgo, o predisponen, a desarrollar la patología. Hasta el momento, se conocen 19 marcadores genéticos de predisposción, y probablemente existan bastantes más. Lo importante es identificar los que son cruciales para la predisposición y para la protección, campo en el que se trabaja intensamente», explica Roser González, responsable de la Unidad de Investigación Genética del IMO, quien destaca las ventajas de este nuevo procedimiento.
Tratamientos preventivos
El test genético resulta útil porque anticipa el diagnóstico y alerta a las personas asintomáticas de riesgo medio-alto. En tal caso, los genetistas y oftalmólogos especialistas en retina proponen un plan individualizado, orientado a sistemizar una serie de revisiones oculares, iniciar tratamientos preventivos (con la indicación de suplementos vitamínicos, etc.) y controlar y modificar los demás factores que pueden precipitar la aparición de la enfermedad o agravarla. «El estudio de los marcadores genéticos de DMAE se traduce a una escala de probabilidad que establece una gradación del riesgo en cuatro categorías, desde muy bajo hasta riesgo elevado de padecer la enfermedad. Por un lado, el estudio de estos marcadores permite identificar el grupo de riesgo individual. Además, en términos relativos, el riesgo de un individuo clasificado en el grupo de alto riesgo será del orden de 4 a 5 veces superior que los de riesgo bajo. El test es muy importante para los pacientes en fases incipientes y para sus familiares no afectos», apunta González.
Junto a la causa genética, existen otros factores de riesgo que favorecen la enfermedad como el tabaquismo, el grado de pigmentación del individuo y la dieta, así como determinados problemas de salud como la hipertensión.
Lo que hay que saber
¿Qué es la DMAE? Es la principal causa de pérdida severa de visión en los mayores. Afecta a la mácula (dentro de la retina). A medida que avanza reduce la visión central, lo que dificulta tareas como leer, conducir o reconocer rostros.
¿Hay señales de alarma? Es frecuente que el paciente no note síntomas en las primeras fases. De ahí, la importancia del diagnóstico precoz.
¿Qué formas presenta la dolencia? Existen dos formas: la seca, la más habitual, en la que se va atrofiando la mácula, y la húmeda, en la que se produce un crecimiento anómalo de vasos. Esta última se controla con fármacos, mientras que para la forma seca de la enfermedad no existe aún un tratamiento eficaz.

El día 30 de junio durará un segundo más.

 El añadido se realizará para ajustar los relojes humanos con el período de rotación de la Tierra
Este año, tendrá un día, específicamente este 30 de junio, que durará un segundo más. La razón de este añadido es que se necesita para poder ajustar los relojes humanos con el período de rotación de la Tierra, según informó el Observatorio Naval de Estados Unidos.
El año bisiesto —este año lo fue— se introdujo para reajustar el calendario gregoriano de 365 días de 24 horas cada uno con la realidad de la órbita terrestre en torno al Sol, y la rotación de la Tierra sobre su eje cada 23 horas, 59 minutos y 59 segundos.
El último segundo que se añadió al UTC fue el 31 de diciembre de 2008
Esa diferencia se va acumulando y cada cuatro años,el calendario obtiene un día adicional, el 29 de febrero, según recordó el Observatorio Naval, que es la agencia que lleva la «hora oficial» en Estados Unidos.
La invención de los relojes atómicos ha permitido una medición del tiempo mucho más precisa y en 1970 un acuerdo internacional reconoció la existencia de las dos escalas de tiempo: el período de rotación del planeta, y el llamado Tiempo Universal Coordinado (UTC), reseña Efe.
El Servicio Internacional de Rotación de la Tierra y Sistemas de Referencia Saltar, establecido en 1987 por la Unión Astronómica Internacional y la Unión Internacional de Geodesia y Geofísica, es la organización que observa la diferencia entre las dos escalas y señala cuándo debe agregar o quitar un segundo del UTC para mantener a ambas escalas con una diferencia de menos de 0,9 segundos.
Para crear el UTC se genera primero una escala de tiempo secundaria, conocida como «tiempo atómico internacional» o TAI, que consiste en el UTC sin segundos añadidos o quitados.
Cuando se instituyó el sistema en 1972 se determinó que la diferencia entre el TAI y el tiempo real de rotación de la Tierra era de 10 segundos.
Desde 1972 se han añadido segundos en intervalos que van de seis meses a siete años, y el más reciente se agregó el 31 de diciembre de 2008. Después de que se añade el segundo extra al último minuto de junio, la diferencia acumulada entre el UTC y el TAI será de 35 segundos.

Cómo evitar que te sigan los pasos en Internet.

 Recabar los datos de las personas que navegan por Internet no es ilegal, y muchas veces tampoco maligno.
Cada vez son más los que piden que sea el navegante el que pueda elegir sistemas de bloqueo de estos rastreadores.
Existen técnicas de bloqueo, conocidas como 'do not track' ("no me grabes").
Los navegadores van incorporando esta opción en sus últimas versiones.
Navegar por Internet supone que el usuario deje huella allá por dónde pasa. Cada vez que se visitan páginas webs, los datos de la persona son recopilados. Estos datos, tal y como señalan desde Consumer, circulan desde las páginas web que visita a otras que los utilizan para hacer estudios de mercado, segmentar la publicidad o mejorar la oferta de servicios. No es una práctica ilegal, y muchas veces ni siquiera es maligna, puesto que los datos personales que identifican al internauta quedan resguardados. Pero cada vez son más los que piden que, como mínimo, se ofrezca al navegante la posibilidad de elegir sistemas de bloqueo de estos rastreadores.
Estas técnicas de bloqueo son conocidas como 'do not track' ("no me grabes"). Desde 2009, un grupo de expertos en seguridad informática reclama con reiteración la inclusión de una opción en los diferentes navegadores que bloquee a los rastreadores que haya en las distintas páginas web que se visitan. Se trata de un programa que nos permita navegar sin dejar rastro y que podamos activar o no, según nuestra elección. Dicha opción ha sido bautizada como 'do not track'.
En los navegadores.
 Firefox: ha incorporado 'do not track' en su última versión como una característica de la configuración del navegador y Twitter lo ha introduccido como opción para los enlaces que se abren desde el servicio con Firefox.
Internet Explorer 10: lo incluirá como opción por defecto (es decir, habrá que activar la opción de dejarse rastrear de forma voluntaria), algo que ha sido criticado por otros navegadores que creen que Microsoft quiere reservarse la información de rastreo para sí.
Chrome: en el navegador de Google existe una larga lista de aplicaciones en la Chrome Web Store que cumplen esta función con mayor o menor eficacia. Entre todas ellas la más popular es 'Do not track plus', que previene contra todo tipo de rastreadores. Los mismos se pueden ver en un marcador que se sitúa junto a la barra de direcciones. También se puede ordenar a la aplicación que no bloquee los rastreadores en determinadas páginas. Otra aplicación popular con el mismo cometido es Ghostery.
Problemas con Twitter y Facebook
Poder twittear un enlace o compartirlo en Facebook queda bloqueado, ya que estas opciones también son rastreadores. Es decir, si se utiliza esta opción se pierde capacidad social a menos que se ordene el desbloqueo. Además, plataformas como Google y otras de recomendación social de productos y servicios serán cada vez menos eficientes para el usuario si utiliza el 'do not track', ya que no podrán aprender de sus movimientos por la web y por tanto no podrán anticiparse a sus deseos.

Alan Turing, el padre de la informatica.

 Se cumplen 100 años del nacimiento de Alan Turing, padre de la informática y la inteligencia artificial, que encabezó un proyecto británico para 'romper' el código de los mensajes secretos alemanes durante la Segunda Guerra Mundial.
Con máscara de gas, los pantalones sujetos por una cuerda o un pijama debajo del abrigo, un desaliñado y balbuceante Alan Turing llegaba cada día en bicicleta a Bletchley Park. Era hombre de pocos amigos, pero a los que tenía tampoco les podía contar lo que pasaba allí dentro. Encabezaba un equipo de mentes privilegiadas como parte del proyecto 'Ultra', una operación secreta del gobierno británico que daría un vuelco a la Segunda Guerra Mundial.
Un solo día después de estallar la guerra, el brillante y excéntrico Turing emprendió la misión imposible: encontrar la forma de descifrar el sistema de encriptación de los nazis, Enigma, considerado impenetrable por la jerarquía alemana. Era una apuesta suicida: las probabilidades eran de 150 millones de millones de millones contra una. O eso era de lo que el enemigo presumía.
Tras varios años de trabajo, Turing y sus colegas lograron 'romper' el código. Se sirvieron de computadoras pioneras, que recibieron apodos como la 'Bomba' o el 'Coloso'. Sus hallazgos salvaron cientos de vidas aliadas en la Batalla del Atlántico y, apuntan los historiadores, adelantaron el fin de la guerra en al menos dos años.
Si viajamos cuatro años atrás en el tiempo, a 1935, nos encontraremos al Turing más académico y menos glamouroso, el padre de todos los 'geeks' que cambió la historia para siempre y sin hacer ruido, al sentar la base de la informática y los ordenadores modernos.
Lo que conocemos como 'máquina de Turing' no es otra cosa que un diseño abstracto, utópico, de una computadora con una memoria infinita y un escáner que la recorre de un lado a otro leyendo e introduciendo símbolos. Más tarde se le ocurriría que el aparato podría aprender de la experiencia, un concepto que aún hoy se encuentra en desarrollo, con cada vez más dispositivos y aplicaciones tratando de 'conocer' al usuario y personalizar la experiencia de uso.
Era la primera de tantas aportaciones de Turing al terreno de la inteligencia artificial. Durante la guerra, en Betchley, sacó tiempo para aplicar algún otro concepto de esta materia en rudimentarios programas de ajedrez. Los actuales superordenadores, maestros de la disciplina, le deben mucho a estos primeros jugadores con cables.
Más tarde, en los últimos compases de la primera mitad de siglo, ya pasada la contienda, el entonces Director del Laboratorio de Informática de la Universidad de Manchester propuso uno de sus más célebres experimentos, conocido hoy como el 'Test de Turing'.
Existen multitud de variantes de esta prueba, pero en esencia involucra a un juez que trata de distinguir, por medio de preguntas, cuál de los dos sujetos del experimento es un ordenador y cuál es un humano. En teoría, la persona debe comportarse con normalidad y es la máquina quien debe aparentar inteligencia humanoide. Todavía en nuestros días es terreno de ciencia ficción que una máquina llegue a igualar nuestro intelecto.
Turing falleció en 1954. Su muerte no conmocionó a la opinión pública. De hecho, pocos se enteraron. Turing no era un icono glamouroso de la industria en los primeros años de la informática, sino más bien un teórico, y de los más modestos pese a su extravagancia. Vincular sus trabajos con aplicaciones prácticas era complicado y mucho de lo que le debemos se ha instalado en la mente colectiva como una creación americana.
Pero hay algo más. Algo turbio. El 7 de febrero de 1952, Alan Turing fue arrestado por mantener un romance con un joven de Manchester. Ser homosexual era un delito en la Gran Bretaña de mediados de siglo y le obligaron a inyectarse hormonas femeninas como método de castración. Era el único modo de eludir la cárcel.
Comienza así su leyenda negra, la tragedia de Turing, que se completa con una muerte de cuento, probablemente calculada al milímetro por el propio científico. Apareció envenenado junto a una manzana mordida... aunque al parecer el mismo bebió el cianuro que llevaba dentro.
Algunos han conspirado con la idea que se lo hicieran beber, que no fuera un suicidio, pero en cualquier caso la presencia de la fruta de Blancanieves en su lecho de muerte debió de ser su mensaje a la posteridad.
Tal vez algún día logremos descifrar el código con que lo dejó encriptado.

domingo, 17 de junio de 2012

China lanza los primeros tripulantes rumbo a su estación espacial.

Hoy a las 10:37 UTC un cohete Larga March 2F/G despegaba de la plataforma de lanzamiento 921 del Centro de Lanzamiento de Satélites de Jiuquan en China con tres tripulantes a bordo.
Su misión es acoplar su cápsula Shenzhou-9 con el módulo Tiangong 1, que lleva en órbita desde el 29 de septiembre de 2011.
El Tiangong 1 es un módulo relativamente pequeño, con un diámetro máximo de 3,35 metros, una longitud es de 9 metros, un peso de 8,5 toneladas, y espacio para dos tripulantes, que está siendo utilizado por China para adquirir experiencia de cara a la construcción de una futura estación espacial más grande y eventualmente permanentemente tripulada.
En noviembre de 2011 la cápsula Shenzhou-8, con dos maniquíes a bordo, sirvió para ensayar los acoplamientos entre estas y el Tiangong 1; ahora el objetivo de Jing Haipeng, Liu Wang y Liu Yang es repetir el acoplamiento, pero ya abriendo las escotillas entre ambas y pasando dos de ellos al interior del Tiangong 1.
La duración prevista de la misión es de trece días, durante diez de los cuales ambas naves estarán unidas en órbita. Igual que en el caso de la Shenzhou-8, si todo va según lo planeado harán dos acoplamientos y desacoplamientos antes de darla por finalizada, pero en este caso los acoplamientos se realizarán en modo manual.
Durante el tiempo en el que permanezcan acopladas dos de los tripulantes estarán en el Tiangong 1 –tampoco es que haya mucho más sitio– y otro estará en la Shenzhou-9.
Esta es la cuarta misión tripulada del programa espacial chino, y además de ir a convertirse en la primera en la que su laboratorio espacial reciba tripulantes, es la primera en la que una mujer china vuela al espacio.
Liu YangLiu Yang, de 33 años, es comandante de la Fuerza Aérea del Ejército Popular de Liberación, en la que acumula casi 1.700 horas de vuelo, y forma parte de la segunda promoción de astronautas chinos.
Coincidencia o no, el lanzamiento de Liu Yang se produce en el 59 aniversario del lanzamiento de la Vostok 6, a bordo de la cual Valentina Tereshkova se convirtió en la primera mujer de la historia en salir al espacio.

Si su perro es agresivo, a lo mejor le duele algo de forma crónica o puntual.

 Son varios los factores que pueden explicar la agresividad, pero las patologías o los dolores también influyen.
La mayoría de los perros analizados en el estudio, llevado a cabo por la UAB, habían sufrido una anomalía en el desarrollo de la cadera.
El trabajo demuestra además que estos perros son más impulsivos, esto es, atacaron sin dar señales previas, como un gruñido.
Los canes pueden sufrir episodios repentinos de agresividad sin que sus dueños entiendan el porqué. Pero, en muchos casos, la causa de los ataques puede ser un dolor no diagnosticado ni tratado. Un estudio describe por primera vez las características de esta irritabilidad, que puede convertirlos en perros violentos o aumentar las agresiones de los que ya eran conflictivos.
Varios factores pueden explicar la agresividad de los perros: las condiciones de la madre durante la gestación, la manipulación del cachorro durante el período neonatal, la edad al destete, las experiencias del animal durante el período de socialización, la dieta, el ejercicio, la genética o las técnicas de aprendizaje basadas en el castigo activo en la edad adulta. Pero un comportamiento agresivo también se manifiesta por la presencia de patologías y de dolor en el perro.
Un equipo de investigadores del departamento de Ciencia Animal y de los Alimentos de la Universidad Autónoma de Barcelona (UAB) analizó entre 2010 y 2011 los problemas de agresividad de 12 perros de raza (schnauzer gigante, setter irlandés, pit bull, dálmata, dos pastores alemanes, mastín napolitano, shih-tzu, bobtail, pastor catalán, chow-chow y doberman) que acudieron con sus dueños al Hospital Veterinario de la UAB.
 “Todos (once machos y una hembra) fueron diagnosticados de agresividad por dolor. De los 12, ocho habían sufrido displasia (anomalía en el desarrollo de un órgano) de cadera”, señala a SINC Tomás Camps, autor principal del estudio que se publica en Journal of Veterinary Behavior, e investigador del Servicio de Nutrición y Bienestar Animal de la UAB.
Los científicos identificaron las circunstancias más frecuentes en que los perros eran agresivos, las posturas más características, el blanco más frecuente de los ataques y si eran impulsivos, es decir, si mostraban o no señales antes de atacar.
El estudio demuestra que los perros que ya eran agresivos por otras causas antes del inicio del dolor atacaron a sus dueños con mayor intensidad y frecuencia cuando se les retiró la comida, se les desplazó de la zona de descanso o se les obligó a hacer algo. Los animales mostraron agresividad en los mismos contextos (o casi) que en los que ya eran agresivos.
Por otra parte, “los perros que nunca habían sido agresivos antes del inicio del dolor empezaron a serlo en circunstancias en los que se les intentó manipular”, informa Camps.
 Además, el trabajo demuestra que estos perros fueron más impulsivos, es decir, atacaron sin dar señales previas, como un gruñido. El equipo de investigación declara que “si la mascota es manipulada cuando siente dolor, esta reaccionará agresivamente con rapidez para evitar más molestias, sin que el propietario pueda prever el ataque”.
Diagnosticar la displasia de cadera
La displasia de cadera canina –una enfermedad ósea hereditaria y degenerativa que afecta a la articulación que une la cadera y la cabeza del fémur– afecta a más del 40% a golden retrievers, labradores retrievers y rottweillers, y en general puede producirse en cualquier raza de perro grande. En razas pequeñas es menos frecuente.
El nuevo estudio sugiere que el dolor producido por la displasia de cadera es un importante factor de riesgo de la agresividad en perros grandes. Pero el problema surge cuando el perro experimenta períodos de poco dolor y esta enfermedad no se diagnostica a tiempo.
Los investigadores recalcan la importancia del diagnóstico y el tratamiento del dolor ya que “puede tanto causar un problema de agresividad como empeorar uno preexistente”, manifiesta Camps.

¿Por qué nada puede ir más rápido que la luz?

 Supongamos que estas viajando en una nave espacial y se aceleras mas y mas hasta acercarse a la velocidad de la luz. ¿Qué ocurre? ¿Se evapora el combustible de la nave? ¿Nos desvanecemos del universo conocido? ¿Viajamos al pasado?
La respuesta correcta no es ninguna de las de arriba. No te sientas mal si no lo sabes, nadie lo supo hasta que Albert Einstein lo descubrió.
La manera más fácil de entender las explicaciones de Einstein es entender una simple ecuación que probablemente hayas visto alguna vez: e = mc2.
Para entender esta ecuación, consideremos una similar, una para convertir pulgadas cuadradas en pies cuadrados. Si “x” es el numero de pulgadas cuadradas e “y” es el numero de pies cuadrados, entonces podemos escribir la ecuación: x = 144y. El 144 sale de elevar al cuadrado el número de pulgadas por pie (122 = 144). Otra manera de escribir la misma ecuación seria x = c2y, donde c en ente caso es igual a 12 pulgadas por pie. Dependiendo en que unidad usemos, esta ecuación se puede usar para convertir cualquier medida de área en otra cualquier medida de área; solo que la constante c sería diferente.
Por ejemplo, la misma ecuación se puede usar para convertir yardas cuadradas en metros cuadrados, donde c2 es 0,9144, el número de yardas por metro. La c2 es solo la constante de conversión.
El motivo por el que funcionan estas ecuaciones de áreas es que pies cuadrados y pulgadas cuadradas son diferentes formas de medir lo mismo, en este caso áreas. Lo que descubrió Einstein, para sorpresa de todos, fue que energía y masa también son diferentes formas de medir lo mismo. Resulta que solo un poco de masa es igual a una gran cantidad de energía, entonces en la ecuación, la constante de conversión es muy grande.
Por ejemplo, si medimos masa en kilogramos y energía en joule, la ecuación se puede escribir así: e = 90.000.000.000.000.000m. Esto significa que una batería cargada (que contiene casi 1 millón de joules de energía) pesa 0,0000000001 gramo más que una batería descargada.
Si trabajamos con diferentes unidades, la constante de conversión será diferente. Por ejemplo, si medimos masa en toneladas y energía en BTUs, entonces c será 93.856.000.000.000.000. Si medimos energía y masa en lo que los físicos llaman “la unidad natural” (en la cual c = 1), escribiríamos la ecuación: e = m, lo que la hace más fácil de entender; solo significa que masa y energía son la misma cosa.
No importa que la energía sea energía eléctrica, energía química, o energía atómica. Todas pesan la misma cantidad por unidad de energía. De hecho, la ecuación aun funciona con algo que los físicos llaman energía cinética, que es la energía que posee algo al moverse. Por ejemplo, cuando le pego a una pelota de tenis, le doy energía a la pelota al pegarle con mi raqueta. De acuerdo con la ecuación de Einstein, la pelota adquiere más peso cuando le pego. Cuanto más fuerte le pego, más rápido viaja y se vuelve más pesada. Usando la ecuación de Einstein, e = mc2, calculo que si tiro la pelota a una velocidad de 100 kilómetros por hora, (yo no puedo, pero un buen tenista si) esta se vuelve más pesada 0,000000000002 gramos, que no es mucho.
Ahora, volvamos a la nave espacial. Asumamos que la nave recibe energía de una fuente externa, así que no hay que preocuparse por llevar combustible. A medida que usted viaja en su nave espacial cada vez más rápido, va agregando más y más energía a la nave al acelerarla, así que la nave gana más peso (debería decir más masa en lugar de más peso ya que no hay gravedad en el espacio). Para cuando alcance el 90% de la velocidad de la luz, la nave tendrá tanta energía que casi tendrá el doble de masa original. Se vuelve cada vez más difícil empujarla para los motores, porque es muy pesada. A medida que se acerque a la velocidad de la luz, retorna la disminución: a mas energía que tiene la nave, más pesada, mas energía necesaria para acelerarla solo un poco, más pesada, y así.
Los efectos son aun peores de lo que piensa por lo que ocurre dentro de la nave. Después de todo, todo dentro de la nave, incluso usted, se está acelerando, adquiriendo más y más energía y siendo más y más pesada.
De hecho, usted y toda la maquinaria de la nave se vuelven muy inactivos. Su reloj, por ejemplo, que suele pesar solo unos gramos, ahora pesaría casi 40 toneladas. Y las agujas de su reloj no se vuelven más fuertes, así que se moverían mucho más lentamente. No solo su reloj funcionaria más lentamente sino también su reloj biológico interno. Usted no lo notaria porque sus neuronas seria más pesadas y sus pensamientos serian lentos, exactamente como su reloj. En lo que a usted respecta, su reloj funcionaria exactamente igual que antes (los físicos llaman a esto Contracción del tiempo relativista).
La otra cosa que sería más lenta es la maquinaria de la nave. Así su nave espacial gana peso, su motor se vuelve inactivo, y cuanto más cerca esta de la velocidad de la luz, peor se pone. Se vuelve cada vez más y más difícil, y no importa cuán duro lo intente, no podrá superar la barrera de la luz. Y es por eso que no se puede viajar más rápido que la velocidad de la luz.

Apple renueva el MacBook Pro, su portátil insignia, y le coloca la pantalla Retina.

Todo el almacenamiento se realiza usando la tecnología flash.
Es el portátil más fino (1,8 cm) del segmento de alta gama de Apple.
Apple presentó en  San Francisco (EEUU) una nueva versión de su ordenador portátil MacBook Pro, que se venderá desde 2.200 dólares. "Es simplemente el mejor ordenador que Apple ha fabricado jamás", afirmó Phil Schiller, jefe de marketing de la compañía.
Al final, como se esperaba, el nuevo MacBook Pro, ordenador insignia de la marca, vio la luz en la apertura de la conferencia anual mundial de programadores de San Francisco, durante la que también se presentaron otras novedades en software.
A partir de ahora, el MacBook Pro será el portátil más fino (1,8 cm) del segmento de alta gama de Apple y contará con una pantalla de alta definición Retina y más potencia.
En concreto, el portátil cuenta con los últimos procesadores Core i7 de Intel de cuatro núcleos, gráficos Kepler de NVIDIA de última generación y conectores de alta velocidad para el flujo de datos como Thunderbolt y USB 3. Lo más novedoso es que, en el corazón del sistema, Apple ha decidido que todo el almacenamiento se realice usando la tecnología flash.
Está claro que Apple, que ha actualizado toda su gama de portátiles, incluido el MacBook Air, busca con un rendimiento incluso mayor evitar la amenaza de los ultrabooks, los portátiles que rivalizan en diseño y en potencia con los aparatos de Apple.
"Todo el mundo trata de copiar (el MacBook Air) y evidentemente descubrimos que no es tan fácil", señaló Schiller. El nuevo modelo más pequeño de MacBook Air, con una pantalla de 11 pulgadas (28cm) y 64 gigas de almacenamiento estará disponible también el martes a partir de 999 dólares.

¿Qué tienen que ver las matemáticas con la obesidad?

 ¿Qué tienen que ver las matemáticas con la obesidad? Aparentemente nada pero, en esta vorágine de estudios en la que todo es analizable, un equipo de la Universidad de Missouri (EE.UU.) ha rizado el rizo. Según estos originales investigadores, «el peso de los niños está asociado con su rendimiento en matemáticas».
Sara Gable, que así se llama la autora del trabajo que se publica en Child Development, analizó a más de 6.250 niños procedentes de distintas escuelas infantiles. Los niños fueron seguidos desde que comenzaron la educación infantil (4 o 5 años) hasta quinto grado (11 o 12 años).
La investigadora recogió información de la familia en cinco momentos definidos de este periodo. Además, los maestros informaron sobre las habilidades interpersonales de los niños y su bienestar emocional; los niños fueron pesados y medidos, además de que se sometieron a exámenes académicos.
Peores resultados
Los resultados mostraron que, en comparación con los niños que nunca fueron obesos, aquellos, niños y niñas, cuya obesidad persistió desde el inicio del jardín de infancia hasta quinto grado tenían peores en los exámenes de matemáticas. Su bajo rendimiento continuó hasta el quinto grado. En cuanto a los niños cuya obesidad surgió más tarde, en el tercer o quinto grado, no se encontraron diferencias, mientras que las niñas que se convirtieron en obesas más adelante, su peor rendimiento en matemáticas fue temporal.
Además, las niñas que fueron obesas durante este periodo tenían menos habilidades sociales, lo que explica, en parte, su pobre rendimiento en matemáticas.
«Nuestro estudio sugiere que la obesidad infantil, especialmente la obesidad que persiste a través de los grados de primaria, puede perjudicar el bienestar social y bienestar emocional y el rendimiento académico de los niños», dijo Gable. En su opinión, los hallazgos ilustran las complejas relaciones entre el peso de los niños, sus habilidades sociales, el bienestar emocional y sus resultados académicos.

El 78,7% de los nuevos "smartphones" son Android, frente al 3,3% de iPhones.

 El 78,7 % de los teléfonos inteligentes comercializados en España entre marzo y mayo estaban dotados del sistema operativo Android, mientras que la cuota de mercado de iPhone fue del 3,3 %.
Así lo asegura el informe sobre hábitos de compra, posesión, gasto y uso de telefonía móvil de la consultora Kantar Worldpanel, del que se desprende que el 9 % de los "smartphones" vendidos fueron Blackberry, el 6,2 % tenían sistema operativo Symbian y el 2,6 % fueron Windows Phone.
En el mismo trimestre de 2011, la cuota de mercado de Android fue del 33,3 % y la de iPhone, del 5,8 %.
En declaraciones a Efe, el consultor de Kantar Worldpanel Hugo Liria ha explicado que se ha producido un "crecimiento descomunal" de teléfonos con Android gracias a que existe en el mercado una oferta variada en cuanto a prestaciones y precios.
Liria ha negado que Apple esté vendiendo menos iPhone, si bien ha matizado que en un mercado más grande de teléfonos inteligentes su cuota es más pequeña.
Según Kantar WorldPanel, 866.000 individuos cambiaron de terminal en mayo en España, el número más bajo de renovaciones de 2012 y una cifra un 6% inferior a la registrada hace un año.
"Se va a frenar la renovación de teléfonos pero Android va a seguir siendo la opción preferida porque casi todos los fabricantes que trabajan con este sistema operativo tienen desde un teléfono de gama alta a algo más básico. Eso va a hacer que Android siga triunfando, aunque seguramente vendiendo menos porque el mercado va a caer en el ámbito local", ha indicado Liria.
El consultor considera que las operadoras han inflado artificialmente el mercado de los "smartphones" con su política de subvención de terminales.
Sin embargo, ha sostenido, ahora -sólo Orange sigue subvencionando teléfonos- los españoles van a tardar más en cambiar de móvil e incluso se va a activar un mercado de segunda mano.
El informe de Kantar Worldpanel asegura que casi el 67 % de los nuevos terminales adquiridos en mayo en España fueron teléfonos inteligentes, por lo que ya constituyen el 38 % del parque total de móviles en el país.
Liria ha aseverado que la penetración de teléfonos inteligentes en España es elevada debido a la política de subvenciones de las operadoras y a que se sigue considerando "smartphones" a antiguos terminales dotados con Symbian.
La cuota de mercado de Symbian ha caído en un año del 42 % al 6,2 % debido, según el consultor, al abandono de Nokia de su sistema operativo y a la "revolución" de Android.
Para Liria, las cifras de la caída de Blackberry en España (que ha pasado del 12,1 % al 9 %) "no son tan malas" como en el resto del mundo, donde Research in Motion "está sufriendo bastante", debido a que es una de las opciones preferidas por los menores de 20 años.

Microsoft podría presentar ya, su propio «tablet».

 La multinacional anuncia una presentación por ahora secreta que podría centrarse en un «tablet» para competir con el iPad.
Microsoft podría presentar su propio «tablet» este lunes
El próximo lunes podemos conocer el aspecto real de las tabletas de Windows
El gigante tecnológico Microsoft podría lanzar un «tablet» propio. La compañía ha programado un evento secreto para el próximo lunes 18 de junio en Los Ángeles (California), donde se hará una «importante» revelación. Aunque no ha sido confirmado, podría tratarse de un «tablet» que haga la competencia al iPad de Apple y al Kindle Fire, de Amazon. Los de Redmond están muy interesados en el sector de los dispositivos móviles, de hecho el nuevo sistema operativo Windows 8 tiene un objetivo claramente táctil para un uso intuitivo con dispositivos como «tablets» y utiliza un microprocesador ARM.
Microsoft tiene un evento programado para el próximo lunes, y este se centraría en la estrategia de «tablets» fabricados por la propia compañía. Se trata de un esfuerzo por romper el liderazgo que Apple tiene con su iPad. Si finalmente lanzan su propio «tablet», este tendría procesadores ARM, como los modelos que se ejecutan en procesadores de PC tradicionales y se apunta a que tendría una pantalla de siete pulgadas, el mismo tamaño que tiene el Kindle Fire de Amazon. El gigante de la industria tecnológica podría también tener una asociación con Nokia, su principal socio, o con Barnes & Noble. El pasado mes de abril los de Redmond realizaron una inversión de 300 millones de dólares (unos 237 millones de euros) en Barnes & Noble. Por su parte, la alianza que mantiene con Nokia se ha basado por el momento en la fabricación de «smartphones» pero todavía no han dado el salto a los «tablets».
Microsoft ha creado un mercado de miles de millones de dólares con Xbox, la consola de videojuegos para ordenador que se ha convertido en un dispositivo con un gran número de fans y seguidores por todo el mundo. Sin embargo también tuvo fracasos en otros dispositivos y servicios como el reproductor Zune, que tuvo que desaparecer debido a la gran competencia que tenían con el iPod de Apple, y los teléfonos Kin, que tampoco lograron hacerse un hueco en el mercado.

viernes, 15 de junio de 2012

Descubren la galaxia más alejada de la Tierra, a 12.900 millones de años luz

 Probablemente sea una de las primeras galaxias que se formaron tras la creación del Universo.
Los científicos tuvieron que recoger la luz a través de los telescopios durante más de 37 horas.
Los telescopios Subaru y Keck han hallado una nueva galaxia situada a 12.900 millones de años luz, lo que la convierte en la más lejana jamás observada. La luz de la galaxia, llamada SXDF-NB1006-2, ha tardado tanto tiempo en llegar hasta los telescopios terrestres, que lo que se está observando actualmente sólo tiene unos pocos miles de millones de años desde el Big Bang, es decir, probablemente sea una de las primeras galaxias que se formaron tras la creación del Universo.
Los astrónomos que han llevado a cabo este trabajo, publicado en 'Astrophysical Journal', esperan que el estudio de SXDF-NB1006-2 y otros objetos lejanos ayuden a reconstruir lo que ocurrió en los albores del cosmos.
Actualmente, junto a esta galaxia, los expertos cuentan con el hallazgo realizado a principios de mayo por la Universidad de Arizona de una galaxia que podría encontrarse a 13.000 millones de años luz de la Tierra, aunque los datos aún no están confirmados. Del mismo modo, el equipo del telescopio espacial Hubble anunciaba en 2011 el descubrimiento de una galaxia que podría estar a 13.200 millones de años luz de la Tierra, pero, tras varias investigaciones, sigue siendo un "candidato galaxia" y está pendiente de confirmación.
Para observar un objeto tan lejano y débil, los científicos tuvieron que recoger la luz a través de los telescopios durante más de 37 horas, dejando que la luz se acumule para lograr ver lo más profundo posible. Los investigadores, dirigidos por Takatoshi Shibuya de la Universidad de Postgrado para Estudios Avanzados en Japón, contaron hasta 58.733 objetos en la imagen, y se redujo a dos los posibles candidatos a galaxias extremadamente distantes.

¿Cual es el pais más feliz del mundo?.

 El ranking elaborado por la fundación 'New Economics' asegura que el país más feliz es Costa Rica por segundo año consecutivo.
Hay 15 países sudamericanos entre los 23 países más felices del mundo
El país más infeliz es Botsuana de los 151 países que aparecen en este índice
España es más feliz que Uganda y ocupa el puesto número 62 entre los países más felices del mundo según un informe elaborado por Happy Planet de la 'fundación New Economics'.
Por segunda vez consecutiva destaca a Costa Rica como el país más feliz del mundo. Este ranking es muy peculiar porque no mide los índices de salud, educación, pobreza o desarrollo humano.
“Países como Costa Rica van a la cabeza porque sus habitantes viven vidas largas y felices utilizando solo una fracción de los recursos del planeta. Este es un modelo económico que realmente puede llevar a vidas saludables, felices y sostenibles”, dijo en un comunicado de prensa Saamah Abdallah, investigador de New Economics.
En los primeros puestos en felicidad aparecen países  que en el pensamiento colectivo no imaginaríamos que fueran felices precisamente. En los primeros puestos hay países donde reina la violencia, como México o Honduras, países muy pobres como Nicaragua, Guatemala, o países no democráticos como Cuba. Llama la atención que entre los primeros 23 países, 15 son latinoamericanos.
La primera gran potencia que aparece en esa lista es Israel en el puesto número 15. Después ya nos encontramos con el Reino Unido en el 41, Japón en el 45, Alemania en el 46, Francia en el 50 e Italia en el 51.
Nuestro país aparece en el puesto número 62 y salvo Italia, aparece por delante, en este ranking de la felicidad , de los otros PIIGS, como Irlanda (73), Portugal (97) y Grecia (84).
Mucho más por detrás en este índice está Estados Unidos que ocupa el puesto número 104 y Uganda que ocupa el 131.
Los últimos tres lugares de los 151 países, los ocupan Catar, Chad y Botsuana.
Cómo se hace el informe
El informe mide tres cosas, el bienestar de los habitantes, la esperanza de vida al nacer y la huella ecológica de una nación. Los dos primeros resultados se multiplican y se dividen entre la huella ecológica, que es la cantidad de recursos naturales que se consumen frente a la capacidad del ecosistema del país para generarlos.
Según el informe, los españoles tenemos le dan una nota de 6,2 a su vida, la esperanza de vida está en 81,4 años y la huella ecológica es de 4,9 gramos per cápita, con una calificación media de 44, 1 puntos.
Estas características dan a Costa Rica una calificación global de 64, mientras que Vietnam (segundo lugar) queda con una nota de 60,4 y Colombia (tercer puesto), con 59,8.
Los últimos tres lugares los ocupan Catar, con 25,2 puntos, Chad (24,7) y Botsuana (22,5).
Ha habido muchas críticas a este informe que mide la alegría de los países en el que Siria, que está viviendo una Guerra civil y una masacre de su propio pueblo, aparece en el puesto número 47.
“El índice Planeta Feliz mide lo que realmente importa: largas y felices vidas en la actualidad y el potencial de buenas vidas en el futuro. Nos hemos adherido a modelos incompletos que solo ven el desarrollo económico desde hace mucho tiempo”, dijo Marcs en un comunicado de prensa.

jueves, 14 de junio de 2012

El uso de células madre embrionarias puede ayudar a restaurar la visión.

 Un estudio del Centro Riken de Biología del Desarrollo (Japón) ha demostrado que las células madre embrionarias pueden ser clave a la hora de regenerar la retina y, en un futuro, devolver la visión a quienes tienen problemas de visión, según los resultados publicados en 'Cell Stem Cell'.
Un estudio del Centro Riken de Biología del Desarrollo (Japón) ha demostrado que las células madre embrionarias pueden ser clave a la hora de regenerar la retina y, en un futuro, devolver la visión a quienes tienen problemas de visión, según los resultados publicados en 'Cell Stem Cell'.
"Es un hito importante para una nueva generación de la medicina regenerativa", ha señalado Yoshiki Sasai, autor principal de esta investigación, que ha demostrado que estas células son capaces de generar de forma espontánea este tejido que se desarrolla en la parte del ojo que nos permite ver.
Durante el desarrollo humano, el tejido sensible a la luz que recubre la parte posterior del ojo o retina se forma a partir de una estructura conocida como copa óptica.
En este estudio, demostraron como esta estructura surgió de forma espontánea a partir de células madre embrionarias humanas (hESCs) --capaces de convertirse en una gran variedad de tejidos-- gracias a los métodos de cultivo utilizados por Sasai y su equipo.
Así, vieron mediante técnicas en 3D que fueron capaces de desarrollar de forma correcta las dos capas de la copa óptica, incluyendo una capa que contiene un gran número de células que responden a la luz llamadas fotorreceptores.
De hecho, la degeneración retiniana se produce principalmente por el daño de estas células, por lo que este tejido podría ser el idóneo en caso de un trasplante, han explicado los autores.
Pero más allá de las implicaciones clínicas, Sasai se ha mostrado convencido de que el estudio probablemente acelerará la adquisición de conocimientos en el campo de la biología del desarrollo.
Y es que han comprobado que la copa óptica que originaron las células madre embrionarias era mucho más grande que la copa óptica que previamente habían obtenido en sus estudios en ratones, lo que sugiere que estas células contienen cualidades innatas propias para cada especie.

martes, 12 de junio de 2012

Einstein tenía razón.

 Un experimento del CERN sugirió que los neutrinos eran más rápidos que la luz
Los investigadores confirman que hubo un error en los instrumentos de medición.
Einstein tenía razón. El equipo de investigadores del CERN (Organización Europea para la Investigación Nuclear) que el pasado año revolucionó el mundo de la ciencia con un experimento que sugería que los neutrinos eran más veloces que la luz han confirmado este viernes que su trabajo contenía errores.
En concreto, se trató de un fallo en los instrumentos de medición (el cable de fibra óptica que transportaba la señal de GPS al reloj principal del experimento estaba mal conectado). Así que el hallazgo de un simple error técnico ha bastado para 'resolver' el caso de los neutrinos superveloces.
Según han explicado este viernes durante la 25 conferencia internacional sobre física de neutrinos y astrofísica que se celebra en Kioto (Japón), las nuevas mediciones realizadas en los cuatro experimentos del laboratorio Gran Sasso (Borexino, ICARUS, LVD y OPERA) demuestran que la Teoría de la Relatividad también es válida para estas partículas subatómicas.
"Aunque este resultado no es tan emocionante como a algunos les hubiera gustado, es lo que todos en el fondo esperábamos. Esta historia ha capturado la imaginación del público y les ha dado la oportunidad de ver el método científico en acción. Se publica un resultado inesperado para que sea escrutado, se investiga en profundidad y se resuelve, en parte, gracias a la colaboración entre experimentos que normalmente compiten. Así es como la ciencia avanza", ha afirmado el director de investigación del CERN, Sergio Bertolucci, durante la presentación de los resultados de las nuevas mediciones que se han llevado a cabo.
A la búsqueda del fallo
En septiembre de 2011 un equipo del CERN de Ginebra publicó un trabajo que mostraba que estas partículas subatómicas, denominadas neutrinos, podían viajar más rápido que la luz. El resultado ponía en entredicho la Teoría de Relatividad formulada por Albert Einstein en 1905, que constituye uno de los grandes pilares en los que se sustenta la Física.
La conferencia en la que Dario Autiero, uno de los autores del estudio, expuso los resultados suscitó una gran expectación y fue recogida en medios de comunicación de todo el mundo. Los neutrinos saltaban a la fama.
Comenzó también uno de los debates más apasionantes entre físicos de todo el mundo. Muchos científicos de prestigio pusieron ya en duda que los resultados del CERN pudieran ser ciertos y la prudencia fue la reacción más común entre los investigadores. Pero había que encontrar el error.
Los propios autores del estudio fueron los primeros en mostrar su perplejidad ante los resultados del experimento OPERA, que habían sido repetidos en numerosas ocasiones antes de hacerse públicos. Asimismo, animaron al resto de la comunidad científica a estudiar el caso y a intentar localizar dónde estaba el fallo.
Una carrera de 730 kilómetros
El experimento OPERA calculó el tiempo que los neutrinos tardan en recorrer 730 kilómetros (que es la distancia que separa las instalaciones del CERN de Ginebra y del laboratorio subterráneo de Gran Sasso, en Italia). Los resultados indicaban que los neutrinos recorrieron esta distancia en un tiempo 60 nanosegundos inferior que la luz.
"Las primeras mediciones realizadas hasta 2011 entre el CERN y Gran Sasso fueron revisadas teniendo en cuenta los efectos de los instrumentos", ha explicado el equipo en Kioto.
El pasado mes de febrero, los físicos que habían estudiado el funcionamiento de OPERA habían sugerido ya la hipótesis de que sus resultados eran erróneos debido a que los datos habían sido alterados por una mala conexión entre un GPS y un ordenador. Al mes siguiente, el físico Antonio Ereditano, coordinador del experimento OPERA, presentó su dimisión de su cargo en el Instituto Nacional de Física Nuclear italiano.
Las comprobaciones llevadas a cabo por el equipo del experimento OPERA en los últimos meses han confirmado el fallo en la conexión. Este fallo técnico hizo que se atribuyera a los neutrinos una marca 74 nanosegundos superior al tiempo que tardaron en realidad. Es decir, la velocidad de los neutrinos fue inferior a la que habían indicado los primeros resultados. Además, el reloj de alta precisión utilizado por OPERA estaba ligeramente desfasado, lo que hizo que se añadieran otros 15 nanosegundos.
Una vez que estos fallos técnicos fueron corregidos, se volvió a calcular el tiempo que tardaban los neutrinos en recorrer el túnel de 730 kilómetros. En esta ocasión, estas partículas subatómicas no pudieron batir la velocidad de la luz. Como dijo Einstein.

El iPad, rey absoluto de las tabletas, Samsung supera a Kindle .

El iPad de Apple amplió su liderazgo del mercado global para tabletas al comienzo de 2012 mientras que Kindle Fire sufrió una pérdida de combustión luego de un comienzo fulgurante, según un sondeo.
La investigación ha mostrado que la venta total de tabletas alcanzó los 18,2 millones en los primeros tres meses del año, lo que supone un 185% con respecto al año anterior, pero un 33% menos que en el último trimestre del año pese a la Navidad.
Apple mantuvo un 65% de la cuota de mercado con la venta de 11,8 millones de iPad, que se vio impulsada por un modelo de tercera generación y la reducción del precio del iPad 2, según el informe. Samsung se hizo con la segunda posición con 1,1 millones de ventas, o 6% de la cuota de mercado, superando a Amazon, que vio un descenso de un 80% en cada trimestre en sus ventas del Kindle Fire, según ABI.
ABI no dio cifras concretas para el Kindle Fire, afirmando que Amazon no publica datos de venta para el dispositivo, pero el sondeo coincidió con otros informes que apuntan a la pérdida del ritmo en las ventas del Kindle en los últimos meses. El analista de ABI, Jeff Orr afirma que Amazon realizó un buen trabajo de marketing durante el lanzamiento del Kindle Fire el año pasado en la sesión festiva navideña pero no mantuvo el impulso de forma continuada.
El Kindle "parecía algo con las capacidades del iPad pero a un precio menor", afirmó. "Pero no se ha traducido en algo que revierta el ciclo de comportamiento normal del mercado", afirmó Orr. "Sería interesante ver lo que pasa en este trimestre".
Orr afirma que Apple y Samsung "han demostrado mantenerse en el poder mientras que otros vendedores de tabletas aparecen y desaparecen como la marea". Otros fabricantes de tabletas, como Research in Motion (RIM) logró un salto en ventas de 233% y Lenovo un 107% con respecto al pasado trimestre, ayudados por lanzamientos de productos.
Vendedores como Dell, Hewlett-Packard y LG están rediseñando sus tabletas para lanzamientos a mediados de año, utilizando el sistema operativo de Google, Android, o la plataforma Windows 8.

Se rumorea que Samsung pretende comprar Nokia por 15.000 millones de euros.

 Samsung y Nokia se integrarán en un gigante con el 50% del mercado mundial.
La fusión se enfrentaría a muchos problemas con los organismos antimonopolio.
El fabricante de móviles Samsung es la última empresa en poner sobre la mesa una oferta para hacerse con la compañía finlandesa Nokia, por 15.000 millones de euros, según informó China org.
Varios medios de comunicación finlandeses reflejaron el interés de Samsung por comprar Nokia a un precio de 4 euros por acción, lo que supondría una prima importante sobre el valor de la compañía en bolsa.
Lo mejor es que, si el acuerdo se hace realidad, Samsung y Nokia se integrarán en un gigante que acapararía el 50% del mercado mundial.
Sin embargo, el portal China org y recoge que varios expertos califican de muy poco probable la compra de Nokia por Samsung  por el rechazo que suscitaría la fusión en los organismos de control antimonopolio de los países pertinentes.
Desde Samsung han desmentido la oferta, calificándola de rumor a través de Reuters, pero podría significar también un mensaje dirigido a evitar que el precios de las acciones de Nokia suban mientras se concreta el acuerdo.

lunes, 4 de junio de 2012

La memoria Ram, más rápida jamás creada, es una realidad.

 Entra en juego el memristor, un componente electrónico que hasta 2008 era sólo teórico. Un descubrimiento fortuito permitirá su fabricación barata y masiva
Los memristores existen desde 2008. Fue hace cuatro años cuando un grupo de ingenieros de Hewlett-Packard dio entidad física a lo que hasta entonces no había sido más que una elucubración teórica de casi cuatro décadas. Un elemento capaz de evolucionar la electrónica y, con ella, la informática a todos los niveles. Hasta ahora era muy caro de fabricar, pero un grupo de investigadores ha encontrado —de manera fortuita— un método que lo hace viable industrial y económicamente.
«Una de las cosas importantes del descubrimiento es que se puede fabricar con tecnología estandar», explica Blas Garrido, profesor de la Universidad de Barcelona y coautor del artículo que describe la nueva técnica de fabricación de memristores. «También, que puede ser fabricado en masa», apunta. «Si es caro fabricarlo y además incompatible con lo que existe en la actualidad, no tiene ningún futuro comercial». Se refiere al memristor derivado del diseño original de HP, que exige la utilización de materiales exóticos y tecnologías muy distintas a las de la electrónica común.
Los memristores permite fabricar módulos de memoria RAM mucho más rápidos, de mayor capacidad y menor consumo energético. «El area que se necesita para su efecto es muy pequeña, del orden de nanómetros», cuenta Garrido, que lo concreta en torno a diez veces más capacidad en el mismo espacio. En términos de velocidad son incomparables y el líder de la investigación, Anthony Kenyon, ha confirmado a BBC que no son capaces ni de medirla. El consumo sería, según él mismo, en torno a cien veces menor. Tres ventajas que mejoran de un plumazo cada aspecto de la tecnología presente.
Memristor es la contracción entre «memory» (memoria) y «resistor» (resistencia). Es un elemento electrónico que modifica su resistencia al paso de la corriente y mantiene ese estado una vez ésta se apaga. Esta característica le permite almacenar información de manera permanente —o hasta que se decida—. Por su parte, las memorias RAM actuales son volátiles —pierden la información cuando deja de circular corriente— y además exigen un continuo refresco que requiere de circuitería extra. Para colmo, se está muy cerca del límite físico en el que la tecnología actual no podrá avanzar más.
Los investigadores implicados en la nueva técnica formaban parte de la Sociedad Europea de Investigación de Materiales, «en un proyecto que se acabó hace un año», dice Garrido. Aún trabajaban juntos en algunas cosas. Su intención original era fabricar un amplificador integrado óptico. «Queríamos sacar luz de los dispositivos, pero no funcionaron muy bien. Sin embargo resultó que tenían comportamiento electrónico», explica el investigador de la UB. Descubrieron que una película de óxido de silicio —que se forma naturalmente al poner en contacto este elemento y la atmósfera— actuaba como un memristor.
Además de para la memoria RAM, Garrido afirma que también podría ser competitivo contra las actuales tecnologías de memoria flash. «Aunque los USB y las tarjetas de memoria están más avanzados y sería más dificil», explica.

La ciberguerra de Estados Unidos contra Iran.

   ‘Stuxnet’, el virus informático que destruyó casi mil centrifugadoras de uranio iraníes es parte de la estrategia de ciberguerra estadounidense.
 La ciberguerra era casi un cliché de ciencia ficción hasta que se hicieron públicas la existencia y los efectos de ‘Stuxnet’. Un virus que infectó ordenadores iraníes y fue capaz de destruir una quinta parte de las 5.000 centrifugadoras de uranio de la planta de Natanz. Lo necesario para, supuestamente, retrasar el programa armamentístico nuclear del régimen de los ayatolás entre 18 y 24 meses. Un arma digital con efectos palpables en el mundo físico.
Su existencia se desveló hace dos años. Una modificación del virus se descontroló y propagó por ordenadores fuera de Irán e hizo saltar todas las alarmas. Empresas de seguridad informática y expertos coincidieron en que se trataba de la ciberarma más compleja y peligrosa conocida hasta la fecha, y que probablemente sólo un país tenía los recursos para desarrollarla. Los candidatos obvios eran Estados Unidos e Israel, pero ninguno confirmó estar detrás de la creación de 'Stuxnet'.Una investigación de David E. Sanger, publicada recientemente en el «New York Times», desvela que ambos países estaban involucrados bajo la denominada Operación «Olympic Games» —«Juegos Olímpicos»—. Nacida en la era Bush, Obama no solo la mantuvo sino que la impulsó. Incluso cuando 'Stuxnet' se descontroló —y puso en riesgo infraestructuras industriales en todo el mundo—, ordenó mantener el ataque.
Sabotaje preventivo
El supuesto programa militar nuclear de Irán ha sido un foco de conflicto permanente en los últimos años, además de un quebradero de cabeza para la administración Obama. Israel quiere evitar a toda costa la proliferación nuclear en la región y ha presionado a Estados Unidos para que le apoye en un ataque que destruya o inhabilite las instalaciones nucleares iraníes. Una operación que se presupone demasiado compleja para que pueda llevarla a cabo la aviación israelí en solitario. De momento se ha impuesto la postura norteamericana de las sanciones y las negociaciones diplomáticas. Y, aunque de forma encubierta, también del sabotaje.
Una estrategia de sabotajes que pretende evitar el desarrollo de armas nucleares en Irán y su capacidad de influencia en Oriente Medio. Un conflicto velado y del que sólo llegan fogonazos. La muerte de un científico del programa nuclear iraní en un atentado, la captura de una aeronave no tripulada (UAV) espía estadounidense por parte de Irán, o el virus que destruye centrifugadoras de uranio. La última, la existencia de otro virus, aún más elaborado que Stuxnet, y que los expertos en seguridad informática han denominado 'Flame'.
'Stuxnet' reprogramaba los circuitos integrados de las centrifugadoras que purifican uranio para cambiar su velocidad de giro y estropearlas. 'Flame', por su parte, parece dirigido a robar y eliminar documentos importantes del desarrollo nuclear de Irán. La Unión Internacional de las Telecomunicaciones (UIT), de Naciones Unidas, ya alertó del riesgo de esta nueva amenaza, que considera muy grave.
El riesgo de la ciberguerra
El artículo de David E. Sanger también detalla los riesgos que asumen los estadounidenses en este nuevo campo de batalla. «Ningún país tiene unas infraestructuras tan dependientes de los sistemas informaticos —y por lo tanto tan vulnerables a los ataques— como Estados Unidos», afirma.
Además plantea que, aunque Irán es el principal foco de los ataques, estos no se limitan al programa nuclear del régimen de los ayatolás. Siria, Corea del Norte o las distintas células de Al Qaeda también pueden ser blanco de «Olympic Games». La ciberguerra ya es una parte imprescindible del espionaje, las relaciones internacionales y los conflictos entre países. Una realidad sumergida y de la que apenas ahora asoma la punta.

domingo, 3 de junio de 2012

La aspirina contra la metastasis del cáncer.

 La aspirina contra la metastasis del cáncer
Según publica el último número de la revista Cell, investigadores del Centro de Cáncer Peter MacCallum de Melbourne (Australia), han descubierto el mecanismo por el que los fármacos antiinflamatorios no esteroideos como la Aspirina, pueden reducir la propagación de las células cancerígenas por el organismo y evitar las metástasis.
Según parece, estos medicamentos cerrarían las vías químicas que alimentan a los tumores, los cuales suelen secretar proteínas y compuestos, llamados factores de crecimiento, que permiten su desarrollo. Estas sustancias son las que provocan, además, un aumento de los vasos linfáticos, encargados del abastecimiento y transporte de glóbulos blancos al organismo, lo que hace que el cáncer pueda expandirse a otros órganos. El estudio del profesor Steven Stacker y su equipo concluye que los fármacos AINE como la aspirina pueden reducir el ensanchamiento de estos vasos linfáticos, minimizando, así, la capacidad de los tumores de expandirse a otras partes del organismo.
‘Todo apunta a que hay un punto de control clave en estos vasos linfáticos, que involucra a una vía de proteínas que puede inhibirse con medicamentos como la Aspirina’, asegura Steven Stacker que ve en su descubrimiento una nueva vía para tratar el cáncer de mama, próstata o pulmón.

Facebook deja de recomendar Google Chrome y comienza a recomendar Opera.

 Tras los rumores sobre la posible compra de Opera por parte de Facebook, la red social ha realizado un movimiento que podría tratarse de la confirmación no oficial de esta transacción, y es que, en su recomendación de navegadores web, han quitado a Google Chrome, e incorporan Opera.
Más allá de estar perdiendo millones de dólares, fruto de su mal momento en la salida a la bolsa, la red social habría decidido invertir en hacerse con su propio navegador, el cual parece tratarse de Opera, quien particularmente dispone de un éxito tremendamente importante en lo que significa la telefonía móvil, algo importante para Facebook en estos momentos.
Aún así, también existen rumores de que Facebook podría estar en vías de desarrollo de su propio navegador, habiendo contratado a ex-empleados de Opera, quienes ya estarían diseñando el web browser de Facebook que contaría con menú, barra de navegación y plugins orientados específicamente para la red social.
Esto podría deberse a que Google le ha hecho frente en el sector de las redes sociales, esta compañía además cuenta con un navegador web, hablamos de Chrome, algo que ayuda a Google a potenciar su red social, posiblemente desde Facebook quieran hacer lo mismo y así potenciar y mejorar la experiencia de los 1.000 millones de usuarios de la red social.

El Bruxismo o morderse las uñas son conductas que pueden beneficiar al cerebro.

 Rechinar los dientes sería un mecanismo de descarga para aliviar las consecuencias del estrés y la ansiedad.
Con estos hábitos se libera dopamina.
La dopamina está involucrada en las emociones en situaciones de ansiedad.
Hay vicios y rutinas, conductas orales repetitivas, que tienen mala prensa. El bruxismo (el rechinar de dientes) o morderse las uñas son conductas que los padres censuran en sus hijos. Y sin embargo, tienen su lado positivo; son conductas que benefician al cerebro.
Según se desprende de una investigación de la Universidad del País Vasco, conductas orales repetitivas como el bruxismo, masticar chicle o morderse las uñas, que se realizan de forma automática o inconsciente en situaciones de elevada tensión emocional benefician al cerebro.
En todo cado, el bruxismo es un hábito oral muy nocivo.
El estudio, dirigido por el doctor Francisco Gómez, presenta datos experimentales en roedores que avalan la hipótesis descrita de que el hábito bruxista podría ser, un mecanismo de descarga que desarrollan inconscientemente las personas para así "aliviar", en parte, las consecuencias de la ansiedad o el estrés sobre el propio organismo.
Así, se confirma que existe una asociación significativa entre la liberación de dopamina en el cerebro frontal con la conducta de tipo bruxista. En una situación de estrés se activan numerosas áreas del cerebro, que libera múltiples neurotransmisores, entre ellos, la dopamina, que está involucrada en la regulación de las emociones ante situaciones de angustia y ansiedad, además de estar muy implicada en la aparición de aquellas.
No obstante, los investigadores recuerdan en el caso del bruxismo que se trata de un hábito oral muy nocivo para el aparato masticatorio (desgaste excesivo de dientes, enfermedad periodontal, mialgias masticatorias y problemas en la articulación de la mandíbula), que afecta hasta a un 20% de la población.

sábado, 2 de junio de 2012

¿Sabes cual es, el salario mínimo en los paises de europa?.

 De los 1.800 euros mensuales de Luxemburgo a los 138 de Bulgaria, las desigualdades en el continente son enormes
Diferencias en el fijo del salario mínimo en la Unión Europea
La delicada situación que atraviesa la economía del país es un tema que no está pasando desapercibido en la blogosfera. Por eso, en nuestro recorrido diario por la red, hoy destacamos una entrada del blog «Principia marsupia» que nos desvela los salarios mínimos vigentes en cada uno de los distintos países europeos durante el primer trimestre de 2012.
Esta lista está encabezada por Luxemburgo, país que solo tiene una tasa de desempleo del 5 % y, sin embargo, ofrece a sus trabajadores a jornada completa un sueldo no inferior a 1.801 euros al mes, según datos de Eurostat.
Le siguen en la clasificación Irlanda, con 1.462 euros y Holanda, con 1.447, mientras que Bélgica y Francia, con unos salarios mínimos de 1.444 y 1.398 euros al mes, ocupan la cuarta y quinta posición, respectivamente.
Para encontrar los 748 euros mensuales del salario mínimo interprofesional anualizado de España, no queda más remedio que descender hasta el undécimo puesto de esta lista que cierra Bulgaria con tan solo 138 euros al mes.
Incluso Grecia supera a España en la clasificación, ya que en el país heleno los sueldos no pueden ser inferiores a 877 euros. Sin embargo, las condiciones del segundo tramo del rescate de su economía obligarán al Gobierno de Atenas a bajar este salario mínimo a 588 euros para los trabajadores mayores de 25 años y a 510 para los más jóvenes, situación que podría repetirse en España si finalmente el país también fuese intervenido.
Alemania, por su parte, no posee un salario mínimo para todo el estado, sino que el sueldo mínimo legal se fija en función del sector productivo y la región.
Tal y como indica el autor de este blog, se trata de una información que puede resultar útil para aquellos que están considerando emigrar en busca de un futuro mejor.