Ejecutivos de Google podrían ir a la cárcel

>> jueves, 5 de febrero de 2009

En lo que podría ser un movimiento sin precedentes en la historia de Internet, el gigante de Mountain View enfrenta inconvenientes legales a través de cuatro ejecutivos que fueron detenidos apenas días atrás con cargos de "difamación y violación de la privacidad", en relación con un vídeo publicado en el (próximo a desaparecer) servicio de subida de vídeos de Google Video, en septiembre del año 2006. Si el enfrentamiento legal termina con resultado negativo para los detenidos, podrían enfrentar una pena máxima de 36 meses de prisión.

La razón de la acusación parte de un vídeo de tres minutos en el que se podía ver a tres estudiantes maltratando a un muchacho de 17 años con síndrome de Down. El vídeo en cuestión estuvo disponible para verse en el sitio durante casi dos meses, siendo retirado dentro de las 24 horas en las que Google recibió dos quejas, una de ellas proveniente de nada menos que del ministro del interior italiano. Si bien respondió de forma casi inmediata a las quejas, esto deja en claro que Google no revisó los contenidos publicados en su servicio. Tanto la ley americana como la europea indican que Google no está obligado a hacer dicha revisión, e incluso cuenta con cierta protección frente a demandas, siempre y cuando responda a las quejas en tiempo y forma.

Hasta aquí parece ser que Google cumplió con sus obligaciones legales, pero no es tan así para el fiscal italiano que lleva el caso, acusando a Google no como proveedor de servicios de Internet sino como "proveedor de contenidos" a través de la red. Bajo el código penal italiano, los proveedores de servicios no son responsables por el contenido publicado por terceros, pero los proveedores de contenidos sí lo son. Esto puede parecer un tecnicismo, pero lo cierto es que fue suficiente como para que los cuatro ejecutivos de Google fueran detenidos por la fuerza pública.

Es casi seguro decir que el tema de la privacidad será un eje central en el juicio. Google ha hecho una declaración muy interesante, en la que expresa que el caso está "mal direccionado", y equivale a hacerle juicio a una empresa de correos porque una persona recibe cartas de odio. Google se define como neutral en casos como este, y considera que el querer enjuiciar a sus ejecutivos implica un ataque directo a la Internet libre y abierta que tenemos hoy en día. Si en el juicio se llegara a la conclusión de que Google debió impedir la publicación del vídeo en cuestión, esto podría reescribir todo lo que conocemos tanto de privacidad como de derechos de autor.



Enlace: Clic aquí

Read more...

Windows 7


Finalmente la información salió a la luz, y después de tanta espera, Microsoft decide repetir la fórmula que aplicó en Windows Vista. Así es, Windows 7 tendrá seis versiones, apuntando a diferentes sectores del mercado. Ha habido algún cambio aquí y allá, pero en esencia, las formas de distribución de Windows 7 serán idénticas a las de Vista. Si Microsoft planeaba alejar a Windows 7 de la mala reputación que ha tenido Vista, queda claro que esta no es la forma de hacerlo...

¿Cuáles serán las seis versiones? Bueno, estamos seguros que debes conocer a la mayoría. La lista comienza con la edición Starter. Considerada como inútil tanto en Vista como en XP, la versión Starter de Windows 7 tendrá exactamente las mismas limitaciones que las versiones Starter anteriores: Sólo tres programas a la vez, nada de Aero, y se calcula que habrá limitaciones en la resolución de pantalla y la memoria detectada. Esto hace que las netbooks se vuelvan un blanco perfecto para Starter, saliendo a la venta con este sistema instalado. Starter no se podrá comprar, sólo estará disponible para los OEMs.

Luego seguimos con Home Basic, versión orientada a mercados emergentes. La única diferencia que tendrá con la versión Starter es que no tendrá la limtación de los programas y la resolución, pero compartirá con ella la ausencia de Aero. Se espera que la versión Home Premium sea el caballo de batalla de Windows 7, ya que será una de las versiones que estará directamente disponible para el público. Quienes usen Home Premium podrán contar con Aero, Windows Touch, Media Center, y otros agregados. El cambio más notable en las versiones de Windows 7 está en la versión Professional, reemplazando a la versión Business de Vista, pero en cuanto a sus funciones, será similar a lo que veamos en la versión Home Premium, salvo por algunas cosas. Escritorio Remoto, EFS, Centro de Mobilidad y Carpetas Offline están entre sus agregados más destacados.

Al igual que en Vista, Windows 7 contará con versiones exclusivas al público


Las últimas dos versiones son Enterprise y Ultimate. Describir a la versión Ultimate es fácil: Viene con todo. Lo mismo sucede con la versión Enterprise, pero hay un detalle: Sólo podrá conseguirse a través de licencias por volumen. Por el contrario, se dice que las unidades Ultimate tendrán una disponibilidad limitada, en comparación con lo que fueron las versiones Ultimate de Vista.

Todavía no hay ninguna novedad en cuanto a precios, pero no podemos evitar fruncir un poco el ceño. ¿Seis versiones otra vez? Más allá de la lógica que indica que un usuario no debería verse forzado a pagar por un sistema que posee funciones que no necesitará, esto se vuelve un poco contradictorio cuando tenemos que pagar la licencia de Windows de forma obligatoria al comprar un ordenador, y en la mayoría de los casos no podemos escoger comprar el ordenador sin sistema operativo. Al menos, esperamos que los precios de Windows 7 sean razonables.

Read more...

Sequoia

Se llama Sequoia y no es un árbol californiano que alcance tamaños descomunales. IBM tiene el proyecto de construir un sistema con un poder tan grande, que el término “supercomputadora” o “superordenador” pasará a formar parte de los libros de historia (además de quedarse estúpidamente corto) Tendrá una capacidad de procesamiento de 20 petaflops, ya se habla de un “hiperordenador”

Su nombre es Sequoia y se espera que alcance un estado completamente operacional entre 2011 y 2012. ¿Qué quién será el afortunadote en posar sus manos sobre semejante sistema bestial? Desgraciadamente ninguno de nosotros (sólo pienso cómo correrían mis juegos de Star Wars ahí) El Departamento de Energía de los Estados Unidos es el ganador. Para construir una computadora u ordenador de esta talla es necesario construir uno de menores capacidades (siento vergüenza al usar la palabra “menores” de sólo considerar su poder de procesamiento) para evaluar el diseño de Sequoia. Este hermano pequeño, que se llama Dawn tendrá una capacidad máxima de 500 terflops.

20 petaflops no sólo lo hace el más rápido del mundo. Me refiero a que todo el poder de procesamiento que pueden generar las 500 supercomputadoras existentes actualmente, estarán ahora dentro de un solo sistema. “Roadrunner”, creado también en tiempos poco pasados por IBM, se quedará unas veinte veces más lento que Sequoia. Las especificaciones técnicas son de miedo. Se estima que Sequoia tendrá más o menos 1.6 millones de núcleos de procesamiento (y nosotros los mortales analizando y discutiendo si es mejor tener más de cuatro), todos los chips de IBM y Linux corriendo (¿Qué, esperaban Windows 7?)

Cálculos preliminares indican que la computadora ocupará unos tres mil pies cuadrados (casi 278 metros cuadrados), dividida en 96 racks del tamaño de un refrigerador promedio. Además, su consumo de energía rondaría en los seis megawatts. Ahora, ¿Para qué se va a utilizar este ordenador? Para simular explosiones nucleares, pero podría ser utilizado para muchísimas cosas más, como predicción del clima o exploración petrolera.

Ahora, también da un poco de miedo. Por un lado, con semejante poder de procesamiento se podría quebrar cualquier clase de cifrado existente. Y por el otro, deberemos dar las gracias todos los días para que esa cosa no tome conciencia de sí misma. Si lo hace, lo que vimos en Terminator o Matrix se que quedará corto.

Read more...

Nueva estación espacial Rusa


A pesar de que ya participa en la Estación Espacial Internacional (EEI), la agencia espacial rusa Roscosmos anunció su intención de crear un nuevo proyecto. Es que la vida útil de la EEI se acaba, y los científicos rusos necesitan una plataforma para sus experimentos y como base para futuros vuelos espaciales.

Pocos saben que la vida útil de la EEI se acaba. Efectivamente, la Estación Espacial Internacional (EEI) nació con una “fecha de vencimiento” prefijada, y el límite es el año 2015. Si no se planifica un nuevo proyecto con el tiempo suficiente, en poco más de cinco años nos quedaríamos (digo “nos” porque se supone que se hacen experimentos en nombre del bien de la humanidad) sin una plataforma espacial en la que llevar a cabo experimentos de larga duración. La comunidad científica ve esto con preocupación, pero hasta ahora han sido solo los rusos los que tomaron el toro por las astas.

En realidad, en Rusia hay dos proyectos dando vueltas. En primer lugar, está la agencia espacial rusa que Roscosmos ha anunciado. La agencia insistirá a Moscú para que acepte su propuesta y comience la construcción de la estación en la órbita baja de la Tierra. Por otro lado, los voceros de la agencia espacial también tienen deseos de extender la vida operativa de la actual EEI como mínimo hasta el 2020. En realidad, lo más saludable sería llevar a cabo ambos planes: la extensión del plazo de la EEI daría tiempo a poner en marcha la nueva estación espacial, algo que, como es de esperarse, no se hace de un día para el otro.


Los rusos tienen especial interés en este tema, ya que su programa para volver a la Luna está en plena marcha, y una base operativa en órbita le vendría de perillas. Además, Rusia siempre ha expresado su deseo de enviar misiones a Marte, y para ello necesita tener a su disposición una base fija donde efectuar experimentos y entrenar astronautas.

Los científicos rusos, al igual que los de otros países, saben que es bastante difícil hablar del éxito de la EEI. A solo 6 años de su retiro, recién se ha construido el 76% de la estructura proyectada originalmente y, aunque se prevé que esté completa para el 2012, son muy pocos los que creen que ese plazo se cumpla. De hecho, hay cinco años de atraso respecto de los tiempos originales, y la guerra de Irak primero y la recesión mundial después, poco han ayudado a la hora de conseguir dinero fresco para avanzar en la construcción. Aunque se termine en 2012, solo se dispondrían de 3 años para hacer uso de las instalaciones completas antes que se convierta en el meteorito artificial más caro de la historia (como ocurrió con Mir en 2001). Esto explica el gran interés de Roscosmos en “estirar” su vida útil hasta el 2020.


Los planes de Roscosmos no tienen (aparentemente) secretos: “Pronto propondremos a nuestro gobierno un proyecto para construir un complejo en la órbita baja, el cual podría servir como base para la implementación del programa lunar y, posteriormente, el programa de Marte”, ha declarado el director de los programas de vuelos tripulados de la agencia, Alexei Krasnov, en el marco de una conferencia de prensa que se desarrolló en Moscú hace una semana. “Estas son nuestras intenciones, pero tendremos que luchar mucho para conseguir el apoyo financiero y legislativo adecuado por parte del gobierno para llevar a cabo nuestros planes”.

Si los 15 países que forman parte del proyecto EEI colaboran, es bastante probable que la estación espacial flote sobre nuestras cabezas en 5 años más. Quizás un par de manos de pintura y unos tornillos nuevos permitan ganar el tiempo que necesita Roscosmos para juntar los fondos y proyectar su nuevo juguete espacial. Mientras tanto, el reloj sigue avanzando.

Chécalo en: universe today

Read more...

Flujo oscuro



El universo, tan vasto para la mayoría de nosotros, tan pequeño para los cosmólogos. Observando a enormes distancias de la Tierra han encontrado una “ventana” que podría mostrarnos que existe algo más allá de los 45.000 millones de años luz, el “borde final” observable de esta burbuja cósmica que nos aloja. ¿Constituye esto una evidencia de la existencia de otros universos?


No importa cuán potente, grande o alto esté situado tu telescopio: nunca podrás ver nada que esté más allá de los 45.000 millones de años-luz de distancia. Simplemente, la luz emitida o reflejada por los objetos a mayor distancia no ha tenido tiempo suficiente para llegar hasta nosotros, aunque hubiese partido en el momento mismo en que se formó el universo. A pesar del tamaño gigantesco de esta especie de burbuja espacio-temporal en la que nos encontramos confinados, en la que se encuentran bestias cósmicas para casi todos los gustos (agujeros negros, cuásares, galaxias y pulsares incluidos), los astrónomos viven preguntándose qué hay más allá y no terminan de resignarse al hecho de no saberlo.

Desde hace algún tiempo algunos de los astrofísicos más imaginativos especulan con la existencia de alguna clase de “grieta” en esta burbuja, que nos permita otear un poco más del borde del universo. A pesar de lo extraña de esta idea, parece que están de suerte, ya que Sasha Kashlinsky, una científica de alto nivel del Centro de Vuelos Espaciales Goddard en Greenbelt, Maryland, de la NASA, cree que ha tropezado, casi sin querer, con esa ventana cósmica.

En realidad, Kashlinsky ha estado estudiando durante bastante tiempo la forma en que se mueven algunos cúmulos de galaxias en el marco de nuestro universo en expansión. Junto a unos colegas ha cronometrado la marcha de los cúmulos galácticos que se desplazan a velocidades de hasta 1.000 kilómetros por segundo, velocidad mucho más alta que lo permite nuestros conocimientos de la cosmología. Pero lo más extraño de todo es que estos cúmulos galácticos parecen dirigirse “a todo gas” hacia un pequeño sector del cielo, ubicado entre las constelaciones de Centauro y Vela.

Esta observación podría ser la primera pista de lo que hay más allá del horizonte cósmico. Gracias a esto, podríamos ser capaces de averiguar cómo se veía el universo inmediatamente después del Big Bang, o incluso si nuestro universo es solo uno más dentro de un grupo más grande. Algunos astrónomos no están demasiado seguros de esto, y repiten a quien se anime a preguntarles que todo esto no tiene nada que ver con universos paralelos, sino que es el resultado de un error en la teoría que asegura que el universo debe verse igual en todas direcciones.

Independientemente de lo que opinen, todos los colegas de Sasha están atentos a los acontecimientos. "Este descubrimiento se agrega a nuestra lista de enigmas cosmológicos", asegura Laura Mersini-Houghton, de la University of North Carolina. La lista que menciona Laura incluye el 95% del contenido del universo más la materia oscura invisible que parece hacer las veces de “pegamento” al mantener juntas a las galaxias. La misteriosa energía oscura que al parecer está acelerando la expansión del universo también se encuentra en el “Top 10” de enigmas mencionados por Mersini-Houghton. Para no ser menos que sus colegas, Kashlinsky ha bautizado a este nuevo enigma con el nombre de “flujo oscuro".

A medir se ha dicho
Kashlinsky, que se ha convertido en una especie de agrimensor universal, se dedica a medir con la mayor precisión posible la velocidad a la que viajan los cúmulos galácticos situados a unos 5.000 millones de años-luz del Sistema Solar. Entre los datos obtenidos busca indicios de su movimiento respecto del fondo de radiaciones de microondas cósmico (que en inglés se denomina Cosmic Microwave Background, o CMB), la radiación que nos legó el Big Bang. En general, los fotones del CMB se desplazan de forma continua por el espacio interestelar, pero cuando pasan a través de un cúmulo galáctico “tropiezan” con el gas ionizado que existe en los espacios intergalácticos. Los fotones, dispersos por este gas, se muestran como una diminuta variación en la “temperatura” del CMB, evidenciando que el cúmulo se está moviendo. Esto se puede medir mediante desplazamiento Doppler asociado.

En cualquier cúmulo individual este es un cambio demasiado pequeño para ser mesurado, y esta es la razón por la que nunca antes nadie se molestó en buscarlo. Sin embargo, Kashlinsky notó que si combinaba las mediciones de una cantidad suficientemente grande de cúmulos galácticos, la variación sería amplificada y mensurable. Junto a su equipo, el astrónomo recogió datos de casi 800 cúmulos, usando telescopios de rayos-X. Después, miraron el CMB en esas posiciones, usando las imágenes captadas por el satélite WMAP de la NASA. Lo que encontraron los asombró.

Puede esperarse que los cúmulos galácticos deriven al azar por su región del espacio, porque la materia está distribuida en grupos irregulares, creando campos gravitatorios locales los atraen. Pero se supone que a gran escala la materia está difundida de una forma más o menos uniforme, de modo que los cúmulos deberían desplazarse junto con el espacio a medida que este se expande. Además, el modelo estándar de la cosmología sugiere que el universo debería verse casi igual en todas direcciones. Pero los datos muestran otra cosa.

¡¡¡¡¡¡¡¡¡¡ESTO ES UNA FLASFEMIA!!!!!!!!!!!!!
Todos saben que el mundo es plano y circular y está sobre 4 elefantes gigantes que están sobre un gran tortuga que viaja por el cosmos muy panchamente y que viene de pasado y va hacia el futuro...

estos tipo de la NASA no tiene ni idea.

Read more...

Isla tropical desaparece

>> miércoles, 4 de febrero de 2009

Otra isla tropical desaparece gracias al calentamiento global

Los efectos del calentamiento global están comenzando a hacerse visibles. La isla de Lohachara, cercana a la India, ha desaparecido.

No se trata del primer caso en que una isla desaparece debajo de las aguas debido al calentamiento global. Este efecto, que hace subir el nivel de los mares debido a la fusión de los hielos continentales y polares, ya ha hecho desaparecer más de un islote. Pero el caso de Lohachara es muy especial, ya que hasta hace unos meses estaba habitada. Sus casi 10.000 pobladores han sido evacuados, y se han transformado en envirogees (environmental refugees, refugiados medioambientales).

Lo que para muchos no es más que una noticia en un diario, se transforma en un drama real para otros. Los habitantes de esta isla ubicada en las cercanías de la desembocadura de los ríos Ganges y Brahmaputra en la bahía de Bengala lo han perdido todo. Para ellos, las más apocalípticas predicciones de los ambientalistas y científicos se han transformado en realidad.

Si crees que es la última isla que va a desaparecer, te equivocas. Otro archipiélago famoso, el paraíso fiscal de Vanuatu, en la Melanesia, ya ha visto la evacuación forzosa de todos los habitantes de las más bajas de sus islas. Este lugar se hizo popular cuando se radicaron empresas como WinMX o KaZaA.

El atolón de Kiribati hace tiempo que está bajo el agua, pero afortunadamente estaba deshabitado. Las proyecciones son tremendas, ya que hay infinidad de islas pequeñas cuya altura máxima sobre el nivel del mar no supera la decena de metros. Sólo en la zona de la Bahía de Bengala se calcula que unas 70.000 personas se convertirán en refugiados medioambientales en los próximos años.

Read more...

Ordena tu escritorio

¿Desorden en el escritorio? Solución: Desktop Restore

Sobre todo si tienes la mala suerte de compartir el ordenador, coincidirás en lo molesto que es encontrar todo diferente. Desktop Restore no evitará que borren tus archivos ni quitará a los curiosos de tus carpetas privadas, pero al menos te evitará el disgusto si a algún integrante de la casa se le dio por cambiar tu magnífico fondo de escritorio de la Guerra de las Galaxias por el de Barbie en el Cascanueces.

Desktop Restore es una aplicación de unos 250 KB que graba de forma permanente el diseño y la distribución de los íconos en tu escritorio. Una vez instalado, al abrir el menú contextual desde el escritorio, verás tres nuevas opciones: Save Desktop, Restore Desktop y Custom Save/Restore.

El uso de estas opciones no guarda muchos misterios. Cuando quieras guardar la versión definitiva de tu escritorio (esto incluye fondo de pantalla, íconos y distribución de los mismos), das click para abrir el menú contextual y seleccionas Save. Si alguien ya ha metido la mano en el aspecto de tu escritorio, podrás devolver el aspecto original desde Restore Desktop. Desde Custom Save/Restore podrás almacenar varias versiones de tu escritorio, borrarlas o renombrarlas. Nada de complicaciones para una utilidad que podrá ahorrarnos muchas incomodidades. Desktop Restore es gratuito y está disponible para las versiones de Windows 2000 en adelante.

Pruébalo: Desktop Restore


Read more...

MIT: Calentamiento Global

MIT: ¿El calentamiento global es un proceso natural?


Los científicos del MIT han registrado, en todo el mundo y de forma simultánea, un aumento en los niveles de metano. Este es el primer cambio significativo en diez años, y contradice muchas de las teorías que señalan al hombre como la principal fuente de gases de efecto invernadero. Por supuesto, debemos ser sumamente cuidosos al analizar estos resultados, pero ¿el calentamiento global podría ser parte de un ciclo natural en el que el hombre no tiene nada que ver?

Durante años hemos despotricado contra las emisiones de gases de efecto invernadero. Concretamente, se ha ligado al dióxido de carbono emitido al quemar combustibles fósiles (como el petróleo o el carbón) como el responsable máximo del aumento de temperatura de la Tierra. Aumento que, de continuar, derretirá millones de toneladas de hielos perpetuos, sumergiendo más de una ciudad en el proceso. La mayoría de los científicos, y a pesar de las protestas de algunos supuestos trastornados que decían que en este aumento de temperatura del planeta nada tenia que ver el hombre, coinciden en que se debe poner fin inmediatamente a estas emisiones si no queremos terminar viviendo en un planeta mellizo de Venus.


Pero ahora, una institución sumamente respetada como es el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés: Massachusetts Institute of Technology), una de las principales instituciones dedicadas a la docencia y a la investigación de los Estados Unidos, sobre todo en temas científicos y de ingeniería, ha descubierto la existencia de un aumento en los niveles de metano, producido en forma simultánea en todo el mundo. Este gas, que también produce el indeseado “efecto invernadero”, no es producido en cantidades significativas por la actividad humana, por lo que al menos de forma indirecta, podría dar la razón a los trastornados que mencionábamos antes.


Se sabe que los gases generados por las industrias del hemisferio norte demoran aproximadamente un año completo para desplazarse a través del mundo y llegar al hemisferio sur. Sin embargo, los niveles de metano aumentaron de forma simultánea en todo el mundo, por lo que se cree que dicho incremento puede ser parte de un ciclo natural y no el resultado directo de las contribuciones del hombre.

Estos datos se publicaron recientemente en la Geophysical Review Letters, en un artículo firmado por Matthew Rigby y Ronald Prinn. Ambos científicos pertenecen a la cátedra de Atmospheric Chemistry en el Department of Earth, Atmospheric and Planetary Science, del MIT.


Los autores han detectado un aumento de varios millones de toneladas de metano en la atmósfera. El metano representa aproximadamente una quinta parte de los gases de efecto invernadero presentes en la atmósfera, y su efecto es unas 25 veces superior al del dióxido de carbono. Su impacto sobre el calentamiento global se debe a la reflexión de la luz solar de vuelta a la Tierra (como ocurre en un invernadero).

Por supuesto, y aunque pueda parecer innecesario, hay que aclarar que este aumento en la cantidad de metano no alcanza para explicar la totalidad (ni mucho menos) de todo el incremento global de temperaturas. Aún debemos seguir buscando alternativas a la quema del petróleo, incluso dejando nuestros cuerpos en ello.


Enlace: tgdaily.com


Read more...

Font de tu propia letra

Hace mucho que, la mayoría de nosotros, no enviamos una carta o un telegrama. Se ha cambiado casi todo eso por la computadora. Para aquellos que añoren escribir una carta o algo por el estilo tenemos YourFonts, software que te ayudará a crear una fuente idéntica a tu letra para que, cuando escribas en tu computadora, sientas he lo has hecho a la “antigüita”. Lo mejor es que sólo necesitas papel (escribir en papel, que curioso) un plumón o marcador y un escáner. En Internet puedes encontrar infinidad de fuentes para tus textos, diseños o sólo modificar el aspecto de tu sistema operativo. Si deseas hacer más original o personal tus proyectos, YourFonts te ayuda a hacer tus tipografías sin que tengas que leer y estudiar confusos y difíciles libros de software de dibujo y programación.

Primero que nada deberás ingresar en el sitio web de YourFonts y descargar e imprimir la plantilla sobre la cual dibujarás los caracteres de tu fuente. La plantilla no es más que una hoja cuadriculada, en la que debes dibujar a mano (si, a mano) las letras y números uno a uno, con algunos requisitos (los clásicos de la escuelita) para que el resultado sea satisfactorio: caracteres proporcionados sin manchones, mismo grosor en el trazo, no salirse del recuadro, y demás. En fin, hay que poner el mismo esmero en todos los números, letras y símbolos.



Cuando has completado todos los integrantes de tu mapa de caracteres, lo que sigue es escanear la plantilla para reconocerlo. Las condiciones de escaneo (como las de escritura mencionadas más arriba) deben ser óptimas, ¡ YourFonts no hace milagros si tu hoja está arrugada y dada al catre! Lo mejor es asegurarse de que el escáner esté limpio y tu plantilla, presentable. Entonces los pasos anteriores serán una anécdota casi olvidable y podrás cargar la fuente definitivamente, ingresando los datos correspondientes en el formulario.



Para terminar quedan la previsualización de tu fuente y la posterior descarga, directamente desde YourFonts. La instalación de las fuentes es igual que como lo has hecho siempre hasta ahora, con la opción Instalar fuente para algunos sistemas operativos, y la eterna maldición de ir a por el directorio conveniente y hacerlo al modo “old school” en otros. De todos modos, esto es lo de menos cuando crear una fuente a partir de tu letra ha sido tan sencillo. Por supuesto que YourFonts es gratuito, y en contra solo puede decirse que, por ese mismo motivo, se encuentra sobrecargado de procesos en algunos momentos del día, aunque nada que un poco de paciencia no pueda solucionar. ¡Que lo disfruten!

Read more...

Detector de... ¿Venas?

Sony Morfiria, adiós a las huellas digitales. Hola a las venas,

Mofiria es la nueva tecnología de autenticación de personas mediante una lectura de la disposición de las venas de sus dedos, que la empresa podría Sony incorporar a los dispositivos móviles el próximo año. Está basado en una cámara que utiliza un sensor CMOS, y puede identificar a una persona en no más de 0.015 segundos.



¿Huellas dactilares? ¿Exploraciones retinales? Olvídalo. La manera más “top” de identificar a una persona es la lectura de la forma en que se ramifican las venas de sus dedos. O al menos, eso cree Sony, que acaba de anunciar un sistema denominado Morfiria que promete hacer nuestros gadgets prácticamente inviolables.

Preservar con seguridad la integridad de los datos que guardamos en nuestros teléfonos móviles (cada ves mas parecidos a una computadora) o en nuestras computadoras requiere de la memorización de contraseñas mas o menos complejas, que sean capaces de resistir un ataque por fuerza bruta. Esto es particularmente problemático cuando el dispositivo en cuestión está conectado a Internet. Si el sistema de Sony tiene éxito, el recordar contraseñas será algo del pasado: bastará con que llevemos nuestros dedos con nosotros.

Según los analistas de Sony, la tecnología de autenticación basada en la disposición y ramificación de las venas de un dedo del usuario no solo es mucho más fiable que cualquier otro sistema de seguridad biofísico, sino que pueden efectuarse lecturas más rápidas. Tal como ocurre con los pliegues de la piel que dan lugar a las huellas digitales o los patrones estampados en nuestras retinas, las venas difieren de una persona a otra y su disposición no cambia con los años. Esto le permitirá a quienes implementen Morfiria realizar transacciones comerciales con total seguridad desde una notebook con conexión wifi o incluso desde teléfonos móviles, ya que el sistema es lo suficientemente pequeño como para ser admitido “a bordo” de uno de estos cacharritos.

Parece que diferenciación entre las venas de una y otra persona es lo suficientemente grande como para que Morfiria tenga un índice de falsos rechazos menor al 0.1 por ciento. Además, es muy fácil de leer, gracias a la utilización de una luz infrarroja potente y un sensor CMOS similar al que incorporan las cámaras digitales. Según Sony, Morfiria puede identificar a una persona en solo 0,015 segundos cuando corre en un ordenador, y en un cuarto de segundo si se ejecuta sobre un teléfono móvil. Realmente, es bastante más rápido que introducir una larga contraseña.

Un detalle muy importante es que no es necesario tener el dedo colocado siempre de la misma forma frente al sensor, tal como ocurre con los sistemas actuales de identificación por huellas digitales. En Morfiria, el software es lo suficientemente inteligente como para “rotar” el “mapa” obtenido de la imagen y ver si encaja con los datos que están almacenados en el perfil del usuario.

Sony no ha sido la primera compañía en intentar diferenciarnos gracias a nuestras venas. Hace algunos meses Fujitsu lanzó un ratón que hace lo mismo que Morfiria, pero leyendo las venas de la palma de la mano.

Enlaces: Crítica Digital

Read more...

Nos invaden medusas inmortales

¡Extra! Nos invaden medusas inmortales

No, no es el título de un periódico alarmista ni mucho menos el nombre de una película de ficción. Las medusas poseen una característica impresionante: No estoy diciendo que si se la come algún animal o las pisoteamos se vayan a quedar tranquilas como si nada, pero el envejecimiento no les afecta así que su número aumenta mientras te bañas, mientras trabajas y mientras lees esto.

La Turritopsis Nutricula (suena a enfermedad venérea, de esas que mueres entre vómitos salvajes y diarreas furibundas)es capaz de revertir el efecto del envejecimiento al regresar a su juventud al alcanzar su madurez (confuso ¿Cierto?). De algún modo que la ciencia no ha podido explicar, llega a la madurez y en vez de hacerse vieja, pintarse las canas, toser esputos frecuentemente, cansarse muy rápido y leerle cuantos a sus nietos, lo que hace es rejuvenecer y volver al estado de pólipo (animal invertebrado del filo de los cnidarios) Con el tiempo avanza (de nuevo) a la edad adulta, se aburre y regresa a su edad juvenil. Así una, dos, tres veces el ciclo, según científicos esto es potencialmente infinito. Esto lo loga gracias a que ha dominado el proceso de TRANSDIFERENCIACIÓN, o sea, que es capas de hacer que sus células ya diferenciadas vuelvan a la época anterior donde aún no estaban especializadas. Así regenera tejidos y partes del cuerpo, como pasa con las estrellas del mar, que si pierden una para al tiempo les nace otra.


La mayoría de las medusas con comestibles, entonces ¿Por qué no comenzar la explotación de estos no muy agradables a la vista especimenes y dejar, por un tiempo, en paz a otras especies marinas? También se aprovecha su veneno para tratamientos contra el cáncer.

Si se sigue multiplicando a este ritmo, muy pronto no seremos capaces de meternos a nadar a las playas sin ser afectados por estos inmortales amigos.


Vínculo : Telegraph

Read more...

100 Gigas por segundo



Una compañía Estadounidense promete una línea de Internet basada en fibra óptica con la increíble velocidad de 100 gigas por segundo, 10 veces más veloz que la actual. Pero lo mejor viene cuando aseguran que estará operativa para el año 2011 en EUA y toda Europa. Ahora sólo nos queda rezar por que llegue a México y otros países de Sudamérica (Bendita sea la Santa Fibra Óptica de la velocísima luz. Amén.)

El delirio llega desde una empresa llamada Ciena, especializada en soluciones de transporte de datos y redes ethernet. Esta enviada del paraíso nos trae entre sus alas la promesa cierta de una velocidad realmente monumental. Nada más y nada menos que 100 GB por segundo (Lo sé, lean de nuevo. Yo tampoco lo creía). Se lo deletreo si quieren. Cien hermosos y salvajes GB por segundo. Y además, se erigen como la primera empresa que ha conseguido transmitir datos a semejante velocidad con una seguridad total y sin fallos o pérdidas de información de ningún tipo. Según el director, aparte de la ventaja que supone transmitir cantidades tan grandes de información a tanta velocidad y con absoluta seguridad gracias a la aplicación de esta tecnología, se calcula que cada byte por segundo costará un 30% menos que en la actualidad. De acuerdo a sus estimaciones, en los últimos años se ha producido un progresivo incremento del tráfico de datos en la red, aproximadamente el 20% cada año, y la previsión es que la tendencia se mantenga o incluso se acentúe. O sea, no sólo ofrecen una velocidad de transmisión de datos afrodisíaca, sino que encima prometen que será más barata.

Las posibilidades de esta nueva tecnología de transmisión de datos, cuya implantación en el mercado se prevé para mediados de 2011, son enormes, según sus responsables, ya que permite, por ejemplo, la transmisión, en sólo 12 horas, de un volumen de datos equivalente a 125.000 DVD, a 500.000 páginas de texto o toda la Biblioteca del Congreso de Estados Unidos. En la actualidad son varias las empresas que trabajan con este nuevo tipo de tecnologías, con vistas a multiplicar con creces las actuales capacidades de transmisión de datos en Internet, ya que, según los expertos, se están saturando las redes debido al vertiginoso aumento de descargas (música, vídeos, etc), debido a la proliferación de las redes sociales y del intercambio de datos entre cibernautas. El motor de todos estos intercambios masivos no son otros que los P2P, tan denigrados por las autoridades de los países y sin embargo, responsables del espectacular aumento de la velocidad de Internet. Ya casi se puede medir el avance de una sociedad observando la velocidad medía de las líneas de sus abonados. Se ha instaurado tan profundamente la cultura de Internet que su capacidad de transmisión de datos representa el motor que empuja el crecimiento tecnológico. Lo que más me gusta de esta noticia es la inminencia y el realismo de esta tecnología. No estamos hablando de complicados e irrealizables proyectos futuros que nunca ven la luz debido a su intrincado desarrollo.

Fuente: Aquí

Read more...

Street Fighter IV

>> martes, 3 de febrero de 2009

La clásica historia de aquellos que pelean en las calles está de vuelta. Estoy seguro de que no es necesario profundizar mucho en esto, pero sólo para aclarar un poco, explico algo de lo que se le ha añadido a este juego. Tomaron las buenas ideas de Street Fighter III y regresaron al modo de juego de Street Fighter II (y algo de Street Fighter Alpha) que hizo la mejor franquicia de video juegos de pelea de toda la historia.

El sistema de defensa ha sido reemplazado con el nuevo sistema “focus”, permitiéndote bloquear y contraatacar cualquier ataque físico. En lugar de sólo tener un superpoder ahora tienes dos: uno que se “carga” al ser golpeado y otro que se “carga” cuando pateas traseros (es sólo una expresión, no sólo en los traseros puedes dañarlos). Cada superpoder, sin importar que personaje utilices, tiene su propio grupo o combo de super-movimientos. Hasta la historia ha retrocedido un poco, desarrollándose en algún lugar del tiempo después de Street Fighter II y algún tiempo previo a que la historia de Street Fighter III sucediera.

Aparte de eso, todo ha sido rediseñado casi desde cero. Ambos, modelos de personajes y niveles, han pasado por un proceso de conversión 3-D. Como siempre, nuevos personajes se enlistan al juego para variar el reto, se incluye a un asesino (Crimson Viper), un francés experto en artes marciales (Abel), otro fortachón (El Fuerte) y un tipo gordo (Rufus). ¿Logrará Street Fighter IV reclamar el título como mejor juego de peleas uno a uno? Está por verse pero, lo que sea de cada quien, se ve muy, muy bien.

Read more...