Ya se anunció oficialmente la nueva actualización del navegador gratuito de Mozilla, el Firefox 4, en su versión beta 4. Los cambios principales se focalizan en la velocidad y la funcionalidad, además de darle algunos toques renovados a la imagen del mismo.
Disponible para todas las plataformas (Windows, Linux y Mac OS), el Firefox 4 – que es una versión mejorada de las anteriores – incluye parches para varios errores que fueron encontrados en las anteriores de este navegador.
En cuanto a la apariencia, cuenta con un nuevo Look & Feel, con lo que va a ser muy similar a la primer versión beta del browser (con más pestañas y menos botones). Y por otro lado, logra que no se vean los menúes del texto, a menos que el usuario quiera distinguirlos para ingresar a alguna opción en ellos. En ese caso, sólo debe apretar la tecla Alt.
También tiene mejoras para procesar los gráficos, lo que se hará a través de JavaScript, y que incluso permitirá tener una optimización en la velocidad. De esta manera, el procesador gráfico (GPU) podrá realizar tareas que antes realizaba el procesador principal (CPU).
Sunday, August 22, 2010
Tuesday, August 17, 2010
Microsoft anuncia el Office 2011 para Mac

Microsoft dio a conocer de forma oficial la fecha de lanzamiento y el precio de sus aplicaciones Office 2011 para Mac. Con este producto la empresa competirá contra programas como Google Docs, iWork, OpenOffice y la suite ofimática de las computadoras de Apple.
El producto llegará a las tiendas a fines de Octubre y será una version mejorada respecto a ediciones anteriores. Entre estos avances destaca su presentación en 13 idiomas, incluido el español.
Ademas, para los usuarios que no quieran esperar hasta Octubre para tener el nuevo Office, Microsoft está ofreciendo un programa de actualización gratutita al comprar la version 2008.
El requisito es haber adquirido el programa entre el 1 de Agosto y el 30 de Noviembre de 2010 en Microsoft o con un vendedor autorizado. Dichos clientes deben registrar su producto a través de Internet.
El producto llegará a las tiendas a fines de Octubre y será una version mejorada respecto a ediciones anteriores. Entre estos avances destaca su presentación en 13 idiomas, incluido el español.
Ademas, para los usuarios que no quieran esperar hasta Octubre para tener el nuevo Office, Microsoft está ofreciendo un programa de actualización gratutita al comprar la version 2008.
El requisito es haber adquirido el programa entre el 1 de Agosto y el 30 de Noviembre de 2010 en Microsoft o con un vendedor autorizado. Dichos clientes deben registrar su producto a través de Internet.
Sunday, August 8, 2010
Intel revela planes de nuevos productos para supercomputación, los chips con muchos núcleos integrados de Intel.

Los chips con muchos núcleos integrados de Intel, aumentarán la importacia de la aceleración de la ciencia y de los descubrimientos.
El primer producto, con nombre en código "Knights Corner", utilizará el proceso de 22 nm de Intel y la ley de Moore para escalar a más de 50 núcleos.
Durante la International Supercomputing Conference (ISC), Intel Corporation anunció planes para ofrecer productos basados en la arquitectura Intel Many Integrated Core (MIC, Muchos Núcleos Integrados), que va a crear plataformas que ejecuten trillones de cálculos por segundo, al tiempo que mantienen los beneficios de los procesadores estándar de Intel.
Dirigido a segmentos de computación de alto rendimiento, tales como la exploración, la investigación científica y las simulaciones financieras o climáticas, el primer producto, de nombre en código "Knights Corner", se fabricará por medio del proceso de 22 nm de Intel (utilizando estructuras de transistor tan pequeñas como la 22 mil millonésima parte de un metro) y recurriendo a la ley de Moore para escalar más de 50 núcleos de procesamiento de Intel en un solo chip. Si bien la gran mayoría de las cargas de trabajo todavía se ejecutan mejor en los premiados procesadores Intel Xeon, la arquitectura Intel MIC ayudará a acelerar algunas aplicaciones selectamentes altamente paralelas.
Intel. de todas maneras, no adelanta fecha de disponibilidad, así que el chip puede que tarde en llegar a nuestras casas. Pero tan pronto como esté disponible, será capaz de hacer un mónton de cosas más al mismo tiempo, en este caso, 50 al mismo tiempo.
El primer producto, con nombre en código "Knights Corner", utilizará el proceso de 22 nm de Intel y la ley de Moore para escalar a más de 50 núcleos.
Durante la International Supercomputing Conference (ISC), Intel Corporation anunció planes para ofrecer productos basados en la arquitectura Intel Many Integrated Core (MIC, Muchos Núcleos Integrados), que va a crear plataformas que ejecuten trillones de cálculos por segundo, al tiempo que mantienen los beneficios de los procesadores estándar de Intel.
Dirigido a segmentos de computación de alto rendimiento, tales como la exploración, la investigación científica y las simulaciones financieras o climáticas, el primer producto, de nombre en código "Knights Corner", se fabricará por medio del proceso de 22 nm de Intel (utilizando estructuras de transistor tan pequeñas como la 22 mil millonésima parte de un metro) y recurriendo a la ley de Moore para escalar más de 50 núcleos de procesamiento de Intel en un solo chip. Si bien la gran mayoría de las cargas de trabajo todavía se ejecutan mejor en los premiados procesadores Intel Xeon, la arquitectura Intel MIC ayudará a acelerar algunas aplicaciones selectamentes altamente paralelas.
Intel. de todas maneras, no adelanta fecha de disponibilidad, así que el chip puede que tarde en llegar a nuestras casas. Pero tan pronto como esté disponible, será capaz de hacer un mónton de cosas más al mismo tiempo, en este caso, 50 al mismo tiempo.
Sunday, August 1, 2010
zEnterprise el super ordenador de IBM para empresas
El nuevo servidor empresarial ejecuta más de 500.000 millones de instrucciones por segundo. se llama zEnterprise y es una "revolucionaria" tecnología, fruto de más de 3 años de trabajo y 1,500 millones de dolares de inversión. IBM lo considera como el servidor mainframe más potente y más eficiente en cuanto al consumo de energía hasta la fecha, capaz de multiplicar por 10 la velocidad del análisis de datos corporativos.
Esta diseñado para gestionar desde cientos hasta 100.000 servidores virtualizados como un único sistema y permite conseguir importantes ahorros; las empresas que adopten esta tecnología de IBM podrian reducir sus costos totales de infraestructura de TI hasta un 55% y crear e instalar un nuevo servidor Linux virtualizado en el zEnterprise por menos de un dolar al día.
Monday, July 26, 2010
Samsung Comienza la Producción en Masa de memorias DDR3 en 30 nm
Anunciadas a principios de este año, las memorias RAM DDR3 Green de 2Gb clase 30 nm de Samsung han entrado en producción en masa y estará listo para satisfacer la necesidad de velocidad y eficiencia energética que la nueva generación de servidores optimizados para cloud computing y virtualización requieren.
Los chips DDR3 de 30nm de Samsung pueden trabajar a 1866 MHz @1.35V, y en 2133 MHz @ 1.5V, y se espera que se utilicen para equipos de sobremesa, portátiles, servidores, notebooks y dispositivos móviles.
Es un fuerte aumento de la demanda de chips de memoria DDR3 y satisfacemos esta necesidad con la introducción oportuna de las soluciones de memorias DDR3 fabricadas en 30 nm, Los nuevos módulos son capaces de entregar la mejor experiencia al usuario, ofreciendo un rendimiento extremadamente alto y un menor consumo de energía para las PCs y aplicaciones de servidor diseñados para aprovechar los nuevos procesadores multi-core.
Samsung ya está planeando subir la apuesta en los 30nm, y empezara a hacer kits de 4 Gb DDR3 usando este proceso a finales de este año.
Tuesday, July 20, 2010
OpenStack, cloud computing de código abierto
OpenStack es un proyecto liderado por la empresa Rackspace, que ha decidido liberar el código de sus servicios Cloud Files y Cloud Servers bajo una licencia Apache 2.0. Este código forma la piedra angular de OpenStack, ofreciendo la posibilidad a usuarios o empresas de crear sus propios servicios de cloud computing.
Rackspace aporta la parte de almacenamiento, llamada Swift, la base de los servicios anteriormente citados. La NASA, que también participa en el proyecto, colabora con Nova, base de su plataforma NEBULA, ambos servicios están desarrollados utilizando Python.
Como se ha comentado, OpenStack ofrecerá dos servicios: OpenStack Compute permite gestionar el despliegue y ejecución de aplicaciones a través de múltiples servidores. La tecnología Nova, se basa en el protocolo de mensajeria AMQP y es el sistema utilizado en la NASA para proveer sistemas de virtualización bajo demanda.
OpenStack Object Storage permite gestionar el almacenamiento de datos en varios servidores que trabajen de manera conjunta en clústers, para conseguir un almacenamiento masivo de objetos estáticos, de manera supérflua y fiable. El software de OpenStack es el responsable de garantizar la replicación de los datos y la integridad a través de todo el clúster, permitiendo añadir nuevos nodos y configurarlos de manera automática.
Aunque el código en el que se basan los servicios comentados lleva siendo utilizado durante bastante tiempo, se espera que las aportaciones de la comunidad open source mejoren su funcionamiento. Las primeras versiones estables de Compute y Object Storage se liberarán a mediados de octubre y septiembre, respectivamente.
Detrás del proyecto OpenStack se encuentran empresas como Dell, Citrix, Intel o como ya se ha comentado, la agencia espacial estadunidense. El objetivo final del proyecto es facilitar un sistema de cloud computing de código abierto y fácilmente adaptable a sistemas hardware de bajo coste, facilitando su implantación en empresas de todos los niveles.
Rackspace aporta la parte de almacenamiento, llamada Swift, la base de los servicios anteriormente citados. La NASA, que también participa en el proyecto, colabora con Nova, base de su plataforma NEBULA, ambos servicios están desarrollados utilizando Python.
Como se ha comentado, OpenStack ofrecerá dos servicios: OpenStack Compute permite gestionar el despliegue y ejecución de aplicaciones a través de múltiples servidores. La tecnología Nova, se basa en el protocolo de mensajeria AMQP y es el sistema utilizado en la NASA para proveer sistemas de virtualización bajo demanda.
OpenStack Object Storage permite gestionar el almacenamiento de datos en varios servidores que trabajen de manera conjunta en clústers, para conseguir un almacenamiento masivo de objetos estáticos, de manera supérflua y fiable. El software de OpenStack es el responsable de garantizar la replicación de los datos y la integridad a través de todo el clúster, permitiendo añadir nuevos nodos y configurarlos de manera automática.
Aunque el código en el que se basan los servicios comentados lleva siendo utilizado durante bastante tiempo, se espera que las aportaciones de la comunidad open source mejoren su funcionamiento. Las primeras versiones estables de Compute y Object Storage se liberarán a mediados de octubre y septiembre, respectivamente.
Detrás del proyecto OpenStack se encuentran empresas como Dell, Citrix, Intel o como ya se ha comentado, la agencia espacial estadunidense. El objetivo final del proyecto es facilitar un sistema de cloud computing de código abierto y fácilmente adaptable a sistemas hardware de bajo coste, facilitando su implantación en empresas de todos los niveles.
Tuesday, July 13, 2010
F#
F#
Las personas encargadas de Microsoft Research han liberado una nueva versión de F#. ¿Y que es F#? pues es un lenguaje 100% matemático y está orientado a la programación funcional, además utiliza el compilador de .Net para crear los runtimes de ejecución del mismo. En este caso la gente de Research ha ido un poco más allá y ha liberado esta versión para que también sea compatible con Mono.
F# es un lenguaje fuertemente tipificado que utiliza inferencia de tipos. Como resultado, los tipos no necesitan estar declarados explícitamente por el programador; estos serán deducidos por el compilador durante el proceso de compilación. Sin embargo, F# también permite la declaración explícita de tipos de datos. Por ser un lenguaje .NET, F# soporta los objetos y tipos de .NET
F# permite al programador programar de una manera que se asemeja más a como pensamos. Por ejemplo: en la cafetería para pedir un café, nosotros generalmente no le decimos al mesero exactamente los pasos para hacer el café, sólo pedimos un café con ciertas características. De tal forma que tenemos menos espacio para cometer errores, porque simplemente escribimos menos código.
Facilita enormemente la creación de código asincrónico y paralelo, cosa que en otros lenguajes de .Net nos tomaría mucho más tiempo.
Las personas encargadas de Microsoft Research han liberado una nueva versión de F#. ¿Y que es F#? pues es un lenguaje 100% matemático y está orientado a la programación funcional, además utiliza el compilador de .Net para crear los runtimes de ejecución del mismo. En este caso la gente de Research ha ido un poco más allá y ha liberado esta versión para que también sea compatible con Mono.
F# es un lenguaje fuertemente tipificado que utiliza inferencia de tipos. Como resultado, los tipos no necesitan estar declarados explícitamente por el programador; estos serán deducidos por el compilador durante el proceso de compilación. Sin embargo, F# también permite la declaración explícita de tipos de datos. Por ser un lenguaje .NET, F# soporta los objetos y tipos de .NET
F# permite al programador programar de una manera que se asemeja más a como pensamos. Por ejemplo: en la cafetería para pedir un café, nosotros generalmente no le decimos al mesero exactamente los pasos para hacer el café, sólo pedimos un café con ciertas características. De tal forma que tenemos menos espacio para cometer errores, porque simplemente escribimos menos código.
Facilita enormemente la creación de código asincrónico y paralelo, cosa que en otros lenguajes de .Net nos tomaría mucho más tiempo.
Nace Google TV, la unión de Internet y la televisión
Google ha hecho oficial el nacimiento de su nuevo proyecto para televisión, Google TV, un servicio que permitirá buscar canales o programas de manera similar a las búsquedas en la web. Google TV se conectará usando HDMI y a través de Wifi. El dispositivo incluye un ratón y un teclado como complementos. Los dispositivos con Android podrán sincronizarse con Google TV, lo que permitirá sintonizar un canal a través del reconocimiento de voz. Además, el nuevo servicio del buscador también ofrece Android 2.1 integrado, mientras que Chrome será el navegador.
Esto se lo debemos a Sony y Logitech para introducir Google TV en los dispositivos de televisión y reproductores de Blu-Ray y previsiblemente saldrá a la venta en otoño.
Esto se lo debemos a Sony y Logitech para introducir Google TV en los dispositivos de televisión y reproductores de Blu-Ray y previsiblemente saldrá a la venta en otoño.
Sunday, July 4, 2010
Nuevo Windows 8 – Novedades del Próximo Windows
Se han filtrado detalles en un blog entusiasta de Microsoft, donde figuran las primeras características y novedades correspondientes al nuevo sistema operativo Windows 8.
Microsoft, ha publicado información confidencial sobre Windows 8 que revela las mejoras que Microsoft está apuntando para el nuevo OS. Microsoft está planeando la mejor compatibilidad con la conectividad, como USB 3.0 y Bluetooth 3.0 dentro de Windows 8.
El área clave de enfoque de Microsoft parece ser el rendimiento y los sistemas de encendido instantáneo. “Windows 8 será rápido, casi instantáneo, Cuando los clientes quieren revisar el correo electrónico, los resultados deportivos, o jugar, piensan en hacerlo lo más rápidamente. “
En lo que parece ser sugerencias para los fabricantes de equipos, correspondiente a datos del nuevo Microsoft Windows 8. Centrándose en el rendimiento del POST, reanudar la ejecución y optimizaciones de rendimiento general para cada uno de los estados son las áreas clave de mejora que se propone para Microsoft con Windows 8 y las PCS pensadas para Windows 8.
Microsoft también está tratando de utilizar censores lumínicos en Windows 8. Además Windows 8 se puede adaptar a los cambios de luz ambiental, para que la visualización sea siempre fácil de ver; sin embargo puede haciendo alusión a la PC con la capacidad de detectar la presencia a sus usuarios automáticamente desde el sistema.
Microsoft está trabajando en el cifrado del disco duro para Windows 8. El gigante del software se ocupa actualmente de cifrado mediante el uso de sus tecnologías de BitLocker, para que sus usuarios tengas sus datos realmente a resguardo de alguno de los problemas más cotidianos de Internet hoy en día.
Microsoft, ha publicado información confidencial sobre Windows 8 que revela las mejoras que Microsoft está apuntando para el nuevo OS. Microsoft está planeando la mejor compatibilidad con la conectividad, como USB 3.0 y Bluetooth 3.0 dentro de Windows 8.
El área clave de enfoque de Microsoft parece ser el rendimiento y los sistemas de encendido instantáneo. “Windows 8 será rápido, casi instantáneo, Cuando los clientes quieren revisar el correo electrónico, los resultados deportivos, o jugar, piensan en hacerlo lo más rápidamente. “
En lo que parece ser sugerencias para los fabricantes de equipos, correspondiente a datos del nuevo Microsoft Windows 8. Centrándose en el rendimiento del POST, reanudar la ejecución y optimizaciones de rendimiento general para cada uno de los estados son las áreas clave de mejora que se propone para Microsoft con Windows 8 y las PCS pensadas para Windows 8.
Microsoft también está tratando de utilizar censores lumínicos en Windows 8. Además Windows 8 se puede adaptar a los cambios de luz ambiental, para que la visualización sea siempre fácil de ver; sin embargo puede haciendo alusión a la PC con la capacidad de detectar la presencia a sus usuarios automáticamente desde el sistema.
Microsoft está trabajando en el cifrado del disco duro para Windows 8. El gigante del software se ocupa actualmente de cifrado mediante el uso de sus tecnologías de BitLocker, para que sus usuarios tengas sus datos realmente a resguardo de alguno de los problemas más cotidianos de Internet hoy en día.
Sunday, June 27, 2010
SISTEMA DE INDEXACION DE PAGINAS WEB LLAMADO CAFFEINE
Google lanzó el 10 de junio del 2010 su nuevo sistema de indexación llamado Caffeine, una nueva forma de infraestructura que escanea y almacena contenidos web de forma mucho más rápida.
Este nuevo sistema de indexación ofrece unos resultados de de 50% a 70% más recientes en la busqueda web que con el sistema anterior.
El anterior indice de Google tenía varias capas , algunas de las cuales se refrescaban más frecuentemente que otras. Por ejemplo la capa principal se actualizaba cada dos semanas. Para refrescar una capa del índice anterior, se analizaba la página web entera, lo cual significaba un retraso entre el momento en que se encontraba una página y el momento en que Google la hacia disponible para todo el mundo. Con Caffeine, el gigante de la red busca acercarse casi al tiempo real.
Sunday, June 20, 2010
Red 4G.

4G son las siglas de la cuarta generación de tecnologías de telefonía móvil.



La 4G estará basada totalmente en IP siendo un sistema de sistemas y una red de redes, alcanzándose después de la convergencia entre las redes de cables e inalámbricas así como en computadoras, dispositivos eléctricos y en tecnologías de la información así como con otras convergencias para proveer velocidades de acceso entre 100 Mbps en movimiento y 1 Gbps en reposo, manteniendo una calidad de servicio (QoS) de punta a punta (end-to-end) de alta seguridad para permitir ofrecer servicios de cualquier clase en cualquier momento, en cualquier lugar, con el mínimo costo posible. El WWRF (Wireless World Research Forum) define 4G como una red que funcione en la tecnología de Internet, combinándola con otros usos y tecnologías tales como Wi-Fi y WiMAX. La 4G no es una tecnología o estándar definido, sino una colección de tecnologías y protocolos para permitir el máximo rendimiento de procesamiento con la red inalámbrica más barata. El IEEE aún no se ha pronunciado designando a la 4G como “más allá de la 3G”. En Japón ya se está experimentando con las tecnologías de cuarta generación. Esta empresa realizó las primeras pruebas con un éxito rotundo (alcanzó 100 Mbps en un vehículo a 200 km/h) y espera poder lanzar comercialmente los primeros servicios de 4G en el año 2010. En el resto del mundo se espera una implantación sobre el año 2020. Como características principales: Para el acceso radio abandona el acceso tipo CDMA característico de UMTS. Uso de SDR (Software Defined Radios) para optimizar el acceso radio. La red completa prevista es todo IP. Las tasas de pico máximas previstas son de 100 Mbps en enlace descendente y 50 Mbps en enlace ascendente (con un ancho de banda en ambos sentidos de 20Mhz). América Móvil anunció en exclusiva para Interfase su incursión a la tecnología LTE (Long Term Evolution), que forma parte del incremento de las capacidades de la red a 4G. “Este año iniciamos pruebas tecnológicas con LTE y en el 2011 será el año de las primeras operaciones comerciales”, afirmó en entrevista Marco Quatorze, director de servicios de valor agregado de Telcel. Al momento, América Móvil está evaluando los proveedores de módems para ofrecer su nuevo servicio de banda ancha. “La misma gama de módems que tenemos en 3G la tendremos para 4G. Los coreanos y los chinos están muy avanzados y vienen muy fuerte”, afirmó. Los futuros usuarios de LTE, aclaró, serán compatibles con las redes de tercera generación que tienen actualmente, como HDSPA y UMTS. “Tal como Wi-Fi y 3G son complementarios, LTE y WiMax lo son. Yo creo que WiMax es para servicios fijos y LTE va más enfocada a servicios móviles”, dijo. Al usar esta nueva tecnología LTE a 53 megabits por segundo, los equipos son capaces de ver “video streaming” en alta definición sin ningún tipo de interrupción o retraso. A su vez, los representantes de América Móvil afirmaron que su reciente servicio de banda ancha se ha masificado en México y esperan lo mismo con su futura red. “Hoy ya tenemos más del 10 por ciento de la base de clientes con la tecnología 3G. Yo creo que algo similar va a pasar con 4G”, agregó.
http://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_4G
Monday, June 14, 2010
iPhone 3GS Vs iPhone4
Desde el anuncio del iPhone4 es de gran relevancia resaltar las innovaciones que se le hicieron al producto que son algunas de las características que traerá la próxima generación de terminal.
De momento en México solo existen imágenes y videos del producto ya que estará disponible a partir de Septiembre del 2010 y en algunas ciudades de Estados Unidos y Europa ya está disponible en donde algunas persona ya lo han podido probar, aunque son los mínimos.
Ahora ha aparecido una imagen con sus comparaciones más interesantes más entre los dos dispositivos. En ella podemos conocer de un vistazo las diferencias hardware que existen entre ambos dispositivos. Por supuesto no aparcen todas las diferencias pero si algunas como la memoria RAM, procesador, tipo de cámara, etc.

Monday, June 7, 2010
Apple promociona HTML5
Apple no afloja en su empeño de “imponer” HTML5 como el nuevo estándar tecnológico multimedia para la Web, una estrategia que inició con la presentación del iPad y que se reforzó con una declaración del propio Steve Jobs, en la que exponía sus motivos para desterrar Flash del iPad, el iPhone y el iPod.
Se trata de una apuesta arriesgada, cuyas implicaciones van más allá de una simple elección tecnológica, ya que Flash cuenta con el apoyo de Google, y por tanto seguirá estando presente en los productos de ésta, como los vídeos de YouTube o los móviles que funcionan con Android.
Para apoyar su causa, Apple acaba de lanzar una nueva sección dentro de su web con demostraciones de las posibilidades que ofrece HTML5, incluyendo vídeos, audio, galerías 3D, imágenes en 360 grados o tipografías.
Pero pese a que Apple define HTML5 como un estándar abierto (en oposición a Flash, que es una tecnología propietaria de Adobe), para entrar a ver las demos es obligatorio utiliza el navegador Safari de la propia Apple, lo que no deja de parecer un tanto contradictorio.
Apple justifica esta decisión alegando que la última versión de Safari soporta las especificaciones de HTML5, CSS3 y JavaScript, algo que no pueden decir todos los demás navegadores, aunque pronto se unirán otros.
Sin embargo, la iniciativa de Apple ya está siendo criticada, por ejemplo, desde el blog oficial de Opera, donde Haavard Moen escribe: “Si la página no funciona con Opera u otros navegadores no es porque no soportan HTML5. Es porque Apple utiliza sistemas para detectar los navegadores, y además no están realmente probando mucho HTML5. De hecho, muchas de sus demos parecen no tener nada que ver con HTML5”.
Se trata de una apuesta arriesgada, cuyas implicaciones van más allá de una simple elección tecnológica, ya que Flash cuenta con el apoyo de Google, y por tanto seguirá estando presente en los productos de ésta, como los vídeos de YouTube o los móviles que funcionan con Android.
Para apoyar su causa, Apple acaba de lanzar una nueva sección dentro de su web con demostraciones de las posibilidades que ofrece HTML5, incluyendo vídeos, audio, galerías 3D, imágenes en 360 grados o tipografías.
Pero pese a que Apple define HTML5 como un estándar abierto (en oposición a Flash, que es una tecnología propietaria de Adobe), para entrar a ver las demos es obligatorio utiliza el navegador Safari de la propia Apple, lo que no deja de parecer un tanto contradictorio.
Apple justifica esta decisión alegando que la última versión de Safari soporta las especificaciones de HTML5, CSS3 y JavaScript, algo que no pueden decir todos los demás navegadores, aunque pronto se unirán otros.
Sin embargo, la iniciativa de Apple ya está siendo criticada, por ejemplo, desde el blog oficial de Opera, donde Haavard Moen escribe: “Si la página no funciona con Opera u otros navegadores no es porque no soportan HTML5. Es porque Apple utiliza sistemas para detectar los navegadores, y además no están realmente probando mucho HTML5. De hecho, muchas de sus demos parecen no tener nada que ver con HTML5”.
Sunday, May 30, 2010
USB 3.0
Hola compañeros muy buen inicio de semana, aquí les dejo el tema de ésta semana en el blog que va a ser USB 3.0.
USB puede ser una tecnología a la cual no le hemos puesto demasiada atención ya que se está volviendo cotidiana en las computadoras y dispositivos móviles de hoy, pero si aceleramos su velocidad de transferencia de datos diez veces, sería increíblemente rápido, de tal manera que en ocasiones la transferencia de archivos se verá completada antes de que nos demos cuenta.
La versión 3.0 de USB, llamada SuperSpeed, está preparándose para entregar más de 3.2 gigabits por segundo (gbps) de rendimiento real, lo cual es sumamente impresionante.
Esa velocidad de transferencia hará a USB 3.0 cinco a diez veces más rápido que otros estándares de periféricos de escritorio, excepto algunos como eSATA.
Además, este nuevo estándar puede disparar datos a toda velocidad en ambas direcciones al mismo tiempo, un avance de las velocidades de “medio dúplex” de 2.0 (una dirección a la vez).
Respecto a los enchufes USB 3.0 podrán aceptar conexiones 1.0 y 2.0 para ofrecer compatibilidad retroactiva, pero los cables 3.0 funcionarán sólo con conexiones 3.0.
La velocidad más alta de USB 3.0 acelerará las transferencias de datos, moviendo más de 20 GB de datos por minuto, lo cual permitiría hacer respaldos de datos cada vez más grandes, como proyectos, imágenes o películas y aplicaciones descargadas, sin duda haciéndonos la vida más cómoda.
El formato poco a poco se volverá popular en los dispositivos móviles y múltiples aparatos electrónicos. De acuerdo a Jeff Revencraft, quien es presidente y director de USB-IF, actualmente los fabricantes venden más de 2,000 millones de dispositivos con USB integrado cada año, así que hay mucho potencial para introducir al mercado el nuevo estándar rápidamente.
Subscribe to:
Posts (Atom)
