domingo, 18 de noviembre de 2012

Wii U

 File:Wii U console illustration.svg


El nombre es continuista con su popular predecesora. Al igual que en la anterior consola de sobremesa, Wii nace de la palabra en inglés we o "nosotros", haciendo referencia al juego en grupo o experiencia multijugador y a ser una consola que todo el mundo puede usar. A pesar de su gran éxito, una de las principales críticas que recibió Wii durante su generación fue lo poco que se destacó en el juego en solitario, en comparación a otros sistemas que le hicieron competencia. Debido a esto Nintendo ha querido recalcar su interés por crear una experiencia en solitario más completa esta nueva generación, con un control más capaz y notablemente más completo que el Wiimote, un online más robusto, mayor potencia y capacidad gráfica. Así, la U en el nombre, que se deriva de you, en castellano, "tú" representa el interés de sumar una experiencia en solitario más compleja al ya exitoso juego en grupo. 

Un poco de Historia:
La consola se concibió por primera vez en 2008, después de que Nintendo reconociera múltiples limitaciones con Wii, como que el público en general pensara que la consola estaba dirigida a un jugador "casual". Con Wii U, Nintendo quiere volver a atraer a los grupos de jugadores que se sintieron desplazados con Wii. El diseñador de juegos Shigeru Miyamoto admitió que la falta de alta definición y la pobre infraestructura en línea también contribuyeron a dejar a Wii en una categoría aparte respecto a sus competidoras, la Xbox 360 y la PlayStation 3. Se decidió que la nueva consola debía cambiar estos detalles completamente. Dentro de la empresa, hubo un gran debate sobre cómo debía ser la nueva consola, y el proyecto fue desechado y reiniciado varias veces. El concepto de una pantalla táctil en el mando fue inspirado por la luz azul de la Wii que informa de nuevos mensajes. Miyamoto y su equipo quisieron incorporar la pantalla para dar más información a los jugadores (de forma similar a la VMU de la Sega Dreamcast). Cuando el desarrollo se encontraba muy avanzado, éste fue ampliado a una pantalla completa que pudiera mostrar el juego en su totalidad, un concepto que se sugirió, pero no fue financieramente viable anteriormente.
En un nuevo Nintendo Direct el 13 de septiembre de 2012, Satoru Iwata anunció la fecha de lanzamiento de Wii U y su precio en el país nipón. Allí la consola será lanzada el siguiente 8 de diciembre81 y distribuida en dos packs, uno básico y otro premium: el básico contiene la consola, el mando, un puntero, junto con el cable HDMI y adaptadores para la consola y el GamePad,mientras que el premium contiene todo lo anterior más diversos soportes y un cargador para el mando. El primer pack saldrá al precio de 26.250 ¥ —aproximadamente 261€ al cambio— y el segundo por 31.500¥ —314€—.3 . Nueve juegos se podrán adquirir en la fecha de lanzamiento de la consola: New Super Mario Bros. U, Nintendo Land, Ninja Gaiden 3: Razor's Edge, Musou Orochi 2 Hyper, Tekken Tag Tournament 2 Wii U Edition, ZombiU, Assassin's Creed III, Batman: Arkham City Armored Edition y Monster Hunter 3G HD Ver. 

Game pad 
File:Wii U controller illustration.svg

El nuevo mando incorpora una pantalla táctil 16:9 de 6,2 pulgadas y botones de control tradicionales, incluyendo dos controles (joysticks) análogicos con almohadillas. El mando es inalámbrico y recargable, incluye un botón de encendido, botón de Inicio (Home), botones de Select / Start (- / +), cruceta digital, los botones A / B / X / Y, botones laterales L / R y gatillos ZL / ZR. Incluye un acelerómetro incorporado y un giroscopio, función de vibración, cámara, un micrófono, altavoces estéreo, un conector de auriculares, zona inalámbrica, una luz de estado y un lápiz táctil (stylus). Además, cuenta con una cámara digital situada en la parte superior frontal del mando.
El mando es capaz de recrear de manera instantánea en su pantalla la imagen que se muestra en el televisor, permitiendo de esta manera autonomizar el mando para que no dependa del televisor conectado a la consola, y poder así llevar el juego consigo como si de una portátil se tratase. De todos modos, el artilugio no ha sido creado para utilizarse como una portátil tradicional, pues tiene ciertos límites de distancia respecto la consola principal, que podrían inhabilitar la función autónoma al salir del hogar.

viernes, 2 de noviembre de 2012

Noticias

75 años, expectativa de vida para los Mexicanos

 
El Día de Muertos es una celebración mexicana que conmemora a los difuntos el 2 de noviembre; en el 2003, Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, (Unesco) declaró a esta festividad patrimonio cultural de la humanidad.

En México de acuerdo al Instituto Nacional de Estadística, Geografía e Informática (Inegi), la esperanza de vida de los mexicanos es de 75 años, y la mayoría de los decesos se da por enfermedades crónicas degenerativas.


Nuevo IPhone 5 llega a Hermosillo con Telcel y se agota en pocas horas

 
El equipo que llegó a revolucionar el mundo entero ya está en Hermosillo con Telcel. El nuevo IPhone 5 viene a causar sensación entre los hermosillenses, ya que es uno de los equipos más novedosos, con un tamaño mucho menor que el anterior.

El dispositivo agrega esperadas mejoras, como una pantalla más amplia en un nuevo diseño ultradelgado y liviano, y con mayor rapidez.
Como parte de su lanzamiento, Telcel realizó ayer una venta nocturna, la cual se llevó a cabo en el Centro de Atención a Clientes Plaza Franquicias a las 20:00 horas.

Desalojan invasión en Bahía de Kino

 

Decenas de familias que habitaban de manera irregular dos predios de Bahía de Kino, fueron desalojadas por autoridades estatales la mañana de ayer.Eran las 8:00 horas cuando tocaron a la puerta de la humilde vivienda de Ana Berenice, ubicada en la invasión denominada Luis Donaldo Colosio.

Al atender el llamado se topó con elementos de la Policía Estatal Investigadora que le notificaron que debía salir de la casa porque sería derrumbada.

 Información tomada: 

http://www.elimparcial.com/Local/ 

Marte perdió parte de su atmósfera

El explorador marciano Curiosity analizó la atmósfera de Marte y descubrió que en ésta hay un gran número de isótopos de pesados de carbono y argón, así como de otros elementos, lo que provocó que los átomos ligeros se perdieron en el espacio interplanetario.
La actual atmósfera de Marte es 100 veces más delgada que la de la Tierra. Los investigadores teorizan que en el pasado el planeta rojo pudo contener grandes cantidades de agua y una atmósfera más densa.


Los datos obtenidos con el instrumento SAM, gracias a muestras recogidas en Rocknest, señalan que la pérdida de la atmósfera es el resultado de un proceso físico que favoreció la retención de isótopos más pesados de ciertos elementos, siendo esto un factor fundamental para la evolución del planeta. Los isótopos son variantes de un mismo elemento que tienen diferentes pesos atómicos. El rover también busco indicios de metano con SAM, el cual permitió realizar las mediciones más sensibles hasta ahora obtenidas. Éstas revelan que existe muy poco o nada de metano, de acuerdo a un comunicado de la NASA. La importancia del metano radica en que es un precursor químico para la formación de vida. En la Tierra, este gas es producido por cualquier proceso biológico o no biológico.
Hasta ahora había resultado difícil detectar el metano de Marte desde la Tierra o desde los diferente orbitadores marcianos porque los resultados siempre arrojan vestigios del gas.

El espectrómetro láser sintonizable (TLS) de SAM buscó esta molécula, resultando en pocas parte por millón de la atmósfera con suficiente incertidumbre como para señalar que la cantidad del gas podría ser cero.

El rover consta de tres instrumentos para investigar qué gases existen en Marte, uno es un espectrómetro de masa, el segundo es el TLS y por último un cromatógrafo que separa e identifica los gases.

Tanto los análisis del suelo y de la atmósfera marciana son fundamentales para comprender si el planeta en algún momento fue habitable.

Información sacada de:
http://www.elimparcial.com/ 

¿Adiós PC?

La aparición de las tabletas y el enorme éxito de los teléfonos móviles inteligentes ( smartphones) han tenido un impacto negativo en el mercado de las computadoras personales, que ha forzado a la industria del PC a reaccionar para no perder el tren de la innovación. Con ese objetivo la multinacional Intel anunciaba hace un año la creación de una nueva categoría de producto, el ultrabook, una computadora portátil ligera que pretendía aunar la productividad de los PC tradicionales con la respuesta inmediata y la movilidad total de las tabletas. Doce meses después, la segunda generación de ultrabooks ya está en marcha. 
Especificaciones:
Todos han de cumplir determinadas características físicas: su grosor no debe exceder de los 18 milímetros para los modelos de hasta 14 pulgadas (antes era de 32 milímetros), ni los 21 milímetros si tienen pantallas más grandes. Además, han de pasar de un estado de hibernación a un uso completo en 7 segundos y deben tener una batería de 5 horas de rendimiento. Los fabricantes han optado por dos vías para el diseño de estos portátiles ligeros: el tradicional plegable o el convertible, que permite dar la vuelta a la pantalla.




Complicaciones:
En los próximos meses estos ordenadores incluirán sensores de reconocimiento de voz y reconocimiento facial, e incorporarán sistemas táctiles, una característica que, según los expertos, “será el futuro de los PC”. Sin embargo, y pese a la voluntad de Intel de marcar el futuro de la computación personal, la propuesta del productor de procesadores sigue la senda iniciada en 2008 por el Macbook Air de Apple, una computadora delgada y sin unidad óptica. Desde entonces, la compañía de la manzana ha sacado al mercado cuatro versiones de su portátil más fino. El precio de estos portátiles es algo más económico (a partir de 875 dólares, frente a los 1,300 del portátil de Apple). Por el momento, fabricantes como HP, Asus, Acer, Samsung, Lenovo, Toshiba, LG, NEC, Fujitsu, Dell o Panasonic ya trabajan en el desarrollo de modelos de ultrabook. Pero será el usuario quien decida si en un mundo seducido por las tabletas prosperan estos dispositivos.

viernes, 26 de octubre de 2012

Expresate, Textos Que Liberan


Libertad vs tecnologia
En la primera, titulada “Creación de contenidos y futuro de las redes sociales” y moderada por Koro Castellano, han intervenido Ícaro Moyano, director de comunicación de Tuenti; Laura Gómez, gerente de internacionalización de Twitter; Juan Andrés Muñoz, senior interactive producer de CNN en Español y David Varona, coordinador de redes sociales RTVE.es.
Uno de los temas más interesantes que se han tratado es hacia dónde deben dirigirse las redes sociales para aumentar el número de usuarios ya que, como comentaba Muñoz, no todo el mundo participa activamente en las redes sociales. En este sentido, Moyano ha apuntado que el futuro pasa por “profundizar en fenómenos locales y la integración de contenidos y servicios”. Según Varona, dentro de poco “decir dónde y qué estoy haciendo tendrá tanta o más importancia que cómo nos llamamos”. Por su parte, Laurga Gómez ha afirmado que: “”Twitter no es una red social, sino una red de información. Lo que buscamos es que la gente afronte Twitter como algo natural”.
La segunda mesa, titulada “Empresas e instituciones en las redes sociales”, ha contado con la moderación de Carolina Blasco y con la participación de José Antonio Gallego, presidente de la Asociación Española de Responsables de Comunidades Online (AERCO); Javier Pérez Ríos, subdirector de iberia.com; Fernando Egido, director Banca 2.0 en Banca Cívica; y Alfonso Arbaiza, director general de Fundetec.
Durante el debate, los ponentes han llevado a cabo un balance sobre la experiencia de sus instituciones en las redes sociales. Así, Gallego ha confesado que “se han cometido errores, pero la experiencia ha sido altamente positiva”. Arbaiza, por su parte, ha recordado que es necesario “seguir divulgando que las redes sociales son importantes”. Egido ha recordado “hay un peligro que hay que evitar”, en el sentido de que a veces “es difícil mantener los pies en la tierra” frente a todas las posibilidades que ofrecen las redes sociales. Por último, Pérez Ríos ha declarado que “estamos aprendiendo poco a poco” y que las redes sociales “han mejorado las relaciones con los clientes”.
Durante los dos días que ha durado el congreso, han desfilado por el Teatro Principal de Burgos importantes rostros de las redes sociales como periodistas, community managers, empresarios y creadores de comunidades virtuales, muchos de los cuales han estado transmitiendo lo que ocurría mediante sus blogs y las redes sociales, como Twitter, en la que el congreso fue el tercer tema más popular a nivel mundial y el primero a nivel nacional en varias ocasiones.

sábado, 20 de octubre de 2012

Discrimina, Tecnología racial

Las nuevas tecnologías abren las puertas a nuevas e interesantes experiencias, pero también a nuevas formas y mecanismos de discriminación:
1) Los conocidos como brecha y/o analfabetismo digital que representan la falta de acceso a las nuevas tecnologías, por diferentes causas: falta de conocimiento, capacidad económica, ubicación geográfica, etc. Y con ello se generan diferencias en cuanto a las potencialidades humanas y sociales entre quienes pueden acceder tanto como receptor y como generador, partícipes y/o prosumidores, con relación a los que carecen de estas posibilidades.
En el marco de una sociedad donde la pobreza es abundante, no hay otra salida que superarla para terminar con este problema. Sin embargo, siempre se pueden realizar acciones gubernamentales para paliar estas diferencias, sea mediante la facilitación del acceso a las redes (subsidios para la conexión y compras de equipos, redes abiertas con wifi, telecentros comunitarios, servidores públicos, etc.), o mediante los procesos educativos. Acciones que suelen catalogarse como planes de “inclusión digital”.
Desde el punto conceptual hay que enfrentar este problema en el marco del “derecho a la comunicación y al conocimiento” vinculado con determinadas libertades, que deben verse como derechos humanos fundamentales y que terminan estableciendo la necesidad de asegurar para todos y todas conexiones redes, poder de computo, acceso a servidores, y el conocimiento para utilizarlos.
2) Las prácticas de uso de las nuevas tecnologías que establecen monopolios vinculados a la necesidad de lucro de determinadas empresas.
Las nuevas tecnologías habilitan mecanismos que potencian las comunicaciones humanas y entre humanos y los nuevos sistemas de información automatizados y/o robots.
A los efectos que la comunicación pueda establecerse es necesario que se respeten protocolos y estándares. Internet justamente surge como un protocolo que permite conectar entre sí a diversos tipos de redes y sistemas de comunicación entre multiples polos. Y surge como un triunfo de los que proponen sistemas abiertos que no contengan protocolos privados que sólo permitan comunicarse a determinados actores. Esta tensión entre quienes quieren establecer monopolios privados en los sistemas de intercomunicación global y quienes quieren sistemas abiertos donde cualquiera pueda participar continua en muchas áreas. Constantemente aparecen nuevos sistemas que tratan de establecer algún tipo de restricción para el acceso vinculada a la “adquisición” de algún software, hardware o licencia a un determinado proveedor para poder participar.
Así tenemos que numerosos sitios o portales o páginas web, tanto del sector público, como de empresas que brindan servicios públicos o bien privados de acceso universal se exige para poder visualizar la información por Internet determinado software que solo es provisto por la multinacional, como los navegadores que se usan para acceder a Internet como “Microsoft Explorer” y estos sitios no son visualizables con otros como “Firefox”. Así estos sitios discriminan a los usuarios atándolos con determinado proveedor. Lo curioso es que las normas de Internet no tienen estas restricciones, así pues estos sitios utilizan características puestas a propósito por los desarrolladores del software para impedir el acceso a la competencia.
Con exigir que los sitios cumplan las normas sobre protocolos HTML y demás, todos podrían acceder. Ejemplos en Salta: El software del Tribunal Electoral de la Provincia, sólo funciona correctamente bajo Microsoft Internet Explorer.
Tenemos también este problema con los formatos de almacenamiento de archivos. Muchos de los formatos en uso son propiedad de una empresa en particular que los cambia según su conveniencia impidiendo que los que tienen software apto para una versión anterior puedan abrirlos. Es necesario entonces garantizar formatos que permitan a cualquier persona, empresa u organización, su apertura, inspección y modificación. Existen ya formatos aprobados por normas internacionales y debe impulsarse su uso.
3) El incumplimiento de estas normas también tiene otro efecto. Las mismas están pensadas para permitir que diferente software de Internet apto para equipos y personas con capacidades diferentes puedan acceder a la información en formatos adecuados a sus capacidades. Cuando no se respetan estas normas sólo equipos de ultima generación y personas sin ninguna incapacidad de visualizacion pueden acceder, discriminando sin ninguna necesidad real al resto de la población.

sábado, 13 de octubre de 2012

Noticias

Figura México en lugar 79 en telecomunicacionesMéxico 
figura en el lugar número 79 del desarrollo de telecomunicaciones, categoría que lidera Corea del Sur, según publicó hoy en un informe la Unión Internacional de Telecomunicaciones (UIT).
El reporte Medición de la Sociedad de la Información 2012 muestra que la asimilación de las tecnologías de la información y la comunicación (TIC) sigue en aumento en todo el mundo, estimulada por una reducción progresiva del precio de los servicios de telefonía e internet en banda ancha.

La PC ¿está muriendo?
¿El auge de los teléfonos inteligentes y las tabletas mató a la PC? Los analistas estiman que el computador personal no ha muerto aún, pero ya no es el rey del universo tecnológico, víctima de la competencia de los dispositivos móviles, un mercado en plena efervescencia.
La PC "sigue siendo bastante relevante", pero "ya no más es el centro del universo informático", dijo Roger Kay, analista de Endpoint Technologies Associates. 


Prevén iPad mini para el 23 de octubre

Apple presentaría su anticipado mini iPad el 23 de octubre en un evento al que sólo será posible acceder con invitación, reportó el viernes el blog sobre tecnología AllThingsD citando fuentes vinculadas a la compañía.
El evento podría producirse antes de que Microsoft Corp dé a conocer su nuevo sistema operativo, el Windows 8, y su tableta Surface el 26 de octubre. 


Información e imágenes tomadas:
Imparcial, sección: Ciencia y Tecnología.