-
Contenido
902 -
Ingreso
-
Última visita
-
Días ganados
51
Tipo de contenido
Perfiles
Foros
Calendario
Todo lo publicado por Alejo
-
La muerte de Google Reader a principios del mes de julio supuso un drama para todos los que éramos usuarios de la plataforma. Rápidamente surgieron algunas alternativas dispuestas a reemplazar el servicio de Google. The Old reader, junto a Feedly, fue una de las plataformas que más usuarios arrastró y ese fue, al parecer, uno de los motivos que propició la noticia de su cierre. Se desconocen los detalles sobre esa "entidad corporativa" generosa, lo único que se sabe es que fue anunciado por un tal "Ben Wolf", quien promete que su equipo está compuesto por "grandes fans y usuarios" de The Old Reader, los cuales quieren ayudar a que "crezca y mejore" en los próximos años. Esas mejoras podrían empezar a conocerse en las próximas semanas. Es una buena noticia para todos los usuarios de la plataforma. La verdad, cuando se anunció la muerte de Google Reader empecé a buscar un reemplazo y The Old Reader fue una de las alternativas que rápidamente captó mi atención. Su interfaz minimalista la hace muy agradable e ideal para evitar distracciones mientras consultas las novedades de tus RSS favoritos. Lo que hizo que finalmente me decantara por Feedly fue que ofrecía un proceso de migración desde Google Reader muy sencillo, y sobre todo, su presencia en aplicaciones de terceros. Esperemos que el nuevo equipo y los recursos que ahora están destinados a The Old Reader ayuden a que ésta se conecte con más aplicaciones y servicios, convirtiéndola así en una candidata a competir contra Feedly. alt1040.com
-
Si la relación entre Google y la neutralidad de la red era complicada; ahora es mala. En sus comienzos, defendió a ultranza la libertad para utilizar la Red con cualquier fin y dispositivo, sin que el proveedor de acceso pudiese decidir en función de sus intereses. Pero desde hace no mucho Google es un ISP con Fiber. Y ha tardado poco en comportarse como uno de los peores. La neutralidad de la red es un concepto que está presente desde los primeros días de Internet y que se trata de preservar con diversas legislaciones (aunque, en la práctica, suponen decepción tras decepción). Básicamente, establece que los operadores no pueden bloquear contenido legal, aplicaciones, servicios o dispositivos que no afecten al correcto funcionamiento de la Red. Únicamente pueden intervenir para solucionar problemas, pero nunca antes de que ocurran. Google no está de acuerdo. La compañía no permite que los usuarios de Google Fiber usen su red para crear servidores en sus hogares. O, lo que es lo mismo, considera que puede prohibir la conexión de ciertos dispositivos a Fiber. Y lo peor es que parece que no lo hace para proteger su red, sino para proteger su negocio, pues ofertará Fiber para empresas más adelante, según apunta Wired. El último y lamentable capítulo entre la peculiar relación de Google y la neutralidad de la red tiene un trasfondo comercial. Google se apoya en las políticas de empresas como VerizonLo peor es que la compañía lo justifica en su respuesta a un posible cliente, Douglas McClendon, que acudió a la FCC para quejarse de la prohibición y pedir que se cambiasen los términos de uso. Para mayor escarnio, la empresa se apoya en las políticas de otros proveedores, como AT&T o Verizon. Por lo demás, Google explica que la prohibición de alojar "cualquier tipo de servidor" se estableció para "responder a la gestión de congestión y las necesidades de seguridad de la arquitectura de Google Fiber". Sin embargo, la compañía parece olvidar que la definición de servidor es algo más amplia. Con estos términos prohíbe el uso de diversos servicios, como redes P2P (el ordenador actúa como servidor) o la creación de un servidor privado para jugar en línea. ¿Se perseguirá este uso? Probablemente, no. Es más, la propia compañía anima a los usuarios de Fiber a crear servidores para varios de los usos que considera correctos, según se puede leer en su FAQ: Nuestros Términos de Servicio prohíben operar un servidor. Sin embargo, el uso de aplicaciones como juego multijugador, videoconferencia, seguridad del hogar y otros que podrían incluir capacidades de servidor, pero se usan con fines legales y no comerciales es aceptable y alentado. Entonces, ¿dónde está el problema? Pues, para empezar, en que en los términos no se hace esa distinción, únicamente en su sección de preguntas más frecuentes. Pero el problema es aún mayor. El verdadero peligro es la relación entre Google y la neutralidad de la red. La compañía es un gigante en el sector y todo lo que hace tiene repercusiones en la industria y en los usuarios. Antes estaba de su lado; ahora, no. Hemos pasado de ver cómo Google presumía de no ser maligna a tener que pedirle que no lo sea. Al menos, en este aspecto. Esto no quiere decir que sea una empresa eminentemente mala. De hecho, es bastante buena. Por eso duele verla actuar con esta hipocresía. Y no es la primera vez que Google y su forma de ver la neutralidad de la red causa polémica. El caso Verizon Hace casi tres años, el 9 de agosto de 2010, Google respondió a los rumores de su posible acuerdo con Verizon con una defensa conjunta de la neutralidad de la red. Una defensa que dejaba fuera las redes móviles. Cuando hasta Facebook —que está muy lejos de hacer las cosas bien— puede criticar lo que haces, es el momento de replantear tu punto de vista. Desde entonces, la relación de Google con la neutralidad de la red ha sido extraña. A veces —especialmente cuando supone atacar a sus rivales— defiende la idea con uñas y dientes; otras —sobre todo si se trata de defender su negocio—, habla de matices, asteriscos y situaciones puntuales que hay que tener en cuenta. Parece que todo se resume en permitir la libre circulación de tráfico cuando no va en contra de sus intereses. Crear servidores en casa es un uso marginal y en la mayoría de los casos los usuarios ni se enterarán de la prohibición. Otros se la saltarán sin que la compañía actúe, pues ella misma anima a que se haga este uso. Pero el caso es que la empresa ha ido en contra de las normas que debería defender. Y eso, Google, es ser malvado. alt1040.com
-
Ni eso, simplemente dijeron "agradecemos que el señor Reynolds entienda que se trataba sólo de un error"
-
Un mito que todavía tenía cierta difusión hablaba sobre la pertenencia del Copiar y Pegar a Steve Jobs y al primer grupo de trabajo de Apple. Esto, que de todas maneras tiene una explicación, ha quedado desmitificado gracias a las biografías que se han hecho sobre el verdadero inventor del copiar y pegar: Larry Tesler. Tesler fue un científico de la computación que durante la década de 1970 trabajaba dentro del departamento de informática en el Xerox PARC, un centro de innovación tecnológica con sede en Palo Alto, California. En esos tiempos, la informática hogareña era meramente un prototipo, una idea experimental que todavía tenía mucho por madurar. En ese marco fue cuando Tesler, que se encontraba trabajando en la programación de un sistema Smalltalk-76 (1973-1976), inventó un proceso por el cual se podría capturar texto y enviarlo a una memoria interna del ordenador. Con ese método, inventaba el Corte o Copiado, pero luego lo podía insertar en otro campo de texto y allí fundar el término Pasting, correspondiente a Pegado. Según se indica en una investigación del sitio Discovery News, estos términos fueron adoptados por ser los más descriptivos de la acción y como referencia a un viejo método de edición de manuscritos, en el que las palabras se recortaban manualmente de una hoja y se pegaban en otra. La confusión sobre el origen del Copy Paste y la relación con Apple llegaría porque fue esta compañía la que primero introdujo el copiar y pegar dentro de la informática hogareña, al equipar al Mac OS 1.0 con los comandos que luego se popularizarían como Command + C para copiar, +X para cortar y + V para pegar. Los primeros ordenadores que tuvieron el combo copiar y pegar fueron Apple Lisa (1981) y Macintosh (1984). En Windows llegaría más tarde, pero utilizando la tecla Ctrl como disparador del comando. Como para agregarle un poco de pimienta al asunto, la biografía de Tesler cuenta sobre cómo es que Steve Jobs realizó una visita a Xerox en 1979 y se “inspiró” en algunas ideas de aquellos científicos para luego reciclarlas y presentarlas como suyas. En ese sentido, Steve Jobs fue inventor del copy paste, si sabes a lo que me refiero. neoteo.com
-
Utilizando a Washington D.C. como modelo, Lamm convierte al WiFi en todo un arcoiris, con diferentes colores representando a cada uno de los canales, y adoptando formas esféricas que se extienden entre veinte y treinta metros. Al mismo tiempo, tal vez Lamm esté forzando un poco más de la cuenta a su interpretación del WiFi si lo comparamos con sus trabajos previos, como la Barbie “normal” con el cuerpo de una mujer promedio, muy bien recibido por su precisión. Algunas secciones en su descripción sobre el WiFi han provocado cierta incomodidad entre aquellos con un conocimiento mucho más técnico, un detalle que ha sido expresado a través de los comentarios en el sitio oficial. En otras palabras, reconocemos que el trabajo no es técnicamente correcto, pero eso no altera el hecho de que las imágenes son muy agradables a la vista. neoteo.com
-
Aunque la demanda de discos ópticos no ha desaparecido, es evidente que la tendencia de los usuarios es alejarse de esa tecnología, en favor de opciones más dinámicas como el almacenamiento Flash. Las descargas en línea también están haciendo su parte, y si bien la nube todavía posee varias limitaciones (comenzando con la velocidad), son cada vez más los que la prefieren como alternativa de respaldo. Con un mínimo de 25 GB a su favor, los discos Blu-ray son opciones muy sólidas para hacer backups, pero lo cierto es que han concentrado todo su poderío en películas y videojuegos, manteniéndose un poco aislados del uso cotidiano. A pesar de esto, y de algunas iniciativas para expandir aún más su capacidad, tanto Sony como Panasonic ya están pensando en su reemplazo. Ambos gigantes han firmado un acuerdo para desarrollar un estándar que presentará a una nueva generación de discos ópticos, con una capacidad mínima de 300 gigabytes. Bajo la variante BDXL, un disco Blu-ray puede alcanzar un máximo de 128 gigabytes, aunque en situaciones prácticas, lo más común es encontrar discos de 25 o 50 gigabytes. Un detalle curioso es que ambas empresas mencionan el llamado “formato de cartucho”, que puede contener a varios discos ópticos a la vez. Sony ya había creado algo parecido bajo su serie XDCAM, con unidades cuya capacidad oscila entre los 300 y los 1.500 gigabytes, mientras que la serie LB-DM9 de Panasonic utiliza cartuchos de doce discos con 100 GB de espacio en cada uno. La pregunta de fondo es qué tan útil resulta para el usuario final introducir un nuevo formato de discos ópticos. Se ha confirmado que 2015 será el año de su debut, por lo que todavía hay una buena espera por delante. Lo primero en lo que pensamos es la distribución física de contenido 4K. Existen algunos proyectos que buscan realizar streaming a esa resolución, pero un disco óptico de 300 GB tal vez sea un atajo más viable en el mediano plazo, hasta que la Web esté a la altura de las circunstancias. Como casi siempre, todo se reduce a una cuestión de costos. El formato Blu-ray tardó demasiado en bajar a niveles aceptables, y por más que el aumento en capacidad sea notable, de nada servirá si el hardware requerido tiene un precio estratosférico. neoteo.com
-
BioShock Infinite es sin dudas uno de los principales candidatos a juego del año. Con una increíble historia y jugabilidad, próximamente vamos a poder disfrutar de la primera de sus expansiones. Conocida como Burial at Sea, regresaremos a Rapture. ¿De qué se trata esta nueva aventura? ¿Quiénes serán los protagonistas? Mira el trailer para enterarte. Burial at Sea será el primero de dos episodios de contenidos descargables (DLC) y tendrá lugar en Rapture, la ciudad submarina que fue el escenario principal de los dos primeros juegos de BioShock. La historia transcurrirá durante la víspera de Año Nuevo en 1958, la misma noche en que estalló la guerra en la ciudad y un año antes de los acontecimientos sucedidos en el primer BioShock. Los protagonistas serán nuevamente Booker y Elizabeth donde mantendrán una relación de detective privado y cliente, muy al estilo de los policiales de cine negro, aunque ambos estarán conscientes de su relación anterior. En las dos primeras entregas de BioShock tuvimos una visión en ruinas de la ciudad de Rapture. En Burial at Sea será todo lo contrario, pudiendo presenciar en todo su esplendor a esta magnifica ciudad que brilla en el fondo del océano. Además conoceremos a nuevos personajes, incluyendo la participación de algunos viejos conocidos (¿alguien dijo Big Daddies?). En cuanto a la jugabilidad la misma ha sido modificada para darle al jugador una experiencia de combate similar al entorno visto en el BioShock original pero combinando las mejores mecánicas de BioShock Infinite. Es por eso que se añadirán nuevas armas, plásmidos y vigorizadores, desgarros y aerocarriles. Sin lugar a dudas esta primera parte del episodio descargable será de lo más interesante dándonos la oportunidad de disfrutar la verdadera ciudad de Rapture y conocer las causas de su derrumbamiento. BioShock Infinite: Burial at Sea está siendo desarrollado por Irrational Games y estará disponible próximamente para PlayStation 3, Xbox 360 y Microsoft Windows. neoteo.com
-
Microsoft liberó Windows 8.1 Preview, el cual viene con una versión preliminar de Internet Explorer 11 Preview, en su versión final Windows 8.1 vendrá con Internet Explorer 11 como su navegador por defecto y por algún tiempo será exclusivo para este sistema operativo, pero tal como ocurrió antes, Microsoft también lo pondrá a disposición de los usuarios de Windows 7. Haciendo una síntesis muy acotada de las novedades y mejoras que aportará Internet Explorer 11, tenemos un mejor soporte para pantallas y gestos táctiles, un mejor soporte para HTML5 yWebGL, facilitando además la programación de aplicaciones y páginas web, mejor rendimiento en JavaScript (hasta un 30% superior a Internet Explorer 10). Internet Explorer 11 implementará lo que Microsoft ha denominado Hibernación de pestañas, con el objetivo de ahorrar energía y recursos de CPU con aquellas pestañas que no usemos por algún periodo de tiempo, esto ayudará a mejorar la autonomía y consumo sobre todo de los dispositivos móviles como tabletas y también en computadores portátiles, la aceleración por hardware, especialmente por GPU también será mejorada para una mejor gestión de los recursos, entre otras cosas como velocidad, estabilidad, mejor sincronización entre dispositivos, administracion de favoritos en la version metro, mayor soporte de pestañas (hasta 100), seguridad, etc. No se han dado fechas, pero todo hace presagiar que Internet Explorer 11 para Windows 7 estará disponible pocos meses después del lanzamiento oficial de Windows 8.1, programado para octubre de este año madboxpc.com
-
De momento no hay mucha información al respecto, salvo que este supuesto dispositivo que prepara Google, podrá correr todos los juegos desarrollados para el sistema Android, el cual desde ya es un listado muy nutrido de contenidos, aunque de momento se desconoce que hardware utilizará. Rumores que surgen desde un informe de Wall Streen Journal, indican que el gigante de Internet Google, también estaría preparando su entrada al mercado de las videoconsolas, con un dispositivo que será potenciado por Android. Esto en adición a un reloj inteligente reportado previamente y a la próxima versión del sistema Android 5 “Key Lime Pie”. Este dispositivo estaría también enfocado en competir contra la característica AirPlay de Apple que permite correr los juegos desarrollados para iOS en una pantalla de TV de mayores dimensiones que las de los dispositivos móviles de Apple, aunque también será una alternativa en cuanto a entretenimiento a lo que ofrece Microsoft, Nintendo y Sony. Actualmente el mercado de las consolas -cualquiera sea su forma y tamaño-, ya no solo se limita a los tres grandes compañías del sector como Microsoft (Xbox), Sony (PlayStation) y Nitendo (Wii), empresas como NVIDIA (que recientemente postergo el lanzamiento de su consola SHIELD basada en Android) buscan un trozo del mercado, otros proyectos independientes como la consola Ouya o GameStick también buscan abrirse camino en el mercado. De momento es completamente incierto si esta consola de Google ofrecerá integración de servicios o integración con otros dispositivos u funcionalidades de entretenimiento más allá de los videojuegos tal como lo que ofrecen la Apple TV, Microsoft con la Xbox y Sony con la PlayStation, las cuales ofrecen por ejemplo además de los juegos, otras características como sistemas de transmisión, arriendo y descargar de música y video, conexión a Internet etc. Tendremos que esperar nuevos reportas para conocer lo que supuestamente prepara Google para el mercado de las videoconsolas. madoxpc.com
-
Situado en New York después de que una infección viral atacara la población dejándola en un caos total. En un Q&A que realizó Ubisoft, los usuarios tuvieron la oportunidad de preguntarles a los Desarrolladores cual es el futuro del PVP y el aspecto social/amigos que tendrá este título, que por ahora, no tiene fecha de salida. “El combate Jugador vs. Jugador tendrá un rol importante en nuestro juego” escribe Antoine Emond en el Blog de Ubisoft. “Las decisiones que hagas como un agente de “Division” puede ayudar a un rescate o dejar la ciudad aún más profunda dentro del caos. Las personas que conozcan en algunos lugares del juego pueden convertirse tanto en tus mejores amigos como tus peores enemigos. Tendrás que tomar decisiones constantemente que impactarán el mundo a tu alrededor.” “Exploración, objetivos y progresión del personaje son esenciales,” agrega Emond. “Puedes entrar o salir de un grupo de amigos en co-op en cualquier momento. En ciertas área también puedes entrar en PvP y experimentar escenarios donde el peligro puede llegar desde cualquier lado, y de cualquier persona.” Los usuarios además preguntaron respecto a las opciones de clanes, donde Emond respondió que por el momento no habían planes de poner un limite de miembros de un clan, y que además estaban estudiando la posibilidad de tener un sistema de comunicación entre miembros de clanes a través de la web, algo parecido a Battlelog. Por el momento The División está dentro de los juegos más esperados de la próxima generación, donde los mismos desarrolladores se han inspirado en títulos como The Last of Us y Day Z, considerando que el primero de estos dos está catalogado como una obra maestra y el juego que sentó las bases de los próximos juegos Survival. The Division está confirmado para Xbox One y PlayStation 4, con una posible llegada a PC, pero aún sin fecha de salida. Estimamos que este título llegará a nuestras manos a mediados o finales del 2014. madboxpc.com
-
Experiencia de uso. La sensación que explicaremos a continuación sobre el uso de este audífono, sera dependiente de quien los ocupe. En este apartado pretendemos explicar de la mejor manera posible la sensación que nos dejo este gran producto de parte de Razer. En el uso y respecto a su comodidad, son realmente cómodos, puedes estar con ellos durante bastante tiempo sin ocasionar sensaciones de incomodidad en los oídos o cansancio, ya que no son pesados, lo que disminuye la sensación de cargar algo en la cabeza. Respecto a la calidad de audio, durante las pruebas con videojuegos entregan un sonido limpio y potente, reproduciendo en detalle desde efectos especiales suaves como el sonido al viento de las hojas de los árboles, hasta explosiones potentes y demoliciones, sin generar distorsiones ni saturación. Al ser utilizados con contenidos multimedia, otorgan un excelente sonido, sin quedar cortos en ningun apartado en particular, otorgando una reproducción rica y clara en todas las frecuencias. En la comunicación, el microfono demuestra ser de buena calidad, registrando claramente la voz, aislando bien el ruido ambiental, permitiendo una comunicación clara y eficiente. Además por ser ajustable, otorga comodidad. Si bien para algunos, el valor de audífonos de este tipo puede llegar a ser elevado, les cuento que es totalmente acorde a las prestaciones que posee. El cable es largo, firme y resistente, fácil de mantener en orden gracias a la ayuda de un velcro. El control de volumen que posee el Razer Carcharias, es realmente eficiente y cómodo, integrado en él el volumen tanto del audio, como el de los bajos y el microfóno, además de un switch que nos permitira activar y desactivar nuestro microfóno, cuando no esté ocupándose. Conclusiones. Claramente los Razer Carcharias, mantienen con seguridad su bien ganado puesto, continuando la línea de un audífono de gran comodidad, característica que cobra gran importancia en aquellas largas sesiones de juego, y esa calidad de audio inconfundible que los hizo famosos, ahora no sólo en PC, ya que en ésta versión Razer ha hecho eco de las necesidades del gamer consolero más exigente, incorporando un adaptador para XBOX360. Lamentablemente debido a las características de estos audífonos, se requiere de una potencia de salida que una tarjeta de sonido integrada no es capaz de entregar, generando en estos casos un sonido de interferencia suave, similar a un ruido de estática que es perceptible al dejar todo en silencio, situación que podría ocasionar molestias en los usuarios más exigentes. Ese sonido también puede generarse si tenemos fuentes de poder de baja calidad, por lo que hay que estar conscientes de que este producto exige un pc de buena calidad. Especificaciones [TABLE=class: wp-table-reloaded wp-table-reloaded-id-116] [TR=class: row-1 odd] [TH=class: column-1 colspan-2, colspan: 2]Auriculares [/TH] [/TR] [TR=class: row-2] [TD=class: column-1]Respuesta de Frecuencia: [/TD] [TD=class: column-2]20 - 20.000 Hz [/TD] [/TR] [TR=class: row-3] [TD=class: column-1]Impedancia: [/TD] [TD=class: column-2]32 O a 1 kHz [/TD] [/TR] [TR=class: row-4] [TD=class: column-1]Sensibilidad (@ 1kHz, 1 V/Pa): [/TD] [TD=class: column-2]102 ± x dB a 1 kHz Max [/TD] [/TR] [TR=class: row-5] [TD=class: column-1]Potencia de entrada: [/TD] [TD=class: column-2]200 mW [/TD] [/TR] [TR=class: row-6] [TD=class: column-1]Diafragmas: [/TD] [TD=class: column-2]40 mm, con imanes de neodimio [/TD] [/TR] [TR=class: row-7] [TD=class: column-1]Diametro interno de las almohadillas: [/TD] [TD=class: column-2]50 mm / 1,97” [/TD] [/TR] [TR=class: row-8] [TD=class: column-1]Longitud del cable: [/TD] [TD=class: column-2]3 m / 9,84" [/TD] [/TR] [TR=class: row-9] [TD=class: column-1]Conector: [/TD] [TD=class: column-2]3.5 mm (auriculares) [/TD] [/TR] [/TABLE] [TABLE=class: wp-table-reloaded wp-table-reloaded-id-117] [TR=class: row-1 odd] [TH=class: column-1 colspan-2, colspan: 2]Micrófono [/TH] [/TR] [TR=class: row-2 even] [TD=class: column-1]Respuesta de Frecuencia: [/TD] [TD=class: column-2]50 - 16.000 Hz [/TD] [/TR] [TR=class: row-3 odd] [TD=class: column-1]Relación Señal Ruido: [/TD] [TD=class: column-2]50 dB [/TD] [/TR] [TR=class: row-4 even] [TD=class: column-1]Sensibilidad (@ 1kHz, 1V/Pa): [/TD] [TD=class: column-2]-37 ± 4 dB [/TD] [/TR] [TR=class: row-5 odd] [TD=class: column-1]Patrón de respuesta: [/TD] [TD=class: column-2]Unidireccional [/TD] [/TR] [TR=class: row-6 even] [TD=class: column-1]Conector: [/TD] [TD=class: column-2]3.5 mm ( Micrófono) [/TD] [/TR] [/TABLE] madboxpc.com
-
- 1
-
-
Existen algunas opciones de motores gratuitos, y con licencias que son “accesibles” en un comienzo, pero que después aplican ciertas restricciones, o requieren el pago de un porcentaje considerable, proveniente de las ventas. Ahora, quien busca colocar esos esquemas de cabeza es la gente de Havok, con su nuevo motor de juegos lanzado bajo el nombre de Project Anarchy. Sus creadores prometen un despliegue gratuito sin limitaciones comerciales, de equipo o ganancias, para crear juegos destinados a plataformas iOS, Android y Tizen, tanto en ARM como en x86. La herramientas de desarrollo en plataformas móviles continúan expandiendo los recursos disponibles para todos aquellos que buscan crear un videojuego destinado a una tablet o un smartphone. Los dispositivos tienen un poder de procesamiento cada vez mayor, abriendo más posibilidades. Y aunque disfruto mi cuota diaria de Cut the Rope como cualquier otra persona, se necesitan títulos de un calibre superior. Existe hardware muy interesante en el mercado, como el Galaxy S4 de ocho núcleos y la consola Shield de Nvidia que estará a la venta a partir de mañana (más allá de que necesite un cambio de precio urgente). Para explotar al máximo a ese hardware, los desarrolladores necesitan herramientas avanzadas, y que al mismo tiempo no demanden un riñón como pago. http://www.youtube.com/watch?v=hGuu7nzThvc Quien parece estar dispuesto a satisfacer esas condiciones es Havok, con su nuevo motor Project Anarchy. ¿Qué es lo que viene en el paquete? Por un lado, el reconocido motor de física que hemos visto en una enorme cantidad de juegos. Después aparece el Havok Vision Engine (ex-Trinigy) cuyos representantes más reconocidos aparentan ser los dos juegos de la serie Orcs Must Die!, la cuarta entrega de la serie Gothic, y Dark, que estará disponible para Windows el próximo viernes. En tercer lugar encontramos al módulo Havok Animation, presente en tanques al estilo de Alan Wake, BioShock y Skyrim. Finalmente, Project Anarchy también ofrece a Havok AI, utilizada en títulos como Guild Wars 2 y Halo 4. [video=youtube;O-g_N9BF4MQ]http://www.youtube.com/watch?v=O-g_N9BF4MQ Los pergaminos de Havok son amplios, pero Project Anarchy también debe establecer algunas condiciones para que sea atractivo. Sus responsables logran esto al declararlo completamente gratuito, sin importar el tipo de proyecto, la cantidad de personas involucradas o las ganancias finales. Claro que, ya sabemos cómo es esto en realidad. Lo que piden a cambio de Project Anarchy es, en primer lugar, que el desarrollador considere ser parte de la comunidad. Segundo, la posibilidad de hacer cierto “co-mercadeo” a la hora de lanzar el juego (una de las aclaraciones es que “no muerden”), aunque reconocen que no serán capaces de trabajar con todos los que lancen un juego al mercado. Y en tercer lugar, la licencia requiere la creación de una versión x86 del juego, en caso de que esté destinado a sistemas operativos compatibles con esa arquitectura, como Android. Hasta allí llega la licencia gratuita, pero si el desarrollador necesita más (como licencias para Windows Phone y la Xbox 360), habrá disponible un paquete Pro. Si deseas descargarlo, el enlace al sitio oficial está más abajo. http://www.projectanarchy.com/ neoteo.com
-
Con la proliferación de WebKit (incluyendo el giro de Opera hacia ese motor y el código de Chromium), las diferencias a la hora de implementar estándares y el efecto de los dispositivos móviles, ya no alcanza con un reporte de Acid3. Una opción muy conocida para medir el rendimiento de JavaScript es SunSpider, pero el benchmark Peacekeeper desarrollado por la gente de Futuremark no se queda atrás. Una de las novedades en Peacekeeper es que ha incorporado un método especial para determinar con mayor precisión la duración de la batería en un dispositivo móvil, o una portátil. En estas horas he recibido la última actualización de Firefox, que lleva al navegador a la versión 22. Por simple curiosidad decidí someterlo a una prueba bajo SunSpider, y descubrí que existe una nueva edición (oficialmente 1.0) desde finales de abril. El nuevo SunSpider colocó a mi copia de Firefox 22 en el orden de los 220 milisegundos, unos 20-25 milisegundos por detrás del último build estable de Chrome. El margen de error presente en estas mediciones implica que ambos navegadores están prácticamente empatados. Este equilibrio ha hecho que las pruebas sobre los navegadores web hayan perdido un poco de “popularidad”, si se lo quiere llamar así. Pero nunca está de más tener una alternativa al alcance de la mano. Una de las mejores es Peacekeeper, cuyo desarrollo es responsabilidad de Futuremark. El sitio oficial indica que Google Chrome es el “rey de la colina” desde septiembre de 2011, pero con los ajustes que ha recibido Firefox, es posible que eso cambie pronto. Peacekeeper es compatible con navegadores web bajo Windows, Linux, OS X, Android, iOS, y en esencia cualquier sistema operativo con la capacidad de ejecutar un navegador web moderno, que incluya soporte HTML5. Las pruebas individuales son nueve en total, y al final de la evaluación, el resultado es publicado junto a otros valores provenientes de diferentes dispositivos, como el iPad, la tablet Nexus 10 y los dispositivos Galaxy de Samsung. Algo de mucha utilidad para dispositivos móviles y tablets es la prueba de duración de batería, a la cual se accede desde la página principal, en un enlace que se encuentra bastante escondido. Esta prueba requiere tomar nota de un código, y dejar el benchmark en ejecución hasta que la batería se agote. Al regresar a la página, el usuario ingresa el código y recibe los detalles completos de la sesión. Peacekeeper parece un método más que razonable para medir la duración “real” de una batería, aunque reconocemos que dejar encendido a un sistema sin tocarlo por varias horas, esperando a que se apague por sí solo, no es para cualquiera. Peacekeeper - free universal browser test for HTML5 from Futuremark neoteo.com
-
Razer anunció la nueva generación de sus lujuriosos notebook Razer Blade y Razer Blade Pro, los cuales se han actualizado con CPU Intel Core de Cuarta Generación (Haswell) y las nuevas GPU móviles NVIDIA GeForce GTX 700M series. A estas alturas está un poco de mas hablar de las características especiales y exclusivas de estos notebooks, pues en notas anteriores ya les hemos hablado de su bondades, los cuales de inmediato llaman la atención debido a su estilizado diseño con un grosor de solo 0.88 pulgadas y a la pantalla LCD denominada “Switchblade User Interface” que puede ser usado como un panel multi-touch y proveer diversa información in-game y también como un lanzador de aplicaciones. El modelo Razer Blade Pro posee una pantalla LED de 17.3 pulgadas con resolución de 1920 x 1080P, con un procesador Intel Core de cuarta generación que por razones de NDA no revela el modelo, además de una tarjeta NVIDIA GeForce GTX 765M con gráficos integrados HD 4600, 8GB de memoria DDR3L-1600 MHZ, un SSD de 128 GB con la opción de ampliarlo a un SSD mSATA de 256 GB o 512 GB, además de un controlador de RED Qualcomm Killer NIC N1202 (802.11a/b/g/n + Bluetooth 4.0), teclado retro iluminado entre otras características que se resumen al final de la nota. Por su parte el modelo Razer Blade cuenta con similar hadware salvo que no cuenta con la pantalla “Switchable User Interfaz” y su pantalla LED es de sólo 14 pulgadas con resolución de 1600 x 900 pixeles y una cámara web con un poco menos de resolución que el modelo PRO. Algo destacable de estos equipos es el precio, que aunque es muy alto, al menos Razer ha ido bajando poco a poco el precio de lanzamiento de estos equipos. Por ejemplo la primera generación de Razer Blade con CPU “Sandy Bridge” tenían un precio de US$ 2.799, la segunda generación basada en CPU “Ivy Bridge” tenían un precio de US$ 2.499 y esta nueva generación de equipos tiene un precio de US$ 2.299 (Blade Pro) con hardware más potente en cada iteración cabe destacar. Por su parte el modelo Razer Blade tiene un precio base de US$1,799. Estos equipos estarán disponibles a contar del 3 de junio para pre-compra. Price: Starts at $2,299 Availability: Razerzone.com – Pre-Order June 3 United States and Canada Product features: Future 4th gen Intel Core processor (formerly codename ‘Haswell’) 8 GB DDR3L (2 x 4 GB 1600MHz) NVIDIA GeForce GTX 765M (2 GB GDDR5) & Intel HD4600 Windows 8 64 Bit 128 GB SSD, with optional 256/512 GB SSD (mSATA) Qualcomm Killer NIC N1202 (802.11a/b/g/n + Bluetooth 4.0) 17.3-in. Full HD 16:9 Ratio, 1920 x 1080, with LED backlight Stereo 2.0 speakers 3.5 mm audio microphone/headphone combo jack HD Webcam (front-facing, 2.0 MP) Array microphones (3x) USB 3.0 port (SuperSpeed) Codec supports 7.1 (via HDMI 1.4) Dolby Home Theater v4 Razer Anti-Ghosting Keyboard (with adjustable backlight) Razer Switchblade User Interface Razer Synapse 2.0 Enabled Built-in 74 Wh Rechargeable lithium ion polymer battery Kensington Lock 16.8 in. / 427 mm (Width) x 0.88 in. / 22.4 mm (Height) x 10.9 in. / 277 mm (Depth) 6.58 lbs. / 2.98 kg Más información en Razer. madboxpc.com
-
En el marco de la Computex 2013, Corsair también ha aprovechado la competición de Overclock para anunciar sus nuevas memorias de alto rendimiento Corsair Vengeance Pro Series, enfocadas netamente en el público entusiasta, overclockers y ensambladores de sistemas de alto rendimiento. Disponibles inicialmente en capacidades de 8GB hasta 64 GB y velocidades desde 1600 MHz hasta 2933 MHz, especialmente diseñadas para funcionar a pleno rendimiento con plataformas Intel Core de Cuarta Generación (Haswell), pero también con generaciones previas de procesadores Intel (Sandy Bridge, Ivy Bridge) y también plataformas AMD. Estas nuevas memorias de Corsair están construidas utilizando un PCB de 8 capas y chips especialmente seleccionados para alcanzar altas velocidades y con gran margen para el overclock y como toda la línea Vengeance estas memorias incorporan perfiles Intel XMP 1.3 (Intel eXtreme Memory Profile) para fijas valores automáticos de overclock. Además del alto rendimiento las nuevas Corsair Vengeance Pro Series incorporan un nuevo y llamativo diseño para el disipador (heatsink) que combina negro y gris con tonos rojo, azul y plateado para una mayor combinación con las tonalidades de las placas madres de los principales fabricantes del mercado. Corsair también ha lanzado un nuevo ventilador para estas memorias el Vengeance Pro Airflow Fan que se vende por separado. Technical Specifications Unbuffered DDR3 SDRAM in 240-pin DIMM Aluminum heatsinks (44mm high) 8GB, 16GB, 32GB and 64GB (2×4, 4×4, 2×8, 4×8, 8×8) 1600MHz, 1866MHz, 2133MHz, 2400MHz, 2666MHz, 2800MHz, 2933MHz (requires 4th Gen Intel Core processor) Intel XMP 1.3 (Extreme Memory Profile) support Black with silver, blue, red, or gold accents Optional Vengeance Pro Airflow Fan Single 60mm ball-bearing fan, speed variable from 2500RPM to 3500RPM Noise level of 21.0 dB(A) at low speeds to 25 dB(A) at high speeds Fan life of 80,000hrs at 25 degree Celcius Variable mounting brackets adjustable between socket formats Replaceable fan shroud cover in red, blue and silver Pueden revisar los precios, especificaciones y características de cada KIT de memorias Vengeance Pro Series en la página de Corsair. madboxpc.com
-
Con una temática futurista, AMD presenta este video donde nosotros, los consumidores, presenciamos la batalla entre las 2 fuerzas, INTEL los monstruos azules que destruyen el mundo, y AMD, el escuadrón de chicos buenos que nos vienen a proteger. Toda esta batalla es para dar a conocer que las APU de AMD, específicamente las nuevas basadas en el núcleo Richland, son las mejores. Claro que la comparan contra el IGP de Ivy Bridge y una configuración Ivy (Core i5 3470) + Nvidia GT630. madboxpc.com
-
El nuevo Beta constará con parches y mejoras que fueron implementados luego del feedback recibido por los usuarios en la fase Beta Privada, así que si ya lo has probado es una buena oportunidad para ver los cambios de esta nueva versión. Otra buena noticia, es que si te gustó el Beta y decides comprar el videojuego el momento de su lanzamiento podrás mantener todo tu progreso, cosa que no es común en los Betas. CoH2 constará con una nueva versión del motor gráfico Essence Engine, que ofrecerá nuevas características y avances tecnológicos. Los protagonistas esta vez será el ejercito soviético y vivirás las experiencias del Teniente Lev Abramovich Isakovich.
-
La arquitectura AMD “Jaguar” para ambas consolas.En efecto, AMD ha ganado por partida triple la mano a NVIDIA al asegurarse de proveer los chips para las tres consolas del mercado, primero con la Nintendo Wii U que utiliza hardware AMD, aunque más antiguo que el de la PlayStation 4 y Xbox One que utilizan la nueva plataforma de bajo consumo AMD “Jaguar” de arquitectura 64-bit x86 y gráficos GCN (Graphics Core Next). Este es un chip personalizado que cuenta con dos unidades de cómputo o módulos “Jaguar” cada una con cuatro núcleos o cores independientes que comparten 2MB de cache L2, la combinación de ambos les da tanto a la Xbox One como la PS4 una CPU con ocho núcleos y 4 MB de cache L2. Además cada hilo de la CPU cuenta con su propio cache L1 de 32KB para instrucciones y 32 KB de cache L1 para datos. Aunque la arquitectura es la misma, difieren un poco de los chips destinados al mercado de computadores e incluso el hardware de la PS4 y la Xbox One, a pesar de ser la misma plataforma también tienen sus diferencias, a priori todo indica que la Xbox One posee un hardware menos potente que la PlayStation 4. [h=2]La configuración de hardware de la Xbox One y PlayStation 4.[/h]En términos muy generales, el chip de la PlayStation 4 combina 8 núcleos “Jaguar” 64-bit x86 funcionando a una frecuencia de 1.60 GHz (aprox) con ejecución OoO (Out-of-Order) o fuera de orden, con una GPU AMD Radeon con 1152 stream processors organizados en una configuración GCN de 18 Compute Unit, con 32 ROPs y 256-bit de ancho para una interfaz de memoria unificada GDDR5 operando a 5.50 GHz. A Esta velocidad el chip obtiene un ancho de banda total de 176 GB/s. Por otra parte, el chip de la Xbox One (revelada hace poco por Microsoft) utiliza la misma plataforma “Jaguar” con 8 núcleos OoO operando a 1.60 GHz, pero con una GPU un poco menos potente, ya que esta cuenta solamente con 768 Stream Processors organizados en una configuración GCN de 12 Compute Unit, (388 Stream Processors y 6 CU menos que la PS4), con una configuración de 8 GB de memorias DDR3-2133 MHz en quad-channel, que ofrece un ancho de banda de 68.3 GB/s. La memoria entre los dos subsistemas (CPU y GPU) son compartidos de una manera similar que la PS4 en la Xbox One, pero con algunas pequeñas diferencias. Esta diferencia entre la –misma- GPU de la Xbox One y la PlayStation 4, repercute sin duda en el poder de ambas consolas, aunque ambas GPU operan aparentemente a 800 MHz, la reducción en el número de stream processors, le disminuye en un 33% el poder de cómputo a la Xbox One respecto a la PS4, con un poder de cálculo en operaciones de punto flotante en precisión simple de 1.23 TFLOPS para la Xbox One y 1.84 TFLOPS para la PS4. De todos modos para la Xbox One estamos hablando de aproximadamente 5 veces el rendimiento punta teórico de la actual Xbox 360. [h=2]Sub-sistema de memoria.[/h]Otra de las diferencias en el hardware entre la PlayStation 4 y la Xbox One es el subsistema de memorias, aunque ambas consolas cuentan con 8 GB de memoria total para el sistema, hay diferencias en las modificaciones hechas por Sony y Microsoft en sus respectivas consolas. Sony ha optado por un SoC/APU que utiliza memorias GDDR5 con una interfaz de 256-bit operando a 5.5 GHz, entregando -como ya mencionamos en los párrafos previos- un ancho de banda de 176 GB/s, esto es el ancho de banda que entregaría una tarjeta de video de cerca de US$ 300. Por su parte la Xbox One también utiliza una interfaz de 256-bit (quad-channel 128 + 128-bit) con memorias DDR3, que según fotografías publicadas por Wired, se trata de memorias Micron DDR3-2133 DRAM. Esto le proporciona a la Xbox One un ancho de banda de 68.3 GB/s para el sistema de memoria, pero para acortar las diferencias de ancho de banda con la PS4, Microsoft ha agregado un sistema SRAM on die, es decir, dentro del chip con 32MB de 6T-SRAM, con esta cantidad que parece ínfima es más que suficiente para funcionar como un cache de almacenamiento que impulse el rendimiento. De acuerdo a los datos, en la Xbox One tenemos 50 GB/s de ancho de banda en cada dirección desde el SoC a la memoria SRAM, dando un total de 102 GB/s los que sumados al ancho de banda del sistema de memoria principal (68.3 GB/s) tenemos un ancho de banda punta combinado de 170 GB/s para la Xbox One, lo que la acerca a los 176 GB/s de la PS4. [h=2]Sistema Operativo.[/h]Ambas consolas difieren en software, mientras la PlayStation 4 corre un sistema operativo derivado de Unix con soporte para OpenGL 4.2, la Xbox One utiliza un sistema operativo más familiar para los desarrolladores basado en el kernel de Windows NT 6.x de 64-bit, corriendo la API DirectX 11, como era de esperarse, ya que es la API propietaria de Microsoft. Pero la Xbox One posee dos sistemas operativos independientes corriendo bajo una versión especial de Microsoft Hyper-V Hypervisor, por una parte el Xbox OS y el otro sistema basado en el Kernel de Windows. Mientras el Xbox OS es utilizado para correr los juegos, el otro sistema basado en el Kernel de Windows administrará todas las aplicaciones como así también asuntos relativos al procesamiento de las entradas del sensor Kinect. El hecho de que ambos sistemas estén montados sobre un software de virtualizacion, ambos están corriendo de manera simultánea todo el tiempo, permitiendo cambiar de uno a otro (juegos a aplicaciones y viceversa) sin que el usuario lo note. Los 8 GB de memoria de la Xbox One apunta también asoportar no sólo algunos requerimientos del hardware en las transacciones, sino que también para el sistema operativo y las aplicaciones o el software en general. [h=2]Retro compatibilidad y desarrolladores.[/h]En el caso de la Xbox One el moverse desde una arquitectura PowerPC 64-bit (Xbox 360), a una arquitectura de núcleos AMD “Jaguar” en la forma de un SoC/APU, significa lamentablemente que se quiebra la retro compatibilidad con los juegos de la Xbox 360, algo que ya citamos en el artículo de presentación de la Xbox One, aunque claro los desarrolladores de videojuegos podrían portar viejos títulos de la Xbox 360 a la nueva consola, aunque eso demanda un esfuerzo adicional, incluso les sería más fácil portal juegos de la vieja Xbox a la Xbox One debido a las similitudes de la arquitectura. Este esfuerzo adicional se contrapone con la tarea que ahora tienen los desarrolladores, ya que por el hecho de que ambas consolas se basen en el mismo hardware, será (en teoría) más fácil la terea de desarrollar juegos para ambas plataformas, aunque una se base en Open GL y la otra en DirectX 11, lo mismo para portar títulos de una plataforma a otra. Haciendo la situación incluso mejor ambas soportan discos Blu-Ray y cuentan con 8GB de memoria, por lo tanto, los desarrolladores pueden crear videojuegos para ambas, sin tener que gastar demasiados recursos en el desarrollo de títulos, lo cual es una buena noticia sin dudas. [h=2]Consumo y disipación. [/h]El hecho de que ambas consolas, tanto la Xbox One como la PlayStation 4 compartan el mismo hardware, también comparten las mismas ventajas y características del hardware integrado, como sabemos, la arquitectura “Jaguar” de AMD posee grandes avances en lo que respecta a consumo, de hecho está ideada como una plataformas de bajo consumo con técnicas de ahorro de energía como los nuevos estados de energía “Power States” que permiten incluso apagar los núcleos cuando estos no están siendo usados para bajar la disipación y el consumo de la (s) consola (s). En este contexto tanto la Xbox One y la PlayStation 4 pueden desactivar la alimentación para los núcleos de la CPU, pero no sólo esto, ya que la arquitectura GCN también soporta esta técnica por lo que teóricamente parte de la GPU también pueden ser desactivada. El escalamiento dinámico de frecuencia/voltaje también es soportado, esto les da la ventaja a ambas consolas respecto a sus antecesoras la Xbox 360 y la PS3 que no poseen mecanismos tan avanzados para ahorro de energía. En teoría la Xbox One debería ser un poco más eficiente en consumo que la PlayStation 4, los 388 Stream Processors y 6 CU menos deberían darle a la Xbox One una leve ventaja en términos de consumo y disipación, aunque de momento no hay como comprobarlo pues en términos generales también influyen los demás componentes integrados. [h=2]Palabras finales.[/h]La guerra por las consolas de nueva generación estará muy pareja en cuanto a hardware, pues ambas se basan en la misma plataforma de bajo consumo diseñada por AMD. Si bien es cierto y por lo que podemos ver con los datos que actualmente tenemos a disposición, la PlayStation 4 de SONY contará con hardware un poco más potente que la Xbox One de Microsoft, por contrapartida la Xbox One podría ser un poco más eficiente en consumo. Bajo esta perspectiva Sony puede que haya tomado cierta ventaja, pues el hecho de poseer hardware más potente (por poca que sea la diferencia) ya es un indicador que podría inclinar la balanza en la elección de los consumidores, aunque este no es el único indicador también influyen en la decisión, los títulos (juegos) disponibles para cada consola, los servicios asociados, las características exclusivas y sobretodo el precio que es uno de los elementos importantes a a considerar El desarrollo de videojuegos también se facilita con ambas consolas compartiendo la misma plataforma o arquitectura, ya que la tarea de desarrollar videojuegos para una u otra plataforma será una tarea en teoría más expedita. Ya veremos cual consola triunfa sobre otra… aun falta que ambas se pongan en el mercado y que paseen algunos meses antes de hacer pronósticos de ventas, lo que está claro es que ambas representan una gran evolución en términos de hardware respecto a sus respectivas antecesoras, algo esperable para un ciclo de renovación de 8 años en el mercado de las consolas. madboxpc.com
-
Anti-Aliasing: Esta es una de las opciones que más recursos requiere, ya que renderiza múltiples veces una imagen para luego desenfocar los bordes y simular una resolución mayor a la cual se está usando. Con esto, los pixeles que se encuentran al borde de los objetos se suavizan logrando una imagen más definida y con menos terminaciones de serrucho (pixeladas). MSAA: (Multisampling Anti-Aliasing) Este tipo de Anti-Aliasing toma muestras de sombreado, textura y color en los pixeles frontera de los elementos, generando un promedio entre todas las muestras para luego aplicarlas. El MSAA solo afecta a los bordes y no a la parte interna del objecto, sin embargo, es mucho más rápido que el SSAA. QSAA: (Quincunx Super Anti-Aliasing) Una mejora al MSAA. 2x QSAA equivale a 3x MSAA en términos de calidad. SSAA/FSAA: (Super Sampling Anti-Aliasing o Full Screen Anti-Aliasing) Funcionan de manera similar y lo que hacen es renderizar la imagen a mayor resolución, tomar pixeles específicos y luego achicar la imagen a la resolución en la que se este jugando. Esto afecta a toda la pantalla y no solo a los bordes como el MSAA. FXAA: (Fast Approximate Anti-Aliasing) Un tipo de anti-aliasing que utiliza menos recursos pero disminuye la calidad de las texturas ya que las hace más borrosa. API: Software de renderizado. DirectX 9 o DirectX11 son los más comunes. Depth of Field/Profundidad de campo: Es que tan definido está objeto entre el plano más cercano y el más lejano. Esto sirve para dar mayor énfasis a ciertas partes de una imagen creando un desenfoque gradual o agresivo. En videojuegos sirve para renderizar o no objetos que están a una distancia muy lejana, y así conservar recursos. Ambient Occlusion/Oclusión ambiental: Similar al shading pero trabaja con la luz, teniendo en cuenta las superficies que pueden o no reflejarla como también su atenuación en modelos 3D. Motion Blur/Desenfoque de movimiento: Este efecto sucede cuando un objecto que está dentro de la imagen cambia de lugar dejando un rastro de su anterior posición, creando un efecto de desenfoque y movimiento. . Physics Quality/Físicas: Característica de los objetos dentro de un videojuego que simula el peso o velocidad en tiempo real. Con esto los objectos son capaces de rebotar, disminuir/aumentar velocidad o hasta flotar dependiendo de sus cualidades. Post Processing/Post procesamiento: El post processing se refiere al segundo render o retoque de imagen que se realiza después del primer render que se graba en un buffer de la memoria de la vga. El primer render trabaja la imagen total generando una textura, que después se carga y se vuelve a renderizar con efectos como luz, sombreado o desenfoque. Estos efectos pueden ser Motion Blur o la profundidad de campo y pueden afectar a solo algunas partes de la imagen pero utilizando el primer render guardado en el buffer. Particles/Particulas: Cantidad de partículas que salen de una acción o elemento. Por ejemplo, cenizas de una fogata o chispas que salgan cuando una bala choca con una superficie metálica. Esta opción gráfica se aumenta drásticamente con tecnología PhysX de Nvidia. Refresh Rate/Taza de refresco: Esta es una características de los monitores que refiere a cuantas veces se escribe nueva información dentro de un segundo. Los monitores tradicionales poseen una taza de refresco de 60Hz, y en cuanto a los de gama alta, pueden llegar hasta los 240Hz. ¿Hay alguna diferencia si juego a 60, 80 o 120 FPS en un monitor de 60Hz? No hay diferencia alguna, ya que si nuestro juego corre a 120 FPS el monitor solo es capaz de dibujar la imagen 60 veces por segundo, en cambio si nuestro monitor es de 120Hz, sí notaremos la diferencia con movimientos mucho más fluidos. Shading/Sombreado: Sombreado para modelos 3D. Shadow Quality/Calidad de sombras: Como dice su nombre, esto aumenta la calidad de las sombras haciéndolas más definidas. Tessellation/Teselado: Es la capacidad de dividir polígonos en otros más pequeños para crear modelos e imágenes más reales y curvas más fluidas. Texture Filtering/Anisotropic/ Filtro de texturas: Aumenta el detalle de las texturas vistas desde ángulos. Textura Quality/Calidad de texturas: Está opción nos sirve para aumentar o disminuir los detalles de las texturas de un juego. Esto afecta tanto armas y personajes como objetos del ambiente. V-Sync/Sincronización vertical: Sirve para sincronizar los FPS (Frames per seconds/Cuadros por segundo) con la taza de refresco del monitor. Esto para prevenir defectos gráficos como screen tearing o cortes bruscos. Hoy en día las tarjetas gráficas son capaces de generar muchos cuadros por segundo, lo que hace que la taza de refresco del monitor (tradicionalmente 60hz) se desincronize y surjan problemas como los anteriormente mencionados, sin embargo, aunque el V-Sync nos genere un tope de FPS, esto no disminuirá nuestro rendimiento gráfico. madboxpc.com
-
Bienvenidos iPhone usados a LatinoAmerica!!
-
League of Legends registra una actividad diaria de doce millones de usuarios, con picos que en determinados momentos ascienden a tres millones de usuarios simultáneos. Imagino que en la actualidad esos números deben ser un poco más altos, pero dejando a un lado las estadísticas, lo que nos trae aquí hoy es un nuevo corto animado, conocido como A Twist of Fate. Los veteranos de League of Legends no tendrán problema alguno en reconocer a los campeones que participan en el vídeo, pero incluso quienes no contamos con una amplia participación dentro del universo LoL podemos apreciar la calidad del corto, y el esfuerzo requerido para desarrollarlo. Lamentablemente no he tenido el privilegio de jugar League of Legends (aunque conozco un poco de su “lore”). De hecho, lo mismo podría decir de otros juegos en línea que gozan de una amplia popularidad, y cuentan con millones de seguidores. Un tema bastante recurrente que he detectado en el universo de League of Legends es que una cierta fracción de sus jugadores tiende a ser “demasiado colorida” con el resto de los participantes, provocando inevitables roces del tipo social. Básicamente, en Riot Games, empresa que desarrolla a League of Legends, no creen que todos los jugadores sean problemáticos por naturaleza, y el llamado “sistema Tribunal” busca comprobar eso (entre otras cosas). Sin embargo, se trata de apenas un mecanismo entre los que Riot Games tiene a su alcance para demostrar que League of Legends es mucho más que un caldo de cultivo para trolls. Es un mundo rico y dinámico, con 113 campeones (hasta ahora) que se adaptan a casi cualquier estrategia. [video=youtube;o-c4TdGrs6Q] neoteo.com
-
La primera versión oficial y estable de Ubuntu (4.10 “Warty Warthog”), fue presentada al público el 20 de octubre de 2004. Exactamente dos meses antes, Mark Shuttleworth reportó el bug número uno de Ubuntu, con el título: “Microsoft tiene una porción mayoritaria del mercado”. Y casi nueve años después, ese bug ha sido cerrado por el propio Shuttleworth. Las razones principales que defienden el cierre son la aparición de los dispositivos móviles, la presencia de Android, y la existencia de un mercado mucho más competitivo, en el que Microsoft es una opción más. Recuerdo aquellos días en los que Internet Explorer prácticamente gobernaba el mercado. La consecuencia más grave de esa condición fue el completo estancamiento evolutivo en el que cayeron los navegadores web. Más allá de la oportuna intervención de Firefox, esto no es más que otro ejemplo de lo malo que puede llegar a ser la ausencia de una buena competencia. Nadie niega que Microsoft sea un gigante, y que haya aportado ideas extraordinarias al mundo de la informática, pero también son necesarios otros puntos de vista. En agosto de 2004, Mark Shuttleworth hizo mención a la posición de privilegio de Microsoft en el primer bug registrado de Ubuntu, cuyo título en inglés es “Microsoft has a majority market share”. Hasta los pasos para encontrar el bug fueron incluidos: Visita una tienda que venda ordenadores, y trata de adquirir uno sin software propietario. Los dispositivos móviles y Android, principales responsables del cierre. En la imagen, un Nexus 4. Siendo honestos, el bug puede ser reproducido aún en estos días. Ayer hice una breve visita a la sección de electrónica en un supermercado local, y absolutamente todos los ordenadores que estaban a la venta tenían Windows preinstalado. Pero Shuttleworth ha llegado a la conclusión de que el bug debe ser cerrado. El mercado informático cambió radicalmente desde el año 2004, y aunque cueste creerlo, Windows ya no es la opción dominante. La manifestación de los dispositivos móviles ha alterado el entorno por completo, y tanto iOS como Android se instalaron por mérito propio como sólidas alternativas para millones de usuarios. Shuttleworth admite que Android tal vez no sea su primera elección de Linux (o la nuestra), pero no por eso hay que dudar de su condición como plataforma open source, con “beneficios prácticos y económicos para los usuarios y la industria”. Shuttleworth también destaca que incluso Microsoft se ha adaptado a este cambio, y da como ejemplo lo bien que funcionan Ubuntu y otras distros Linux bajo Azure. Este proceso de adaptación también se ha hecho evidente en el mismo Ubuntu, con cambios en su interfaz, una mayor interacción con la nube, y la intención de unificar versiones para diferentes plataformas de hardware. Entre los sistemas de escritorio puede que la presencia de Linux siga siendo baja, pero si nos guiamos por las palabras de Shuttleworth, la condición esencial para la existencia del Bug 1 de Ubuntu ha desaparecido. neoteo.com
-
Al igual que en Need for Speed: Most Wanted, el corredor tendrá como objetivo ser la persona más famosa detrás del volante, mientras que los policías trabajarán juntos para sacar de la carretera a los pilotos callejeros. Podremos recorrer el condado de Redview libremente como si de un mundo abierto se tratase. El área contará con varios saltos, atajos y coches desbloqueables. Need for Speed: Rivals tendrá un nuevo sistema llamado All-Drive, una novedad en la saga donde podremos unirnos en una partida en línea que ya haya comenzado sin tener que esperar a que ésta termine, apareciendo en medio de una persecución con los demás jugadores. Las carreras de Need for Speed: Rivals transcurrirán en el ficticio condado de Redview, donde la rivalidad entre policías y corredores callejeros nunca cesa y ambos bandos pilotan al límite para ganarse seguidores y aliados en una guerra mediática sin cuartel. Los jugadores podrán asumir el papel de un corredor o de un policía, donde cada bando tiene su propio conjunto de desafíos, riesgos y beneficios. Pero lo principal será nuestro coche, totalmente personalizable a nuestro gusto con nuevas pinturas, decoraciones, llantas, entre varios detalles más, pero principalmente con las últimas mejoras para potenciar nuestro vehículo para ser el más rápido de todos. neoteo.com
-
Es imposible negarlo. Cuando por fin tuvimos frente a nosotros el diseño de la nueva Xbox, nuestras cejas bailaron sobre nuestras frentes al tratar de comprender por qué una consola de nueva generación, presentaba un factor de forma que la igualaba a las videocaseteras de los 80. Los murmullos en la conferencia se convirtieron en comentarios en los medios de comunicación, para luego convertirse en motivo de chistes y críticas en las redes sociales y sitios web especializados. Sin embargo, entre orgullosos y sorprendidos por la recepción, Microsoft decidió lanzar videos y artículos mostrando el porqué del diseño de Xbox one y sacando a relucir aspectos del mismo que por estar tan distraídos con el tv (guiño, guiño), los consumidores no captamos. Hete aquí algunos de los detalles: El diseño de Xbox One Una de las frases más importantes de la presentación de este video es que la Xbox One fue diseñada para ser simple y acogedora, mientras se mantiene en sintonía con los componentes internos de la consola, lo que garantiza un rendimiento impecable. Como dice Microsoft, la única manera de lograr esto era construir una Xbox One como un sistema integrado desde el principio. Así es que hardware y software fueron desarrollados en conjunto con un nuevo lenguaje de diseño unificado. “Hemos querido pensarla desde una perspectiva holística,” dijo Ramiro Torres, Director Creativo de Diseño, en Xbox One. El lenguaje de diseño, que utiliza una serie de adorno tipo baldosas y movimiento fluido, se empapa en el mismo ADN que Modern UI, el lenguaje común compartido por los productos de Microsoft, como en Windows 8 y Microsoft Surface, prontos a ser modificados ligeramente por Windows 8.1. Interesante fue la inspiración que tomó Microsoft para crear la Xbox One, ya que según su equipo de diseño, el formato 16:9 es el que utilizamos para ver el contenido hoy día y la forma física del mismo también provoca la misma sensación agradable al ojo. En la interfaz, Microsoft impuso los bloques grandes y separados, conservando el 16:9 en la imagen y jugando un poco con la proporción áurea, tan utilizada en la fotografía y sus derivados. El color de la consola es conocido como un “negro líquido”, el negro más negro de la paleta. Tomando la misma lógica de diseño de los electrodomésticos de vanguardia tecnológica, los colores oscuros acentúan el contenido y aportan a la experiencia de entretenimiento sin distraer con colores llamativos que salgan a primer plano dejando las pantallas. A su vez, los controles abusan de la oscuridad para resaltar más los botones X, Y, B, A. El equipo de diseño, con base en Redmon y con expertos con más de 15 años de trabajo en el área, creó 200 modelos de mando de control antes de que el equipo llegase al diseño final de Xbox One. El detalle en el diseño fue al máximo, y según Microsoft, las dimensiones del controlador se refinaron microscópicamente, para asegurar el mejor ajuste y comodidad en las manos de los jugadores. Además de todos esos modelos de mandos, se hicieron un centenar de versiones diferentes de Kinect y cientos de prototipos de consola. Microsoft cerró el artículo diciendo que “mucha gente puede no notar algunos de los pequeños detalles de diseño, pero nos sentimos orgullosos de nuestra artesanía”. A mí me sigue pareciendo una videocasetera. Perdón, Microsoft. neoteo.com