Smartphones

Introducción

Se puede decir que un smartphone es un teléfono móvil que te permite llevar a cabo acciones propias de una PDA, más allá de llamadas de voz y sms. La potencia de cálculo de un smartphone es comparable a la de un ordenador de escritorio o portátil. El primer smartphone de la historia fue el IBM Simon. Fabricado en 1992 y distribuido por EEUU
entre agosto de 1994 y febrero de 1995, tenía un precio de 899 dólares. Los primeros smartphones combinaron funciones de asistente digital personal (PDA) con cámara de fotos y navegador GPS, pero ahora incluyen conexión a internet vía WIFI o red móvil para la navegación por la web, videollamadas, visionado de correo electrónico (E-Mail), reproductor
multimedia, etc…

Hoy en día todo un arsenal de tecnología se funde en estos aparatos que nos han cambiado la vida y la forma de relacionarnos en un periodo de tiempo muy corto.

Índice

Volver al índice

¿Qué es un smartphone?

Se puede decir que un smartphone (del inglés smart: inteligente y phone: teléfono), es un teléfono móvil que te permite llevar a cabo acciones propias de una PDA (Personal Digital Assistant o Asistente digital personal), más allá de lo fuera de lo común en todos los móviles, es decir, llamadas de voz y SMS (Small Mensage Service – Servicio de mensajes cortos).

La potencia de cálculo de un smartphone es comparable a la de un ordenador de escritorio o portátil, además deben de ser capaces de ejecutar un sistema operativo móvil (SO móvil) completo e identificable, este SO para móviles ha de tener su propia plataforma de desarrollo de aplicaciones y permitir que estas tengan una mejor integración con el software base y el hardware del teléfono.

Los primeros smartphones combinaron funciones de asistente digital personal (PDA) con cámara de fotos y navegador GPS, pero ahora incluyen conexión a internet vía WIFI o red móvil para navegar por la web, videollamadas, visionado de correo electrónico (E-Mail), reproductor multimedia, etc…

 

Primer smartphone de la historia.

El primer smartphone de la historia fue el IBM Simon. Fabricado en 1992 y distribuido por EEUU entre agosto de 1994 y febrero de 1995, tenía un precio de 899 dólares, con una interfaz de usuario ausente de botones físicos y basada totalmente en una pantalla táctil de tipo LCD monocromo.

Disponía de texto predictivo, agenda, funciones de SMS, correo electrónico, busca(beeper), fax y un módem para conexión a internet, estas funciones eran más comunes de una PDA que de un móvil de la época.

Mostraba un teclado QWERTY en pantalla desde el cual se podían introducir el texto estándar o predictivo.

Ibm Simon con teclado númerico.

Fue un teléfono móvil revolucionario, diseñado y construido por una unión empresarial entre la International Business Machines Corporation (IBM es una empresa multinacional estadounidense de tecnología y consultoría con sede en Armonk, Nueva York, fabrica y comercializa hardware y software) y la BellSouth Cellular Corporation (la BellSouth Corporation fue una compañía estadounidense de telecomunicaciones que se encontraba en Atlanta, Georgia).

El IBM Simon incluía muchas aplicaciones útiles, como una libreta de direcciones, calendario con citas, agenda, calculadora, reloj mundial, bloc de notas electrónico y anotaciones manuscritas a mano alzada. Pero a diferencia de otros dispositivos similares, como el Apple Newton, no necesitaba ser operado por un lápiz o stylus, bastaba presionar con un dedo para acceder a sus funcionalidades.

Pantalla inicial del Simon con el Sistema Operativo ROM-DOS

El sistema operativo usado por el Simon era ROM-DOS, que tenía compatibilidad con MS-DOS y con la arquitectura x86, soportaba formato de archivos FAT32, tenía un procesador con un ciclo de reloj de 16 Mhz con registros de 16 bit, capacidad de 1 Mega de RAM y 1 Mega de almacenamiento y con un módem telefónico integrado.

Solo funcionaba en 190 ciudades distribuidas a lo largo de 15 estados diferentes de los Estados Unidos, pero con un peso de 510 gramos no era precisamente cómodo de transportar.

El Simon contaba con una ranura PCMCIA, (tipo de tarjeta que a lo largo de los años tuvo gran acogida en los portátiles), con la que se podía instalar nuevas funcionalidades a partir de programas de terceros. La experiencia del usuario final, contrariamente a lo que se pueda pensar, era bastante buena, ya que el teléfono procesaba la información de una manera ágil y fluida. Hoy día, 20 años después, alguno de sus descendientes, dotados de recursos más superiores, no son capaces de presumir de lo mismo.

El primer teléfono al que, realmente, se le dio el nombre de smartphone fue el Ericsson GS88, apodado ‘Pamela’, que fue desarrollado en 1997 por la casa Ericsson, disponía del sistema operativo de 16 bit GEOS de GeoWorks, el mismo que se adoptó en los Nokia 9000/9110 (que saldrían en los años 1996 y 1997 respectivamente), traía de serie correo electrónico POP3, SMS, reloj mundial y navegador entre otros. Se podía poner en modo de vuelo desactivando todas las comunicaciones inalámbricas. Tenía manos libres integrado, módem integrado, puerto de infrarrojos, conexión al pc por medio de RS232 (conocido popularmente como cable serie) y teclado QWERTY físico.

Ericsson GS88

Es posible que el “boom” y el empuje comercial de estos dispositivos tuviera lugar en el 2000 con la aparición del sistema operativo Windows Mobile, actualmente conocido por su versión más reciente llamada Windows Phone.

Muchas de las marcas más conocidas de teléfonos móviles tienen su propia serie de smartphones: Apple tiene la serie iPhone, la serie de RIM(Research In Motion) denomianada BlackBerry, la serie Ascend de Huawei(es el mayor fabricante de equipamiento de redes y telecomunicaciones de China), la serie Defy de Motorola, la serie Optimus de LG, la serie Lumia de Nokia, la serie Galaxy/Nexus de Google/Samsung, la serie One de HTC, la serie Xperia de Sony Mobile Communications, etc…

 

Evolución del hardware de los smartphones

Evolución del hardware de los smartphones

La evolución del hardware de los smartphones viene dada por la miniaturización de los componentes electrónicos que lo forman y un menor proceso de producción/fabricación con menor consumo y mayores velocidades.

Las velocidades de microprocesamiento guardan una relación directa con el número de transistores incluidos sobre el chip, y cuanto más pequeño sea el transistor(proceso de producción menor), mayor cantidad de ellos podrá ser empaquetada dentro de un mismo chip.

Procesadores ARM

El diseño de los procesadores de los smartphones va parejo al desarrollo del concepto multinúcleo y disminución del proceso de fabricación en nm(1 nanómetro = 0,000000001 metros, 45nm de tamaño en el proceso de fabricación es más pequeño que 65nm, a menor tamaño menos calor y menor consumo eléctrico, al ser más pequeños permiten un mayor número de ellos en el chip y se gana un mejor rendimiento)

El microprocesador es la parte más importante de cualquier equipo electrónico, y desde hace unos años la tendencia es duplicar, triplicar e incluso cuadriplicar el núcleo de dicho microprocesador. Los sistemas operativos y el software que corre en ellos deberían de estar adaptados a esta tecnología para poder aprovecharla al máximo.

Arquitectura ARM: es una arquitectura RISC (Reduced Instruction Set Computer = Computadora con Conjunto de Instrucciones Reducidas) de 32 bits desarrollada por ARM Holdings plc (es una multinacional dedicada a los semiconductores y al desarrollo de software con sede en Cambridge, Reino Unido, su principal negocio son los procesadores, aunque también diseña, licencia y vende herramientas de programación, se llamó Advanced RISC Machine, y anteriormente Acorn RISC Machine).

En 1983 comenzó a plasmarse la idea para desarrollar la arquitectura ARM, todo empezó como un proyecto de desarrollo en la empresa Acorn Computers(fue una compañía informática británica con sede en Cambridge, Inglaterra, fundada en 1978 y liquidada en 2000). Dos personas de la empresa formaban el equipo de desarrollo:

Roger Wilson, actualmente Sophie Wilson, es una científica computacional que en 1983 diseñó el conjunto de instrucciones del ARM usando BBC BASIC (adaptación del lenguaje BASIC) teniendo en cuenta la arquitectura computacional RISC, y Steve Furber, que es un profesor de Ingeniería Informática de la Facultad de Ciencias de la Computación en la Universidad de Manchester.

Ambos lideraron el equipo para, en sus orígenes, el desarrollo de un procesador avanzado pero con una arquitectura similar a la del MOS 6502 (microprocesador de 8 bits diseñado por MOS Technology en 1975, del cual cabe destacar que fue la CPU más barata con características similares a otras alternativas del mercado pero con una sexta parte del precio que las CPU de compañías de renombre como Motorola e Intel).

La razón principal, para el desarrollo de este nuevo procesador RISC, era que Acorn tenía una larga línea de ordenadores personales basados en el MOS 6502, por lo que tenía sentido desarrollar uno de su propia cosecha con el que los desarrolladores se sintieran cómodos al trabajar con él.

En el año 1985 el equipo terminó el diseño preliminar y concluyó los primeros prototipos del nuevo procesador ARM, le llamaron ARM1, tendría que pasar otro año para que la primera versión comercial se bautizase como ARM2, esto ocurrió en el año 1986.

La arquitectura del ARM2 posee un bus de datos de 32 bits y ofrece un espacio de direcciones de 26 bits, junto con 16 registros de 32 bits.

El ARM2 es, con mucha probabilidad, el procesador de 32 bits útil más simple del mundo, ya que posee sólo 30.000 transistores. Si lo comparamos con un Intel 80386 (microprocesador de 32 bits lanzado en el año 1985) que posee 275.000 transistores, se observa que la diferencia con respecto al ARM2 es muy notable, ya que el chip de Intel tiene más de 9 veces la cantidad de transistores que el de Acorn.

Su simplicidad se debe en gran medida a que no está basado en microcódigo (sistema que suele ocupar en torno a la cuarta parte de la cantidad total de transistores usados en un procesador) y a que carecía de memoria caché, algo bastante común en aquella época.

Gracias a esto, posee un consumo en energía bastante bajo, a la vez que ofrece un mejor rendimiento que un Intel 286. Su sucesor, el ARM3, incluye una pequeña memoria caché de 4 KB, lo que mejora los accesos a memoria repetitivos.

A finales de los años 80, Apple Computer comenzó a trabajar con Acorn en nuevas versiones del núcleo ARM. En Acorn se preocupaban del hecho de que el fabricante de un procesador fuese también fabricante de ordenadores, ya que podría echar para atrás a los clientes, por lo que se decidió crear una nueva compañía llamada Advanced RISC Machines, que sería la encargada del diseño y gestión de las nuevas generaciones de procesadores ARM. Ocurría esto en el año 1990.

Este trabajo derivó en el ARM6, presentado en 1991. Apple utilizó el núcleo ARM 610 (basado en la familia ARM6 ya obsoleta), como procesador básico para su innovador PDA, el Apple Newton (serie temprana de asistentes digitales personales “PDA” desarrollada, manufacturada y comercializada por Apple Computer entre 1993 y 1998). Acorn la utilizó para fabricar su Acorn RISC PC 600.

Derecha Apple Newton, izquierda RISC PC 600 de Acorn.

El núcleo mantuvo su simplicidad a pesar de los cambios; tanto fue así que el ARM2 tiene 30.000 transistores, mientras que el ARM6 cuenta con 35.000. La idea era que el usuario final combinara el núcleo del ARM con un número opcional de periféricos integrados u otros elementos, pudiendo crear un procesador completo según sus necesidades.

La mayor utilización de la tecnología ARM se alcanzó con la familia de procesadores ARM7TDMI, con millones de unidades en teléfonos móviles y sistemas de videojuegos portátiles. Y es que, la relativa simplicidad de los procesadores ARM los hace ideales para aparatos que precisen consumir poca o muy poca energía.

El diseño del ARM se ha convertido en uno de los más usados del mundo, desde discos duros hasta juguetes. Hoy en día, cerca del 75% de los procesadores de 32 bits montados en cualquier tipo de dispositivo poseen este chip en su núcleo.

Aquí tenemos algunos de los dispositivos más famosos que utilizan alguna de las familias ARM. La familia ARM7 y ARM7TDMI, tenía una velocidad que iba desde los 40 Mhz hasta los 59.8 Mhz, las CPUs de esta familia fueron utilizadas en aparatos como la consola Game Boy Advance, la Nintendo DS o el reproductor de MP3 Apple Ipod. La familia StrongARM se utilizó en el Apple Newton en 1998 y en diversos dispositivos empotrados, contaba con velocidades desde 203 Mhz hasta 206.

La familia ARM9TDMI, con una velocidad que rondaba los 180 Mhz, se utilizó en el procesador para PDAs de Samsung llamado S3C2410, en diversas consolas como la tapware Zodiac 2005, en calculadoras programables como la serie HP-49 y en los famosos nagegadores GPS TomTom.

La familia ARM9E, con velocidad de 200 Mhz, se utilizó en móviles como los Sony Ericsson series K y W, en móviles Siemens y Benq x65, en procesadores de Texas Instruments, en procesadroes Qualcomm y en la GPU (Unidad De procesamiento de Graficos) de la consola Wii.

La familia ARM10E y Xscale, con unas velocidades que van desde los 200 Mhz hasta los 1.25 Ghz, se usan en smartphones como Samsung Omnia, Blackberry 8700 o Blackberry Pearl 8100.

La familia ARM11 con velocidades comprendidas entre 528 Mhz hasta 665 Mhz, se incorporaron en móviles como el Nokia e90, n95, n82, n97, n81, en procesadores Qualcomm con el Htc Nike, Htc Dream, Htc Magic Htc Hero, en el Zte Link, en los Apple Iphone 2G y 3G, en el Apple Ipod Touch 1ra y 2da generación, o en el Samsung Omnia II.

La familia Cortex, con núcleos Cortex a5, a8, Qualcomm Scorpion, cortex a9, Cortex-R4(F) , cortex-m4, Cortex-M3, Cortex-M0 y Cortex-M1, y con velocidades que comprenden desde 600 Mhz hasta mas de 1500 Mhz. Son montados en los Ipod Touch de 3rd generation, en las tabletas Ipad, en el Iphone4, en la tableta Archos 5, en el Motorola Milestone, en el Samsung Wave s8500, Samsung Omnia HD, Samsung Galaxy S, Nokia N900, Htc Evo 4G, Galaxy SII, Nvidia Tegra2, Qualcomm Snapdragon 8X72, PlayStation Vita y muchos otros.

La familia Cortex A9, con quad-core(cuatro núcleos) con una velocidad de hasta 1,6GHz, se montan en los Galaxy Note II, Galaxy S3, LG Nexus 4 y otros.

El 98% de los microprocesadores utilizados en smartphones hace uso de la arquitectura de ARM.

Diversas compañías (TI, Qualcomm, Freescale, Samsung, etc.) se encargan de plasmarlos en un chip, y los modifican en algunos aspectos para sacarle el máximo rendimiento y/o mejorar su consumo de energía y dedicarlos a un propósito específico.

Las arquitecturas más antiguas de ARM se utilizan en los chips más baratos; la generación ARM9 en los smartphones de gama baja, la ARM11 en los de gama media-alta, y Cortex A8 para gama alta.

Actualmente la computación multinúcleo, es toda una realidad, los procesadores (CPU) de escritorio ya migraron hace algunos años a este diseño que busca mejor eficiencia y rendimiento de computo.

Los procesadores ARM apuntan a esta misma tendencia, lo que ahora preocupa en la investigación es el consumo energético. Los smartphones tienen un límite de consumo fijado aproximadamente a 300 mW, una pequeña bombilla estándar de linterna típica con un voltaje de 1,2V y con una intensidad de 0,3A tiene un consumo de 0,36W o lo que es lo mismo 360mW, o un led de 5 mm y alta luminosidad tiene un consumo de 0.06W o 60 mW.

La familia de ARM llamada Cortex A9 utiliza un proceso de producción de 45nm, lo que le permite mantener el consumo en cuotas aceptables .

Además del Cortex-A9, se debe contar con el nuevo modelo de ARM, el Cortex-A15 es un microprocesador dual core (dos núcleos) o quad core(cuatro núcleos) y tiene frecuencias que pueden llegar hasta los 2.5 Ghz. Lo llevan los Samsung Galaxy Nexus, los chips Nvidia Tegra2, los Qualcomm Snapdragon 8X72, la consola portátil PlayStation Vita, los Samsung Galaxy S II (Exynos 4210), y los Samsung Galaxy S III (Exynos 4212).

 

System-on-chip (SoC, System-on-a-chip)

System-on-a-chip o SoC (también referido como system-on-chip, en español Sistema en un chip), describe la tendencia cada vez más frecuente, de usar tecnologías de fabricación que integran todos o gran parte de los componentes de un ordenador o cualquier otro sistema informático o electrónico en un único circuito integrado o chip. Este es un término de lo más común hoy día en los smartphones, y por buenas razones ya que el espacio en ellos es reducido.

Imagen: solución SoC para dispositivos portátiles y otros sistemas reducidos.

 

Cuando se habla de los microprocesadores dentro de un smartphone por lo general se refiere en realidad al sistema-en-un-chip(SoC): una combinación que incluye cosas como el/los núcleos del procesador, el sistema de gráficos, memoria RAM y, posiblemente la ROM también, controladores de interfaz para USB, tecnología inalámbrica, reguladores de voltaje y mucho más.

La idea de SoC es que todos los componentes críticos de un dispositivo se encuentren en un área relativamente pequeña.

Se podría decir con toda tranquilidad que ARM es tres cosas a la vez: una empresa, una arquitectura de microprocesadores y el núcleo del procesador. ARM Holdings plc es la compañía que desde 1983 ha desarrollado el microprocesador ARM.

Otras compañías como NVIDIA, Texas Instruments y Samsung han entrado en la producción de los SoCs.

Estas, y otras, toman (a través de licencias) la arquitectura ARM y su núcleo producido, y lo ponen dentro de sus chips en combinación con la GPU, memoria y todos los componentes que deseen. Algo parecido es lo que hace Qualcomm, pero de forma algo diferente.

Dos SoCs de diferentes empresas pueden contener el mismo procesador, por ejemplo, tanto la TI(Texas Instruments) OMAP3630 y Samsung Exynos 3310 utiliza un solo núcleo de 1 GHz ARM Cortex-A8. Pero son diferentes en el uso de otros componentes dentro del SoC, la OMAP utiliza una GPU PowerVR SGX530 pero el Exynos incluye la SGX540.

La arquitectura ARM no es algo en lo que el consumidor se preocupa cuando se quiere comprar un nuevo smartphone, la mayoría de ellos hace uso de la versión de arquitectura ARMv7. Su antecesora, la arquitectura ARMv6, se utilizó en los procesadores con núcleo ARM11 viejos, que a su vez se utilizaron en SoCs anticuados en dispositivos como el HTC Dream (T-Mobile G1, el primer teléfono Android) y el iPhone 3G.

Actualmente hay dos tipos de procesadores ARM que se encuentran ampliamente en uso: el ARM Cortex-A8 y ARM Cortex-A9 MPCore; ambos utilizan la arquitectura ARMv7. Sin entrar demasiado en detalle técnico, el Cortex-A8 se encuentra generalmente en implementaciones de un solo núcleo y el Cortex-A9 en dispositivos con hasta 4 núcleos.

Cortex-A9 y Cortex-A9 MPCore son de las CPU más recientes y, además de ser (por lo general) multi-core, son un poco más rápidas por MHz de los procesadores Cortex-A8. El Samsung Galaxy S II (Dual Core Exynos 4210) y el Samsung Galaxy S III (Quad Core Exynos 4212) montan ambos Cortex-A9.

Encontrará el procesador ARM Cortex-A8 dentro de SoCs, como la serie TI OMAP3 y SP5C, y de Samsung: la serie (Hummingbird / Exynos 3xxx). El Cortex-A9 se encuentra en la serie TI OMAP4, Samsung Exynos 4xxx series, NVIDIA Tegra 2/3 y el A5 de Apple.

ARM también fabrica la gama de procesadores gráficos de Mali, pero eso pertenece al apartado de la GPU.

En el futuro veremos SoC ARM con el Cortex-A15 MPCore, que supuestamente es 40% más rápido que el procesador Cortex-A9. Debemos verlos en la serie TI OMAP5, Samsung Exynos 5xxx series y en el Tegra “Wayne” que saldrá a finales de 2012 o a principios de 2013. En un futuro algo más lejano, se podrán esperar núcleos ARM que utilizan la arquitectura ARMv8 que utilizará previsiblemente una arquitectura de 64 bits en vez de 32.

Referencias:

http://www.arm.com/products/processors/armv8-architecture.php

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors

 

 

Procesadores Qualcomm Snapdragon y SoCs

Qualcomm es un poco diferente a los otros fabricantes SoC, ya que no utilizan las referencias de los diseños de ARM en la producción del procesador central.

En su lugar, toman algunas características de la arquitectura ARM Cortex-A8 y hacen mejoras que plasman en su propio procesador Scorpion y CPU Krait. Obviamente, esto requiere más investigación y desarrollo que la serie TI OMAP, pero aparentemente logran mejor funcionamiento y eficiencia energética en comparación con el estándar puro de Cortex-A8.

La serie Qualcomm Snapdragon se divide en diferentes versiones. Cada serie está numerado de S1 a S4 (en la actualidad), y cuanto mayor es el número más potente de la serie y (normalmente) la más reciente. No hay productos en el mercado que utilizan chipsets de Qualcomm S4, pero estarán en breve (finales 2012 – inicios 2013).

El sistema SoC Snapdragon S1 y S2 son de un solo núcleo único, que van hasta los 1,5 GHz, a través de sus procesadores Scorpion. S1 fue el tipo de procesador inicial que se lanzó, se introdujo en el primer lote de teléfonos Windows, utilizando el procesador de 1 GHz QSD8x50, y en algunos dispositivos Android como el HTC Desire, HTC Droid Incredible, HTC Nexus One y HTC EVO 4G.

Los Snapdragons S2 se utilizan en una gama mucho más amplia de productos. S1 difiere de S2 en que existe un procesador de gráficos más potente en su interior junto con una disminución en el proceso de fabricación, de 65 nm a 45 nm, lo que ayuda a conservar energía y no la pierda en forma de calor. El procesador de 1 Ghz, MSM8x55, se encuentra en una amplia gama de productos Android como el HTC Desire HD, HTC Desire S, HTC Thunderbolt y casi todos Sony Ericsson Xperia (incluyendo el Xperia Play).

También hay un rápido procesador de la serie S2 SoC que es el MSM8x55T que se sincroniza con relojes que van de entre 1,4 y 1,5 GHz. Esto se ve en muchos smartphones de segunda generación que llevan instalado Windows Phone, como la serie Nokia Lumia, Titan HTC y Samsung Focus S.

También se utiliza en algunos dispositivos Android como el HTC Flyer y Samsung Galaxy W.

Con la serie Snapdragons S3 se vio un gran salto que fue desde un solo núcleo a doble núcleo, así como una mejora de la GPU.

Estos dispositivos se fabrican utilizando el proceso de 45 nm y los núcleos Scorpion utilizan todavía Cortex-A8, a diferencia de otros SoC de doble núcleo que utilizan un núcleo más nuevo, el Cortex-A9. Las velocidades van de 1.2 a 1.5 Ghz, MSM8x60 S3 se encuentra en productos como el HTC Sensation, HTC EVO 3D, HTC Rezound y algunos modelos de Samsung Galaxy S II.

Aparte de las obvias diferencias en el procesador de cada serie y chips gráficos (GPU), junto con los procesos de fabricación cada vez más pequeños, cada serie mejora en las otras capacidades tales como la resolución de pantalla y la resolución media de la cámara. A continuación se presenta un breve resumen de cada serie en estos aspectos.

Snapdragon S1: Soporta hasta pantallas de 720p, 720p reproducción y grabación de vídeo 720p. Soporta hasta cámaras de 12 megapíxeles. Soporta HSPA.

S2 Snapdragon: Mejora en S2 añadiendo soporte para HSPA+. Mejor GPU.

Snapdragon S3: Soporta la resolución WSXGA (1440×900) en su pantalla, reproducción de 1080p y grabación de 1080p. Compatible con todas las capacidades estereoscópicas 3D, incluyendo cámaras duales, grabación y reproducción. Soporta hasta cámaras de 16 MP. Añade soporte Dolby 5.1 de sonido envolvente y cancelación de ruido.

La siguiente serie es la línea Snapdragon S4 , en la que pasamos de la CPU Scorpion a la CPU Krait de Qualcomm. Krait permite hasta cuatro núcleos en el SoC de hasta 2,5 GHz por núcleo, y está hecho con un proceso de fabricación a 28nm.

Imagen: línea Snapdragon S4

S4 también mejora en gran medida las capacidades de la GPU y la memoria principal, incluye soporte de LTE integrado dentro del SoC, mejora la resolución de pantalla, reproducción a 1080p y compatibilidad con HDMI, soporta hasta tres cámaras de 20 MP, soporta hasta cuatro micrófonos para la cancelación de la/el grabación/ruido, soporte de sonido Dolby surround 7.1, WiFi dual-band(WIFI n) y Bluetooth 4.0.

Hemos visto nuevos dispositivos con los conjuntos de chips Snapdragon S4 en algún momento de este año 2012, se anunció por primera vez en Lenovo la tableta IdeaTab S2 10”. El IdeaTab S2 debe tener un 1,5 GHz de doble núcleo Snapdragon S4.

Cómo ejemplo de tope de gama de Qualcomm Snapdragon S3 lo encontramos en el HTC Sensation.

Imagen de la evolución de Snapdragon.

Referencias:

http://www.cnx-software.com/2011/11/17/qualcomm-announced-8-new-snapdragon-s4-processors/

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=2

 

 

SoC de Texas Instruments: los OMAP

Mientras SoC Qualcomm parece que es el más popular entre los fabricantes de móviles smartphone (especialmente HTC), la línea de Texas Instruments OMAP (Open Media Platform Aplicaciones) SoCs que también son muy utilizados. Motorola es un gran fan de la serie TI OMAP y casi exclusivamente los utiliza en sus productos Android.

Como Snapdragon de Qualcomm, los TI OMAP SoC tienen variedad de series. La OMAP 1 y serie 2 son bastante antiguas y no los encontrará en cualquier producto nuevo, sin embargo, las series 3 y 4, se puedes encontrar en los productos nuevos.

Al igual que los productos Snapdragon S4, la OMAP 5 series es lo más potente en el rango de TI y todavía tiene que llegar a los dispositivos.

Las denominaciones de la serie OMAP son bastante sencillas, con un mayor número se indica un mejor rendimiento. El primer dígito es siempre indicativo de la serie, los productos de una serie más reciente son siempre más rápidos que los productos de la serie anterior. Usando esta lógica, un OMAP4430 es mejor que un OMAP3630, que a su vez es mejor que la OMAP3430.

La serie TI OMAP 3 es un SoC de un solo núcleo, integran un núcleo ARM Cortex-A8 con velocidades de procesamiento de entre 600 MHz y 1 GHz, y monta una GPU PowerVR SGX530 que es la que se detallará en el apartado de GPU. El OMAP34xx y OMAP35xx se fabrican utilizando un proceso de 65 nm, y la serie de OMAP36xx uno de 45 nm.

Los productos que utilizan las antiguas SoCs OMAP34xx incluyen el Droid de Motorola y Palm Pre, el 36xx más reciente se presentó en el Motorola Defy, Motorola Droid X, Palm Pre 2, Nook Color y Nokia N9 por nombrar unos pocos.

Las series TI OMAP 4 tienen doble núcleo con procesador ARM Cortex-A9, con una velocidad de reloj entre 1 y 1,8 GHz y GPU PowerVR SGX54x. Hay tres productos de la serie OMAP 4 hasta el momento:

El OMAP4430 utilizado, por ejemplo, en el LG Optimus 3D y Motorola Droid Razr / Bionic. Este SoC tiene una velocidad de reloj de 1,0 o 1,2 GHz y cuenta con el chip gráfico PowerVR SGX540 a 304 Mhz.

El OMAP4460 es una versión mejorada del 4430 que registra entre 1,2 y 1,5 Ghz de velocidad, con una GPU de hasta 384 MHz. Se utiliza en el Galaxy Nexus.

El OMAP4470 puede ir hasta a 1,8 GHz y cuenta con una GPU mucho más potente. Este SoC se ha utilizado en ARCHOS 101XS, SmartDevices T30, Kindle Fire HD 8.9″, Kobo Arc, Nook HD, BlackBerry Dev Alpha B y Samsung Galaxy Premier.

Una desventaja principal en la línea de SoCs TI OMAP es que los chips inalámbricos y otros componentes clave no están incluidos en el interior del SoC como sí están en los Snapdragon. Si bien esto le da flexibilidad a los fabricantes para agregar cualquier tecnología de comunicación que deseen, como LTE.

Los SoCs TI OMAP incluyen algunas de las características que son clave. TI incluye su propio sistema de ahorro energético SmartReflex en su línea OMAP, se dice que en la OMAP 4 se dispone de 10 horas de reproducción de 1080p y 120 horas de reproducción de audio. Al no especificar la batería que estaban usando y qué sistema operativo, esta información puede no ser verzaz, pero suena prometedor.

TI también tiene el IVA 2/3, que es un acelerador multimedia incluido en el SoC junto con los núcleos Cortex-A8 o A9, soporta hasta una resolución 1080p de codificación y decodificación de vídeo. Esta característica alivia el estrés de los núcleos Cortex, mirando documentación, se puede decir que los procesadores Samsung no la incluyen.

Otro beneficio de la OMAP 4, específico de la serie, es que incluyen dos núcleos extra ARM Cortex-M3 (que pertenece a la versión ARMv7-M sin memoria caché), se utilizan en situaciones de baja intensidad para conservar la energía y ahorrar batería. También se incluye MPE ARM, esto permite que el SoC sea apto para ejecutar código NEON (NEON es una tecnología de 128-bit SIMD, Single Instruction Multiple Data, que a su vez es una extensión de la arquitectura ARM Cortex), algo que la serie Tegra de NVIDIA no tiene, pero en términos de rendimiento real, OMAP no destaca gracias a NEON frente a otros SoC.

Imagen comercial de la serie OMAP 5

La serie OMAP 5 es el futuro de la serie OMAP, y contiene muchas características que los SoC OMAP anteriores no tienen. Dos núcleos ARM Cortex-A15 en el chip funcionando a velocidades de hasta 2 GHz junto con un chip PowerVR muy mejorado, un chip dedicado de gráficos 2D, además de un procesador de audio y un acelerador de vídeo mejorado, entre otras características impresionantes. OMAP 5 SoCs debe estar empezando a introducirse en el mercado a finales de 2012. Parece ser que la tableta Archos G11 lo utilizará (aún por confirmar).

Imagen descriptiva del SoC OMAP 4XXXReferencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=3

 

SoC Exynos de Samsung

La gama de SoCs Samsung Exynos es bastante pequeña. Por lo general sólo se encuentran chipsets Exynos de Samsung dentro de smartphones y tabletas propios de Samsung y de alta gama, con una excepción, la gama de productos china Meizu(una compañía que, por ahora, se limita a lanzar terminales en territorio asiático). Un ejemplo de esto es el Meizu MX2, un terminal preparado para los tiempos que corren: contará con una pantalla de 4.4 pulgadas, con una resolución de 1280×800 píxeles, además de un procesador Exynos 4 Quad (Exynos 4412) de cuatro núcleos a 1,6 Ghz.

Samsung a menudo cae en la tentación de utilizar la gama de Qualcomm, donde los chips Exynos no cumplen los requisitos para el rendimiento exigido en LTE.

El primero de SoC de Samsung, Exynos, fue originalmente conocido como el Samsung Hummingbird y lo montaba el original Samsung Galaxy S, es ahora conocido como el Samsung Exynos 3310.

El Exynos 3310 se fabricó con un proceso de 45 nm y contiene un procesador ARM Cortex-A8, con un solo núcleo de procesamiento de 1,0 GHz junto con un acelerador de gráficos PowerVR SGX540 que era muy potente para la época.

Exynos 3310 soporta 1080p de codificación y decodificación, que es algo que los SoCs de un solo núcleo de otros fabricantes no son ni compatibles (por lo general ya les cuesta procesar la resolución HD Ready 720p). Aunque no es una característica muy anunciada en dispositivos como el Samsung Galaxy S y el Nexus S, de acuerdo a la hoja de especificaciones que tienen realmente la soportan.

El Exynos 4210 es la segunda generación de la línea Exynos que con un procesador a doble núcleo ARM Cortex-A9, diseño que se combina con un arma muy poderosa, la GPU Malí-400 MP4. El SoC fue originalmente diseñado para funcionar a 1,0 GHz, pero fue visto por primera vez en 1,2 GHz en el Samsung Galaxy S II y luego 1,4 GHz en el Galaxy Note. También el Exynos 4210 está presente en Samsung Galaxy Tab de 7,7”.

No sólo el Exynos de doble núcleo 4210 mejora, en gran medida, la velocidad del Exynos 3310, también incluye otras características en el SoC; como capacidades de GPS integradas en el 4210, que externamente los incorporan los TI OMAP y el Exynos 3310, y una mejorada interfaz módem que hace que sea más fácil incorporar diferentes tipos de tecnología inalámbrica en el sistema.

Al igual que el Exynos 3310, la serie Exynos 4, da soporte para codificar y decodificar a Full HD 1080p con salida HDMI en el 4210, junto con las capacidades de host USB. NEON también se soporta como con el TI OMAP y Snapdragon, pero no en la NVIDIA Tegra 2.

La gama Exynos no tiene soporte para 3D ni en pantallas, ni grabación, ni decodificación. De todas formas, no parece afectar al rendimiento general en el Galaxy Note que tinene una amplia gama de codecs soportados que van bien.

Comparando con los otros SoCs, extrañamente el Exynos 4210 tiene la menor resolución de pantalla máxima: 1280×800 (WXGA), contra el Snapdragon S3 de 1440×900 (WXGA) y el TI OMAP 4 de 1920×1200 (WUXGA). Sin embargo, puede dar salida Full HD 1080p por HDMI por lo que es sorprendente que no puede soportar 1080p en su pantalla.

El futuro para el chipset Exynos es impresionante, ya que, Samsung ya está en disposición de ofrecer el Exynos 5250, que es un 2,0 GHz de doble núcleo con procesador ARM Cortex-A15, con mejores gráficos Mali, soporte 3D estereoscópico, 2560×1600 (WQXGA), soporte de pantallas y gran mejora de las capacidades de cámara.

La tableta Google Nexus 10 incorpora el último procesador de la familia el Samsung Exynos 5250 a 1.7GHz basado en la arquitectura ARM Córtex A15 de dos núcleos.

Imagen de un chip Exynos 5250

Y es que este SoC está rompiendo todos los benchmarks que se le ponen por delante, a pesar de ser de solo dos núcleos. Si ya nos sorprendía el Qualcomm Snapdragon S4 Pro que incorpora el Nexus 4, este Exynos nos va a dejar con la boca aún más abierta.SunSpider: SunSpider es un conjunto de programas cuyo objetivo es medir el rendimiento de JavaScript en las tareas relacionadas con el uso actual y futuro próximo de JavaScript en el mundo real, tales como la codificación y manipulación de texto. Menos puntuación en esta prueba es resultado mejor.

V8: Es un conjunto de pruebas JavaScript de Google , que sirve para optimizar el navegador web Google Chrome.

Octano: un benchmark JavaScript para la web moderna.

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=4

 

SoC Tegra de NVIDIA

Aunque el hardware de gráficos NVIDIA (serie Tegra) diseñados para smartphone no es tan impresionante como su línea de escritorio no quiere decir que el SoC sea malo, sólo que se esperaba un poco más de potencia de sus GPU.

El SoC Tegra que actualmente se encuentra en los smartphones y en las tabletas son el Tegra 2 o el Tegra 3. Ambos son multi-core y utilizan el núcleo ARM Cortex-A9 en sus SoCs con velocidades de 1,0 a 1,4 GHz, se fabrican mediante un proceso de 40nm y el hacen uso de una GPU con una potencia ultra-baja (Ultra Low Power) ULP GeForce GPU.

Si bien existen similitudes entre los dos rangos disponibles hay algunas diferencias también. Para empezar, toda la línea Tegra 2 es dual-core, Tegra 3 es de cuatro núcleos.

El Tegra 3, serie Kal-El, hace uso de una línea más potente de GPU, contiene algunas de las características clave que el Tegra 2 no tiene como núcleo. Sin embargo, son pioneros en ser montados en dispositivos de doble y cuádruple núcleo: el Motorola Atrix 4G y ASUS Transformer Prime, respectivamente.

Para la línea Tegra 2 hay cuatro diferentes disponibles: dos diseñados para tabletas y dos diseñados para smartphones. El Tegra 250 AP20H y Tegra 250 T20, ambos con una velocidad de 1 GHz de doble núcleo del tipo ARM Cortex-A9, pero difieren en el reloj de la GPU, la GPU más rápido está en la 250 T20, está diseñado para su uso en tabletas.

Luego están las series con capacidad 3D, Tegra 250 3D AP25 y Tegra 250 3D T25, con una velocidad de 1,2 GHz y una mayor velocidad en sus GPUs.

Los SoC Tegra 2 carecen de “extensión avanzada SIMD ARM” que permite al procesador ejecutar código NEON, pero como ya se ha mencionado en otros SoCs esto no parece afectar mucho al rendimiento final del chip. NEON permite que el procesador ejecute la reproducción de MP3 y la función de voz por GSM en ciclos de reloj de CPU muy bajos y también ayuda en el cálculo de los datos de coma flotante. Una vez más, no está claro qué beneficios en el rendimiento se gana por tener esta capacidad, aunque NVIDIA no la ha dejado fuera del Tegra 3.

Según la hoja de especificaciones de NVIDIA Tegra 2 parece que el chipset tiene un rango bastante impresionante de decodificación de video en 1080p, así como la decodificación de audio, tiene un rendimiento mejor al comparar con los chips de la competencia.

Un rápido vistazo al diagrama de bloques muestra que, al igual que la TI OMAP y SoC Snapdragon, el Tegra 2 tiene procesadores separados para tratar con vídeo y audio: de hecho, no sólo uno, sino tres, como se puede apreciar en la imagen siguiente:

Tegra 3 mejora el Tegra 2 en muchos sentidos y supera a toda la competencia la primera hornada de SoC de cuatro núcleos.

Desafortunadamente NVIDIA tuvo que utilizar cuatro núcleos Cortex-A9 en lugar de los nuevos Cortex-A15 que otros fabricantes están poniendo en sus próximos chipsets, pero por ahora esto no debería importar demasiado.

La velocidad de reloj de los núcleos Cortex-A9 recibe un ciclo de 1,2 GHz (dual-core) y 1,3 GHz en una configuración de cuatro núcleos, la GPU también tiene una gran velocidad al igual que la memoria y su tamaño.

Tegra 3 puede mover pantallas que tienen una resolución de hasta 2048×1536 (frente a 1680×1050), pero aún sólo puede manejar dos pantallas simultáneas, cuando procesadores como el OMAP TI pueden gestionar cuatro y Exynos tres.

Otra característica nueva del Tegra 3 es que, además de los cuatro núcleos Cortex-A9 completamente funcionales, hay un quinto Cortex-A9 (en la imagen de abajo se pueden ver los núcleos en la parte central en amarillo) que está fabricado con transistores de baja potencia.

El núcleo extra funciona a 500 MHz y está diseñado para el cómputo de aplicaciones en segundo plano, para ahorrar energía cuando el teléfono está reposo, en lugar de usar los ciclos de los cuatro núcleos. Este sistema es comparable al uso de la serie TI OMAP 4 de núcleos Cortex-M3 para ahorrar energía.

El futuro de la serie Tegra recae en “Wayne“, que se dice usará núcleos ARM Cortex-A15 en configuraciones quad-core o octa-core (4 y 8 núcleos). La GPU GeForce también incrementará su potencia. Se estima que sea alrededor de 10 veces más rápido que Tegra 2.

Este nuevo Tegra Wayne o 4 estará fabricado a 28nm, incorporará dentro del SoC conectividad LTE y HSPA+, además de una GPU más potente que la del SoC Tegra 3, muy posiblemente con capacidades GPGPU como se comentó previamente(GPGPU o General-Purpose Computing on Graphics Processing Units es un concepto reciente dentro de informática que trata de estudiar y aprovechar las capacidades de cómputo de una GPU como si se tratase de una CPU).

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=5

 

SoC de Apple

Finalmente, llegamos a la última serie de SoC que se exponen aquí: Apple.

A diferencia de todos los demás, estos SoCs de Apple no tienen licencia y son utilizados exclusivamente en el interior de los productos de Apple como el iPhone, iPad, Apple TV e iPod Touch.

La información sobre lo que está dentro de estos SoCs es más difícil de encontrar que con los otros fabricantes.

Actualmente Apple desarrolla tres SoCs y ese es el Apple A4, A5 y A6, utilizado desde el iPad, el iPhone 4, y el iPhone 5. Antes de eso, Apple se nutria con SoCs de Samsung. Cuando el iPad se lanzó cambiaron el nombre de los SoCs de Apple, pero en realidad siguen siendo fabricados por Samsung.

El A4 es la variante de un solo núcleo que incluye un ARM Cortex-A8 con velocidad de reloj entre 800 MHz y 1 GHz y una GPU PowerVR SGX535. Está fabricado con un proceso de 45 nm y como la mayoría de otros SoC incluye MPE ARM NEON. No se sabe qué otras cosas pueden residir en el interior del A4, aceleradores de vídeo de hardware dedicado, circuitos para comunicaciones inalámbricas, así que es difícil saber si el A4 es más eficiente que otras ofrendas.

Imagen del SoC Apple A5

El SoC A5 tiene una CPU Cortex-A9 de doble núcleo y una GPU PowerVR SGX543MP2 (la cual es muy rápida). Posee la mayor parte de las cosas que el A4, MPE, misma velocidad de reloj y proceso de fabricación a 45nm, aunque la A5 en realidad contiene 512 MB de RAM a diferencia de la A4, que utiliza una fuente de RAM externa. También hay un procesador de imagen de señal dedicado (ISP) para el post procesamiento de imágenes (la mayoría de SoCs la tienen), así como una unidad de cancelación de ruido.

Apple A6: fabricado con un proceso de 32 nm, posee un núcleo personalizado por Apple que no es ni Cortex-A15 ni A9, le llaman dual-core Swift, y corre a 1.3 Ghz y posee una GPU PowerVR SGX543 de triple núcleo.

Si se opta por comprar algún producto Apple, las alternativas de SoC son nulas, en el Galaxy SII había alternativa entre el Exynos o Snapdragon.

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=6

 

¿Qué SoC es mejor?

Es muy difícil decir cuál SoC. El chip gráfico hace que haya grandes diferencias en el rendimiento global (como se verá en el siguiente apartado) y el producto que casi todos los fabricante de chips SoC utiliza es el mismo, el procesador Cortex-A9 con unas velocidades de reloj relativamente similares, y por lo tanto tienen casi el mismo rendimiento de la CPU.

La mayoría de mejoras de rendimiento proceden de los otros componentes incluidos en el SoC aparte de los núcleos reales. Por ejemplo, NVIDIA Tegra 2 carece de la avanzada SIMD(ejecución de código NEON) que probablemente haga que baje el rendimiento del chip un poco en las comunicaciones, dependiendo realmente de las situaciones.

Además, los otros componentes en el teléfono que no son parte de la SoC pueden afectar a otras cosas, como el tamaño de la batería.

Es genial ver que muchos de los fabricantes SoC están encontrando maneras interesantes para ahorrar energía en los chipsets que hacen. Los diferentes montajes de dispositivos pueden afectar a la vida de la batería, por lo que los resultados de los puntos de referencia no puede indicar que el SoC es totalmente responsable de la vida de la batería.

Al integrar mayores funcionalidades en los SoC, se puede dejar mayor espacio para las baterías.

Hay otras cosas que estos chips pueden lograr, pero no se suelen usar, y es el soporte para albergar cámaras de más de 16 MP y resoluciones de pantalla de hasta 1920×1200 con 1080p, y salida HDMI(excepto los Exynos que tiene una resolución soportada relativamente baja).

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-17-processors#/news/guide-to-smartphone-hardware-17-processors?page=7

 

GPU: Historia y evolución

GPU: Historia y evolución

La unidad de procesamiento gráfico o GPU (graphics processing unit) es un coprocesador dedicado al procesamiento de gráficos u operaciones de coma flotante, existe básicamente para aligerar la carga de trabajo al procesador central en videojuegos o en aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la unidad central de procesamiento (CPU) puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).

La GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing o suavizado de bordes (evita el aliasing que es un efecto visual tipo “sierra” o “escalón”). Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos. Además, son conocidas por estar presentes en las tarjetas gráficas de los ordenadores portátiles o de sobremesa, pero también están presentes en los smartphones y tabletas(tablets).

Las modernas GPU son descendientes de los chips gráficos monolíticos(circuitos integrados que están fabricados en un solo monocristal, habitualmente de silicio) de finales de la década de 1970 y 1980. Estos chips tenían soporte BitBLT(es una primitiva gráfica consistente en que dos mapas de bit son combinados en uno) limitado en la forma de sprites (es un tipo de mapa de bits dibujados en la pantalla de ordenador por hardware gráfico especializado), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de display.

Hacia finales de la década de 1980 y principios de la de 1990, los microprocesadores de propósito general de alta velocidad fueron muy populares para implementar las GPU más avanzadas.

Muchas tarjetas gráficas para PC y estaciones de trabajo usaban procesadores digitales de señales (DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de dibujo rápidas, muchas impresoras láser contenían un procesador de barrido de imágenes “PostScript” (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000.

Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de marcos (frames), tal como VGA.

Estos aceleradores gráficos de 2D “reducidos” no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.

Diferencias con la CPU

Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500MHz en los ordenadores de sobremesa o portátiles).

Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos 3D.

Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.

La imagen inferior muestra la arquitectura básica de una de las familias gráficas de la casa Nvidia.

Arquitectura de la GPU

Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales.

Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles(es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de vídeo o un gráfico).

Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.

Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.

Referencias:

Para saber más sobre la arquitectura de modelo circulante existe en Google Books un libro muy interesante, “Procesadores gráficos para PC” escrito por Manuel Ujaldón Martínez.

http://books.google.es/books?id=bYRivlsvQ6MC&pg=PA209&lpg=PA209&dq=arquitectura+Modelo+Circulante&source=bl&ots=xI3EcxAlAv&sig=GftIy23jvVq6I9Gul-GPvFVTU3o&hl=es&sa=X&ei=gMenUNf7L4LV0QXNp4HoCA&ved=0CDIQ6AEwAw#v=onepage&q=arquitectura%20Modelo%20Circulante&f=false

 

GPU en los smartphones

La GPU en los smartphones está especializada en mostrar los gráficos de la interfaz de usuario, efectos 3D y 2D, reproducción de vídeo en HD Ready(720p) o full HD(1080p), reproducción de gráficos avanzados 3D y 2D en videojuegos. Como introducción a las GPU en los smartphones tenemos:

-ULP GeForce fabricada por NVIDIA, con una arquitectura propietaria(ULP GeForce) y con 8 núcleos, alcanza velocidades desde 300 Mhz hasta 520 Mhz. Este GPU se incluye en los procesadores Tegra 2 de dos núcleos y Tegra 3 de cuatro núcleos.

-La serie Mali (GPU) está producida por ARM Holdings. El núcleo se desarrolla en ARM Norway que es una compañía de ARM Holdings. Esta serie posee de 1 a 8 núcleos y hay variantes sin caché o con hasta 256 KiB, además tiene velocidades desde 240 Mhz hasta 480 Mhz. Marcas como la conocida Samsung montan estas GPUs de ARM Holdings.

-La serie Adreno de Qualcomm (anteriormente Imageon y previamente ATI Imageon), es una serie de GPUs desarrolladas por ATI para dispositivos portátiles (smartphones y PDA principalmente). Diseñadas como sistema-en-un-chip (SoC), la línea de procesadores multimedia Imageon se introdujo en 2002 para los gráficos integrados en dispositivos de mano, teléfonos móviles y tabletas. Qualcomm es una compañía estadounidense fundada en 1985 que produce estos chipsets para la tecnología móvil:

CDMA(multiplexación o control de acceso al medio usada en UMTS, WIFI, GPS, y principalmente se emplea en comunicaciones inalámbricas (por radiofrecuencia), aunque también puede usarse en sistemas de fibra óptica o de cable) W-CDMA (3G).

-PowerVR es el departamento de hardware y software gráfico de Imagination Technologies (antes VideoLogic). Tiene las series MBX, MVED/VXD y SGX: las cuales son la gama actual de chips gráficos utilizado en teléfonos móviles como el Apple iPhone, Nokia, Motorola, Samsung y Sony Ericsson y otros dispositivos portátiles como reproductores de vídeo, PDA y GPS.

 

¿Donde se encuentra el procesador gráfico en los smartphones?

Se encuentra en los sistemas integrados SoC junto con los núcleos de procesamiento y otros subsistemas, muy cercanos todos entre sí. La GPU se localiza en el SoC, es donde se localiza también la CPU. La GPU es el “procesador de gráficos 2D/3D” que forma parte del SoC.

Tenemos en la imagen de abajo un SoC NVIDIA Tegra 2:

Esto es completamente diferente a un ordenador de sobremesa o portátil, que por lo general utiliza una solución de doble chip, un chip para la CPU y otro para la GPU generalmente en una placa aparte que se une a la placa base.

Son dos componentes críticos de un ordenador de escritorio que están en realidad físicamente bastante separados al compararlos con un sistema SoC.

Por supuesto, existe una razón de por qué los dos sistemas en un móvil están tan cerca. En primer lugar, los smartphones y las tabletas no tienen una gran cantidad de espacio interior para trabajar, por lo que tener componentes críticos empaquetados juntos permite a la placa base del dispositivo ser pequeña y, así, dejar a la batería más espacio. En segundo lugar, el encapsulado de las dos unidades hace que se reduzca la ventilación para reducir de forma más eficiente el calor del dispositivo, ya que al estar todo en un lugar más localizado se puede ahorrar energía. Finalmente, ahorra costes de fabricación para producir un chip en lugar de dos.

 

¿De qué se encarga la GPU en un smartphone?

El uso de la GPU depende de varios factores: de la estructura del SoC y también del sistema operativo utilizado en el dispositivo. En el primer caso: si el SoC no dispone de un chip dedicado para la decodificación de vídeo, la GPU puede encargarse de cumplir ese propósito y manejar vídeos de alta resolución.

En el sistema operativo las cosas son algo más complejas. En primer lugar la GPU se utiliza exclusivamente para la renderización 3D en juegos y aplicaciones. Los núcleos de procesamiento(CPU), simplemente, no están diseñados para manejar este tipo de tareas y en todos los sistemas operativos la GPU se hará cargo de ellas dejando a la CPU encargarse de otros cálculos.

La CPU ayuda en los cálculos para mostrar modelos 3D en la pantalla (en especial para juegos), pero el cálculo principal se hace en el chip de gráficos GPUs.

La mayoría de los núcleos gráficos también admiten la representación 2D: cosas como las animaciones de la interfaz y la imagen de zoom son dos buenos ejemplos en los que se usa la GPU.

Jugar al Asphalt 6: Adrenaline en este Galaxy Note sería muy difícil sin una GPU potente

Windows Phone 7 (como el 8) es muy pesado en cuanto animaciones, y con solo la CPU sería imposible conseguir un uso fluido y sin “tirones”. Así, la GPU juega un papel importante en la prestación de la interfaz principal y otras interfaces con animaciones pesadas (galerías de fotos o vídeos).

Hacer que Android use la GPU (si está disponible) para la interfaz de usuario y la experiencia de navegación es uno de los problemas que Android ha tenido desde que salió. Incluso en algunos de los dispositivos de gama alta, se tienen problemas con la fluidez en el interfaz gráfico de usuario.

Google respondió con la introducción de un recolector de basura mejorado en Android Gingerbread(2.3.X), pero no abordó la raíz del problema, el cual se resolvería con la apertura de la GPU para su utilización en la interfaz. Así nació el problema del lag en Android,(del inglés lag behind, rezagarse) es el retraso producido en una telecomunicación que dificulta el desarrollo normal de la misma, provocando desorientación o incomodidad en el usuario.

Esto se corrigió, por fin, a partir de la versión de Android 4.0, gracias a su soporte 2D por hardware en la interfaz, porque, entre otras cosas, los SoCs modernos incluían GPUs más potentes. Así, ese fue el momento en el que Google permitió que los dispositivos utilizaran sus GPUs para representar los elementos de la interfaz.

Todavía es posible conseguir una interfaz fluida de representación sólo con la CPU (como se ve en Android 2.3 y dispositivos como el Galaxy S II y Motorola Droid Razr), pero la utilización de la GPU hace que el dispositivo sea más eficiente.

Por contra, iOS en el iPhone o en el iPod Touch funciona muy fluido porque hace que más elementos de la interfaz utilicen la GPU. Apple tiene ventaja sobre Android en este aspecto, porque sólo tiene que trabajar con un hardware específico y por esto pueden integrarse en el sistema operativo las funcionalidades precisas para un solo GPU. Por esta, apenas hubo problemas para conseguir la aceleración gráfica por GPU en iOS.

 

Qualcomm: GPUs Adreno

La unidad de procesamiento de gráficos(GPU) Adreno es el chipset gráfico que se utiliza en los SoCs Qualcomm. Las GPUs Adreno se llamaban antes Imageon y fueron fabricados por ATI hasta que Qualcomm adquirió la división de AMD y renombró dichos productos como Adreno.

La vieja serie Adreno 1xx se utilizaron en las viejos SoCs Qualcomm 7xxx, después surgió la nueva serie Adreno 2xx que se utilizan dentro de la serie Snapdragon.

En la gama actual de SoCs Snapdragon se ven tres GPUs Adreno serie 2xx: el Adreno 200 (para S1), 205 (para S2) y 220 (para S3). Un mayor número y la inclusión en una serie más reciente indica una GPU con mayor rendimiento. Qualcomm afirma que cada sucesiva GPU es el doble de rápida que la anterior, es decir, el Adreno 220 es alrededor de 4 veces más rápido que el 200.

Las GPUs Adreno se utilizan exclusivamente en los SoC Qualcomm Snapdragon.

Las GPU Adreno en la gama Snapdragon S3 soportan tanto OpenGL ES 2.0 y 1.1 junto con Direct3D 9.3. Se incluyó en el Adreno 205 hardware acelerado para SVG(HTML5 Scalable Vector Graphics) y Adobe Flash.

Estas son realmente todas las API necesarias para asegurar que los juegos móviles modernos funcionen en un smartphone que adopta una GPU Adreno, ya que, de momento, no hay casi juegos modernos que hagan uso de las nuevas API OpenGL ES 3.0 o Direct3D 11.

Es una moda de Qualcomm no dar información relativa al rendimiento de sus series Adreno, como las estadísticas o los GFLOPS(gigaFLOPS operaciones de coma flotante por segundo) estimados en estos chipsets. Esto hace que sea muy difícil comparar los chips sin tener que recurrir a un índice de referencia.

Mirando hacia el futuro, Qualcomm, ha día de hoy, ya ha decidido dar a conocer información sobre sus fichas, como por ejemplo en el Adreno 225: que aparecerá primero en sus SoC S4 con su nueva arquitectura de núcleo Krait. A diferencia de la futura serie Adreno 3xx, 225 no mejora en el soporte de la API pero sí mejora el rendimiento: Qualcomm afirma que será un 50% más rápido que el Adreno 220 y más o menos a la par con el PowerVR SGX543MP2 (que se encuentra en el SoC A5 de Apple), este es capaz de dar una tasa de 19,2 GFLOPS a 300 MHz.

 

Imagination Tech: GPU PowerVR

Imagination Technologies Group plc (IMG) es un fabricante con sede en Londres de chips gráficos móviles, principalmente conocido por desarrollar sus chips gráficos PowerVR y radios digitales con Pure DAB(es una división de Imagination Tech que se dedica a producir radios digitales DAB: Digital Audio Broadcasting – Radiodifusión de audio digital).

Es el segundo mayor productor de chips gráficos de teléfonos móviles smartphone. Fabrica la línea de GPU PowerVR.

Ha habido muchas series de GPU PowerVR, aunque los dispositivos actuales utilizan el PowerVR SGX 5 o serie 5XT.

Las GPU PowerVR están licenciadas para ser incluidas en otros SoC y así se encuentran en una gran variedad de dispositivos. En los SoC TI OMAP se hace uso exclusivo de las GPU PowerVR, y también los encontrará en el interior de algunos viejos chipsets Exynos de Samsung, así como en los Apple A4 y A5. A veces también se utiliza junto con los procesadores Intel x86 en los ordenadores portátiles de gama baja.

La serie PowerVR SGX 5 se compone de varios modelos de GPUs, pero sólo unos pocos son los que se utilizan regularmente. El SGX530 PowerVR se utiliza en la serie TI OMAP 3, de esta manera encuentra un hueco en una gran cantidad de dispositivos de un solo núcleo, como en el Motorola Droid (original) o en el Nokia N9. Cuando corre a 200 MHz, el SGX530 es capaz de dar 1,6 GFLOPS.

El SGX535 (utilizado en el iPhone 3GS y el iPhone 4) es similar al SGX530 y contiene soporte para DirectX 9.0c, aunque el 530 no lo tiene ambos mantienen el mismo rendimiento.

Este es un vistazo a la arquitectura de la serie PowerVR SGX 5XT

El chip más popular de la serie 5 es el PowerVR SGX540 que se utiliza tanto en el original chipset Samsung Exynos (el Hummingbird) para el Galaxy S como en el SoC TI OMAP 4. Tiene soporte para DirectX 10 y es capaz de dar un rendimiento de 3,6 GFLOPS a 200 MHz, el doble que la SGX530. A diferencia de la SGX530, el SGX540 puede ser ajustado hasta 400 MHz, y así, en teoría, la GPU puede alcanzar los 7,2 GFLOPS.

Algunas personas pueden mirar las implementaciones de la SGX540, y se pueden preguntar por qué aparece en el viejo SoC de núcleo único Hummingbird del Galaxy S original y también aparece en el TI OMAP 4460 de doble núcleo utilizado en el Nexus Galaxy.

Resulta que las velocidades de reloj, en realidad, son diferentes para ambos SoCs: en el Hummingbird va de 140 a 200 MHz (3,2 GFLOPS), el TI OMAP 4430 utilizado en el Razr Droid va a 304 MHz (~ 4,8 GFLOPS) y el TI OMAP 4460 a 384 MHz (~ 6,1 GFLOPS).

La serie más reciente 5XT no ha encontrado su camino en demasiados dispositivos, con la salvedad de las inclusiones en el chip A5 de Apple, utilizado en el iPad 2 y el iPhone 4S, y en la PlayStation Vita.

Cuando la serie 5 sólo tiene un único núcleo en la GPU, la serie 5XT soporta hasta 16 núcleos, cada uno de los cuales es el doble de rápido que el SGX540. La GPU en los 5XT llevan un nombre que incluye MPx, donde la x denota el número de núcleos: por ejemplo la SGX543MP2 utilizado en el A5 de Apple tiene dos núcleos. Así el A6 (iPhone 5) usa la SGX 543MP3 a 266 MHz con tres núcleos, introduce un núcleo más en la GPU con respecto a iPhone 4S.

Actualmente el SGX543 es el único chip que ha, realmente, a encontrado su camino en los SoCs, con la GPU SGX544 están preparados para entrar en la serie TI OMAP 5. El SGX543 ofrece 6,4 GFLOPS por núcleo a 200 MHz, lo que significa que, a 200 Mhz, la SGX543MP2 en el A5 de Apple alcanza 12,8 GFLOPS, que es una mejora considerable sobre el SGX540, gracias al aumento de Mhz. Como Apple no ha especificado qué velocidad de reloj lleva la GPU en el A5 se puede estimar que es de alrededor de 250-300 MHz, lo que significa que estamos viendo la friolera de 16 y 19 GFLOPS.

No se cree que los fabricantes monten más de dos núcleos en el SGX543, ya que cada núcleo añadido consume más energía. Solo Sony decidió que una SGX543MP4, de cuatro núcleos es el camino a seguir en la PlayStation Vita. Incluso con una velocidad de unos 200 MHz, la GPU de la PSVita es capaz de dar 25,6 GFLOPS; con 300 MHz se obtiene 38,4 GFLOPS. Al igual que Apple, Sony realmente no ha especificado la velocidad de reloj de la GPU en su consola, así que sólo se pueden hacer conjeturas en cuanto a la cantidad de potencia de la GPU de la videoconsola.

Solo por curiosidad, si suponemos un PowerVR SGX543MP16 (16 núcleos) con una máxima velocidad de reloj de 400 MHz sería capaz de dar 204,8 GFLOPS. Eso es impresionante y sin duda utilizaría una gran cantidad de energía para poder funcionar. De momento no existe ningún dispositivo que lo monte. A lo mejor en un futuro, con la mejora del rendimiento de las baterías, se podría llegar a implementar.Imagen de la evolución de las series PowerVR a lo largo de los años y en diferentes dispositivos

 

ARM Mali GPU

La sección sobre la GPU Mali va a ser relativamente corta debido a que sólo se utiliza en un SoC: el Samsung Exynos 4210, que se puede encontras en el Samsung Galaxy S II, Galaxy Note y Galaxy Tab 7.7”. La serie Mali es propia de ARM, por lo que deben de ser un compañero ideal para los núcleos de procesamiento Cortex utilizados en el chipset Exynos.

A pesar de que en el papel hay varias GPU Mali, la única que realmente se ha utilizado es la de cuatro núcleos Malí-400 MP4 en el Exynos 4210. Cuando se dice que la ARM Mali-400 MP4 es “quad-core” no es realmente cuatro núcleos de procesamiento como en la PowerVR SGX543MP4, es simplemente cuatro procesadores de sombreado de píxeles. Por ello, el Mali-400 MP4 no tiene las mismas capacidades gráficas que posee el verdadero PowerVR de cuatro núcleos.

Esto es lo que hay dentro de un Mali-400 MP4:

El rendimiento del Mali-400 MP4 es de 7,2 GFLOPS a 200 MHz, lo que significa que es más rápido que un solo núcleo PowerVR SGX543. La velocidad de reloj destinado para el Exynos 4210 es de 275 MHz, es decir, la GPU es capaz de dar un ratio de 9,9 GFLOPS, lo que está entre las GPU más rápidas del mundo en un smartphone Android.

En términos generales: la Mali-400 MP4 en el Galaxy S II es el doble de rápido que la SGX540 en el Razr Droid y aproximadamente 75% más rápido que el mismo GPU en el Galaxy Nexus. A su vez, el iPhone 4S con GPU PowerVR SGX543MP2 es alrededor de dos veces más rápida que la Mali-400 y la Playstation Vita es incluso más rápida que eso.

Samsung seguirá utilizando la GPU Mali en sus futuros SoC Exynos 5xxx, aunque serán unas unidades más potentes que Mali-400 MP4. Actualmente Samsung afirma que el próximo chip de la GPU Exynos será “4 veces más rápido” que la implementación en el 4210.

 

NVIDIA: ULP GeForce GPU

Se ha mencionado que la serie de GPU para teléfonos de NVIDIA no resultaba tan impresionante como las tarjetas gráficas para ordenadores comunes, de echo la GPU ULP GeForce de NVIDIA, que está en sus SoC Tegra es la más lenta de la primera generación de GPUs de doble núcleo, y aquí se detalla el por qué.

La GeForce ULP se utiliza en dos grandes conjuntos de chips Tegra 2: “Tegra 250 AP20H” y “Tegra 250 T20”, el primero en los smartphones y los segundos para las tabletas. La GeForce ULP utilizada aquí tiene una velocidad de 300 MHz (AP20H) o 333 MHz (T20), y sólo es capaz de ofrecer 3,2 GFLOPS a 200 MHz. Esto significa que el AP20H a 300 MHz da 4,8 GFLOPS y el T20 a 333 MHz da 5,33 GFLOPS.

Ahora, a primera vista, se daría uno cuenta de que la capacidad de GFLOPS de la Tegra 2 es el mismo que el PowerVR SGX540 con una velocidad de reloj de 300 MHz, y eso es cierto. Sin embargo, la velocidad máxima del reloj de la SGX540, vista en un dispositivo real, es de 384 MHz en el Galaxy Nexus, que es capaz de rendir a 6,1 GFLOPS. Esto es más rápido que incluso el Tegra 2 en la tableta a 333 MHz, por lo que el Tegra 2 tiene una GPU menos potente.

Se ha de tener en cuenta la velocidad de reloj de la CPU y el tamaño de la pantalla, pero si estamos hablando de las GPUs más capaces, la serie Tegra 2 no es definitivamente la más veloz.

A medida que nos adentramos en la segunda generación de procesadores multi-núcleo, NVIDIA fue el primero en atacar el mercado con su quad-core Tegra 3, como se mencionó en el apartado del procesador. Es de esperar que el Tegra 3, que incluye la GPU ULP GeForce, sea más potente que en el Tegra 2, y si bien es cierto, tal vez no la supera de una forma tan contundente como cabría esperar.

La GeForce Kal-El es capaz de dar 4,8 GFLOPS a 200 MHz, se puede ver inmediatamente que es menor que el rendimiento a 200 MHz de la Mali-400 MP4 y la PowerVR SGX543MP2.

NVIDIA no ha especificado exactamente qué velocidad de reloj de la GPU se ha introducido en el chip Tegra 3, solo ha dicho que es mayor que en el Tegra 2. Si estimamos que funciona a 400 MHz, sigue siendo sólo capaz de dar 9,6 GFLOPS, que está cerca de la GPU Mali-400 MP4.

 

Comparativa de GPUs en smartphones

Sabiendo ya las diferentes gamas de GPUs móviles disponibles en el mercado, es el momento de ver cuál es la más rápida. Para ello está la siguiente tabla que muestra en GFLOPS cual es más potente.

Esto simplemente indica el rendimiento potencial de cada GPU y no refleja el rendimiento real, porque las GPU se colocan en una amplia gama de sistemas en los que los factores externos influyen: aumento de la velocidad de reloj del procesador, tipos de RAM con sus velocidades y resoluciones de pantalla, pueden afectar al rendimiento real del sistema gráfico de un smartphone.

Nota: las GPUs Adreno de Qualcomm se incluyen como meros marcadores de posición en esta tabla, pero no hay manera de saber donde alinearlos completamente.

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-27-graphics-2

http://forum.xda-developers.com/showthread.php?t=1050968

http://www.androidannoyances.com/post/10

 

Evolución de la memoria RAM y la memoria secundaria en los smartphones

Memoria RAM en los smartphones (el microchip):

El microchip también es conocido con el nombre de circuito integrado. Este se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby (fue un importante ingeniero eléctrico estadounidense que fue galardonado con el Premio Nobel de Física en el año 2000, diplomado de las universidades de Illinois y de Wisconsin, desde 1958 fue empleado de la compañía informática estadounidense Texas Instruments, donde desarrolló el microchip en 1959).

Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. La investigación de Kilby condujo a la producción de los microprocesadores y forjó los cimientos conceptuales y técnicos para todo el campo de la microelectrónica.

Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos, transistores, y componentes pasivos como resistores o condensadores.

Su área puede ser de 1 cm, 2 cm o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados hoy en día en los dispositivos electrónicos. Se utilizan, además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc.

Un transistor actúa como un interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente.

Se usa en computadoras para almacenar información o en amplificadores de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio.

El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar una cantidad de datos inmensa, que hace años era impensable.

La minituarización ha tenido un papel muy importante en este componente ya que hoy en día se necesita un desarrollo a nivel microscópico para diseñar los microchips.

Entre los circuitos integrados más avanzados se encuentran los microprocesadores, que controlan desde computadoras hasta teléfonos móviles y hornos microondas. Los chips de memorias digitales son otra familia de circuitos integrados que son de importancia crucial para la moderna sociedad de la información.

Mientras que el costo de diseñar y desarrollar un circuito integrado complejo es bastante alto, cuando se reparte entre millones de unidades de producción el costo individual de los circuito integrado (CI) por lo general se reduce al mínimo.

La eficiencia de los CI es alta debido a que el pequeño tamaño de los chips permite cortas conexiones que posibilitan la utilización de lógica de bajo consumo (como es el caso de CMOS del inglés complementary metal-oxide-semiconductor, “estructuras semiconductor-óxido-metal complementarias”) en altas velocidades de conmutación.

Atendiendo al nivel de integración -número de componentes- los circuitos integrados se pueden clasificar en:

  • SSI (Small Scale Integration) pequeño nivel: de 10 a 100 transistores
  • MSI (Medium Scale Integration) medio: 101 a 1.000 transistores
  • LSI (Large Scale Integration) grande: 1.001 a 10.000 transistores
  • VLSI (Very Large Scale Integration) muy grande: 10.001 a 100.000 transistores
  • ULSI (Ultra Large Scale Integration) ultra grande: 100.001 a 1.000.000 transistores
  • GLSI (Giga Large Scale Integration) giga grande: más de un millón de transistores

En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:

  • Circuitos integrados analógicos. Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta circuitos completos y funcionales, como amplificadores, osciladores o incluso receptores de radio completos.
  • Circuitos integrados digitales. Pueden ser desde básicas puertas lógicas (AND, OR, NOT) hasta los más complicados microprocesadores o microcontroladores.

En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido, de forma que llegan a ser microscópicos. Sin embargo, permiten grandes simplificaciones con respecto los antiguos circuitos, además de un montaje más eficaz y rápido.

 

¿Qué tipo de memoria RAM usan los smartphones?

La memoria RAM, que es la abreviatura de memoria de acceso aleatorio (Random Access Memory), es uno de los componentes críticos del móvil, junto con los núcleos de procesamiento de la CPU y GPU. Sin RAM, cualquier tipo de sistema de computación sería incapaz de realizar tareas básicas y acceder a los archivos de su memoria secundaria sería ridículamente lento.

Este tipo de memoria es un intermediario entre el sistema de archivos, ubicados en la ROM(read only memory, es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite sólo la lectura de la información y no su escritura), y los núcleos de procesamiento, que procesa cualquier tipo de información lo más rápidamente posible.

Los archivos críticos que necesita el procesador se almacenan en la memoria RAM, que siempre ha de estar lista en espera de ser leída o escrita. Estos archivos críticos para el dispositivo pueden ser: los componentes del sistema operativo, datos de aplicaciones y gráficos de un juego, o en general cualquier cosa a la que se deba acceder a velocidades mayores que las de acceso a memorias de almacenamiento secundario.

El tipo de memoria RAM que se utiliza en móviles smartphone es, técnicamente, DRAM(RAM Dinámica).

La estructura de la DRAM es tal que cada condensador de la placa de RAM almacena un bit, y estos condensadores requieren de un constante “refresco” o actualización de los datos que están almacenados.

El contenido del módulo de memoria DRAM se puede cambiar rápida y fácilmente para almacenar diferentes datos.

La ventaja que la DRAM tiene frente a la RAM estática(SRAM) es que el almacenamiento se puede cambiar para hacer frente a cualquier tarea que el sistema esté tratando de realizar. Si un sistema operativo completo pesa, por ejemplo, 2GB en disco, no tendría sentido para la RAM archivar todo el peso, sobre todo cuando los smartphones disponen de bajas cantidades de RAM, como 512 MB o menos.

La RAM es diferente a la memoria de almacenamiento de memoria flash tipo ROM. La ROM persiste en el dispositivo aunque la energía se desconecte, cosa que la RAM pierde su contenido. Esta RAM también se conoce como memoria volátil, y parcialmente, esta forma de trabajar, ayuda a que los tiempos de acceso sean tan rápidos.

La información de la ROM se debe de pasar a la RAM, y el factor limitador en la mayoría de los casos es la velocidad de lectura de la memoria ROM (en los ordenadores sobremesa o portátiles se están poniendo de moda los discos duros SSD o unidades de estado sólido, que a partir del 2010 la mayoría de ellos utilizan memoria flash NAND, la misma que usan los smartphones).

Cuando el sistema está apagado, el contenido de la RAM se pierde por lo que en el siguiente arranque, la memoria RAM debe ser llenada por los contenidos que se encuentra en el sistema de almacenamiento secundario.Un diagrama que muestra una configuración de package-on-package en los SoCs. La matriz inferior sería el SoC y la superior la RAM

Si se está preguntando donde se puede encontrar la RAM en los smartphones, en la mayoría de los casos se encontrará directamente en la parte superior del SoC, en el lugar que se conoce como paquete-en-paquete (PoP package-on-package). Esto permite el acceso directo del SoC a la RAM y la escasa distancia entre ambos significa menor calor y menor consumo de energía. Si no hay suficiente espacio en la parte superior del SoC, a menudo se puede encontrar la RAM en lugares próximos a este.

El tamaño y la velocidad lo es todo

Lo que más importa de una memoria RAM en un móvil es el tamaño. Es sencillo, más es mejor, ya que cuanto mayor sea la capacidad de la RAM, más datos se pueden almacenar para acceder rápidamente a una parte de ellos sin borrar otras. En general, no es preocupante el gasto de energía que hace la RAM para funcionar, porque es sólo una pequeña fracción del total consumido por el sistema, además es fácilmente superada por la pantalla o por el procesador.

Con un sistema operativo móvil no es común el consumo de cantidades muy grandes de RAM. Por lo general las aplicaciones de smartphone usan una pequeña cantidad de memoria RAM (alrededor de 50 MB de media), por lo que muchas de estas aplicaciones se pueden ejecutar simultáneamente. El sistema operativo puede decidir que procesos suspender o matar y si no están siendo usadas en ese momento, así se libera RAM para su usarla en otras aplicaciones. Esta es la razón por la que los SO móviles funcionan de manera “fluida” aún cuando los dispositivos donde se ejecuten sólo dispongan de 512 MB de RAM.

Sin embargo, esto no quiere decir que tener grandes cantidades de RAM sea malo. En juegos de gran detalle gráfico, como los que son en 3D, se puede consumir grandes cantidades de RAM en almacenamiento de gráficos del juego, texturas, modelos 3D y el sonido.

Si bien tener 512 MB puede parecer suficiente para ejecutar aplicaciones básicas de una manera fluida, puede que no sea suficiente para almacenar la información de un juego 3D sin tener problemas de lag en los juegos de alto requerimiento gráfico.

Ejecutar un juego como el Dungeon Defenders requiere una gran cantidad de memoria RAM.

Se puede decir que con un smartphone Android (de, por ejemplo, 1 GB de RAM) pocas veces se ven juegos con un uso de más de 300 MB de RAM. Sin embargo, cuando se hace uso simultáneo de componentes del sistema operativo, como la mensajería, la marcación y la pantalla de inicio(escritorio) que siempre se ejecutan en segundo plano, se puede observar que más de la mitad de ese giga de RAM se está utilizando. En un sistema con sólo 512 MB de RAM, haciendo lo mismo, el rendimiento podría empeorar bastante.

La velocidad de la RAM es algo que a menudo es pasado por alto cuando se mide el rendimiento de un smartphone. Claro, tener una gran cantidad de RAM es recomendable, pero es sólo muy recomendable cuando se puede acceder rápidamente a los contenidos que almacena, y es aquí donde entra en juego la velocidad.

Al igual que con un equipo de escritorio(portátil, netbook o sobremesa), hay tres áreas principales de la memoria que afectan a su velocidad: la velocidad de reloj, tipo de tecnología utilizada en la fabricación de la memoria RAM y la cantidad de canales.

El cómo influyen estos tres factores en el rendimiento final del equipo es complicado y confuso de explicar; pero, básicamente si se quiere velocidad, se ha de buscar una velocidad de reloj alta y disponibilidad de múltiples canales.

La velocidad de reloj afecta directamente a las velocidades de entrada/salida (I/O) de los módulos de memoria RAM, una velocidad de reloj más alta es indicativo de que el módulo es capaz de añadir más información a los chips de memoria en un segundo. En la RAM móvil no se alcanzan grandes velocidades de reloj, (generalmente 300-500 MHz), pero para las aplicaciones del tipo que hacen uso los smartphone debería ser más que suficiente.

El tipo de RAM afecta: al rendimiento, a la eficacia de cada ciclo de reloj para adicionar información al módulo y a la cantidad de energía por Mhz que consume el chip. Al igual que con las computadoras, hoy día la memoria de los móviles se presenta en forma de memoria dinámica de acceso aleatorio de doble tasa de transferencia de datos(DDR Double Data Rate DDR SDRAM), que dan un rendimiento enorme.

El iPhone 4S tiene 512 MB de LPDDR2 integrados en el interior del SoC Apple A5. Las marcas en amarillo indican que la incluye.

Mientras que las PC actualmente suelen utilizar la tercera versión de DDR SDRAM (DDR3), los SoC de los móviles actuales montan habitualmente LPDDR2, donde el LP(Low Power) es sinónimo de ahorro energético. LPDDR2 es, básicamente, similar a la memoria DDR2 estándar de escritorio, solo que utiliza menos energía (LP), esto hace disminuir algo el rendimiento con respeto a DDR2. Las capacidades de la versión DDR3 estarán presentes en próximos SoCs para smartphones, tabletas u otros dispositivos portátiles.

Los canales de memoria no son tan importantes para el rendimiento final en una memoria RAM, pero realmente, cuanto más canales se tenga habrá menos probabilidades para tener un cuello de botella en el sistema. Las memorias RAM de doble canal son comparables a los procesadores de doble núcleo, donde dos módulos de memoria RAM pueden comunicarse en paralelo con el bus de la CPU.

La mayoría de los smartphones tienen un solo canal de memoria en su SoC, como el Snapdragon S2, en los S3 se ha optado por RAM de doble canal. Como rara vez hay un cuello de botella causado por la RAM, la cantidad de canales puede ser ignorada en la mayoría de las circunstancias, la velocidad de reloj es mucho más importante para la velocidad.

La última cosa ,que debe ser mencionada acerca de la RAM en un smartphone, es que no existe una memoria RAM de vídeo dedicada para el chipset de gráficos, es decir, la memoria RAM del móvil está compartida entre los núcleos de procesamiento CPU y la GPU. Esto es debido al diseño de system-on-a-chip que incorpora la CPU y la GPU. Pero, en realidad, no debería suponer un problema en términos de rendimiento, de hecho se lleva haciendo mucho tiempo en los ordenadores de sobremesa y, también, en portátiles.

 

El almacenamiento interno, la ROM.

Al igual que la RAM, el almacenamiento interno es fundamental para el funcionamiento básico de un smartphone, sin ningún lugar para almacenar el sistema operativo y los archivos críticos de las aplicaciones no se podría hacer nada. Incluso si un teléfono no tiene memoria accesible para el usuario, habrá alguna forma de almacenamiento permanente interno que guarde, al menos, el sistema operativo.

Dependiendo del sistema operativo instalado en el dispositivo, y del dispositivo en si, hay múltiples chips de almacenamiento en el interior del sistema.

Estos chips pueden entonces estar divididos en varias áreas para diferentes propósitos, tales como archivos de aplicaciones de almacenamiento, memoria caché y el sistema. Normalmente, el chip que almacena los archivos de sistema se denomina ROM (memoria de sólo lectura), es un nombre algo inapropiado porque la memoria aquí, en realidad, puede ser modificada a través de las actualizaciones del sistema, pero no por el usuario final, en un principio.

Algunos dispositivos, como el Samsung Galaxy S, tienen una configuración multi-ROM. Un chip de memoria más pequeño de cerca de 512 MB, pero muy rápido que almacena los archivos principales del sistema, caché y datos de aplicaciones en particiones independientes. El segundo chip es más grande, y es generalmente una partición, 1-2 GB, de almacenamiento del usuario que es más lento pero permite el almacenamiento de aplicaciones diferentes al SO.

En estos sistemas, que pueden tener un total de 2 GB de memoria de acceso rápido, pueden ser demasiado caro para incluir más capacidad, por lo que se suele reducir el tamaño para almacenar sólo el SO. Se utiliza un tipo de almacenamiento más barato para los datos del usuario. Al final se tiene un buen equilibrio entre rendimiento y coste para el fabricante.

Los detalles internos del Motorola Droid Razr, 16 GB de almacenamiento secundario en rojo (y 1 GB de RAM en naranja).

Otros dispositivos como el iPhone 4S de Apple o el Motorola Droid Razr prefieren incluir un solo chip de almacenamiento que se encuentra, en términos de rendimiento, entre los dos chips utilizados en una configuración multi-chip(multi-ROM).

El rendimiento de los chips de almacenamiento internos son, en general, mejor que lo que cualquier usuario puede conseguir con tarjetas microSD, que son las más utilizadas en los smartphones.

Al estar los chips directamente soldados a la placa base del dispositivo las velocidades de lectura/escritura alcanzadas son bastante buenas, pueden estar por encima de 6 MB/s en escritura.

A veces las empresas engañan a sus usuarios finales y no les informan de forma veraz sobre la memoria interna accesible al usuario, y ponen una ranura para una tarjeta microSD que no es accesible por el usuario si no retira la batería del terminal. Esto pasaba de forma frecuente en la primera generación de móviles con Windows Phone, como el HTC Trophy y HTC HD7.

 

Almacenamiento extraíble

A veces, al almacenamiento que es extraíble por el usuario, se le denomina “memoria externa”, pero realmente no es externa, ya que se introduce dentro del teléfono.

Hoy en día casi todos los móviles, que tiene un usuario medio, usan almacenamiento extraíble con tarjetas microSD, por medio de ranuras para tarjetas SD.

De los tres principales sistemas operativos de smartphones (iOS, Android y WP7), Android es el único que realmente soporta de forma nativa el almacenamiento extraíble. Con los dispositivos iOS como el iPhone, Apple no incluye ningún método para expandir el almacenamiento, en su lugar se le da al usuario un almacenamiento interno de generosas dimensiones que pueden utilizar para aplicaciones, videos, música y demás.

En Windows Phone es inusual el soporte para tarjetas microSDs, pero hay alguno con una ranura para estas tarjetas: es el Samsung Focus. Sin embargo, desgraciadamente, los datos que se colocan en la tarjeta extraíble tienen fuertes medidas de seguridad para que no se puedan leer en otros dispositivos o en un ordenador, siendo el software de gestión del propio teléfono el único capaz de cambiar lo que está en la tarjeta.

Cuando se trata del SO Android hay dos implementaciones de almacenamiento extraíble accesibles por el usuario: el almacenamiento accesible solo por el usuario en memoria externa o complementado con la memoria interna. Si se complementa lo que ya está disponible internamente, hay una partición independiente del sistema para la tarjeta externa como /sd-ext o /mmc, a las que algunas aplicaciones, tales como reproductores de música y vídeo, pueden tener acceso a ella.

A menudo, las aplicaciones que introducen datos a la “tarjeta SD” en realidad se almacenarán la memoria interna del teléfono en situaciones donde hay disponible (a menos que el usuario tenga la opción de elegir el destino o posteriormente mover las aplicaciones a la tarjeta, esto está soportado de forma nativa a partir de Android 2.2 o por aplicaciones en versiones anteriores).

La especificación original de SD permite tarjetas de hasta 2 GB de tamaño, y luego SDHC (SD de alta capacidad) aumentó el límite de tamaño a 32 GB. Recientemente SDXC (SD eXtended Capacity) aumenta el límite hasta los 2 TB, pero las tarjetas SDXC no son compatibles con la mayoría de los nuevos smartphones, es decir, la expansión máxima de almacenamiento se ha fijado, por el momento, en 32 GB.

Además del tamaño, la otra cosa importante a considerar al comprar una tarjeta microSD para un móvil es la velocidad, que aparece con el nombre de “clase” en el envase. Afortunadamente, el número de clases es muy fácil de entender, ya que se corresponde directamente con la velocidad mínima de escritura de la tarjeta en MB/s. Una tarjeta que está clasificado como Clase 4 será capaz de escribir a un mínimo de 4 MB/s, y la clase 10 a 10 MB/s.

Las clases son descritas por el fabricante dentro de las especificaciones de la tarjeta, y en general una clase más alta significa que la tarjeta será más cara pero de una velocidad mallor. Para tarjetas microSD lo mejor que se puede conseguir es una de 32 GB Clase 10, que por lo general cuestan alrededor de 26 € en España, estas tarjetas pueden superar la memoria interna de un dispositivo, además este tiene que poder soportar 10 MB/s de velocidad de escritura en la su ranura para tarjetas.

Con la combinación correcta de un dispositivo con 64 GB de almacenamiento interno y una ranura microSD, como el Samsung Galaxy Tab 7.7, se podría tener la nada desdeñable cantidad de 96 GB de almacenamiento accesible al usuario si se ha añadido una microSD de 32 GB.

Referencias:

http://www.engadget.com/2010/10/29/htc-hd7-has-hidden-microsd-slot-user-replacable-card/

http://en.wikipedia.org/wiki/Samsung_Focus

http://windowsphonesecrets.com/2010/11/06/samsung-focus-microsd/

http://www.neowin.net/news/guide-to-smartphone-hardware-37-memory-and-storage

 

Las microSD: tecnología y evolución

Las tarjetas microSD o Transflash corresponden a un formato de tarjeta de memoria flash más pequeña que la MiniSD, desarrollada por SanDisk y adoptada por la “Asociación de Tarjetas SD” bajo el nombre de «microSD» en julio de 2005.

SanDisk Corporation: es una empresa estadounidense dedicada al desarrollo y fabricación de dispositivos de almacenamiento de información, con sede en Milpitas, California. Inventó las tarjetas de almacenamiento flash y unidades flash USB y desarrolló o colaboró en el desarrollo de los formatos de tarjetas CompactFlash, SD y Memory Stick.

La Asociación de Tarjetas SD es una organización de la industria del mercado, creada en enero de 2000, (por Matsushita Electric Industrial Co, Ltd (Panasonic), SanDisk Corporation y Toshiba Corporation), con el propósito de fijar los estándares de las tarjetas de memoria SD y promover así su mayor aceptación en las aplicaciones digitales.

La tarjeta microSD mide tan solo 15 × 11 × 1 milímetros, lo cual le da un área de 165 mm². Esta es tres veces y media más pequeña que la miniSD, que era hasta la aparición de las microSD el formato más pequeño de tarjetas SD, y es alrededor de un décimo del volumen de una tarjeta SD. Sus tasas de transferencia no son muy altas, sin embargo, empresas como SanDisk han trabajado en ello, llegando a versiones que soportan velocidades de lectura de hasta 10 Mb/s. Actualmente, ya existen tarjetas microSD fabricadas por Panasonic que alcanzan los 90 Mb/s de lectura y los 80 Mb/s de escritura, pero tienen unos precios todavía inalcanzables para la gran mayoría del público.

Debido a que su coste duplica el de una Secure Digital equivalente, su uso se ciñe a aplicaciones donde el tamaño es crítico, como los teléfonos móviles, sistemas GPS o consolas portátiles (como Nintendo DSi o Nintendo 3DS). Aun así, debido a la gran demanda de este tipo de tarjetas, son más baratas que las SD tradicionales en igualdad de especificaciones, al menos en las capacidades de hasta 32GB. A partir de esta capacidad son más rentables las tarjetas SD.

Secure Digital High Capacity (SDHC) es un formato de tarjeta de memoria flash desarrollado por Panasonic Corp(anteriormente denominada Matsushita Electric Industrial Co). Es la versión 2.0 de las memorias SD. Se utiliza en dispositivos portátiles de última generación tales como cámaras fotográficas digitales, ordenadores PDA, consolas de videojuegos, teléfonos móviles o reproductores de música (MP3, MP4), entre otros.

Estas memorias HC fueron creadas en enero del año 2001 para las nuevas tecnologías y están relacionadas directamente con la filmación de vídeo en alta calidad. Como su propio nombre indica, son tarjetas SD de alta capacidad, que van desde 1 hasta los 64 GB y sólo funcionan en los equipos más recientes que tienen el logo SDHC.

Versiones microSD:

  • 16 MB (MiB) (fuera de venta)
  • 32 MB (fuera de venta)
  • 64 MB (fuera de venta)
  • 128 MB (fuera de venta)
  • 256 MB (fuera de venta)
  • 512 MB
  • 1 GB
  • 2 GB

MicroSDHC:

  • 4 GB
  • 8 GB
  • 16 GB
  • 32 GB
  • 64 GB

Especificaciones de las tarjetas SD

Referencias:

http://es.wikipedia.org/wiki/SanDisk

http://es.wikipedia.org/wiki/Matsushita

 

Memoria tipo flash

La memoria flash deriva de la memoria EEPROM que permite la lectura-escritura de múltiples posiciones de memoria en la misma operación. Gracias a ello, la tecnología flash, siempre mediante impulsos eléctricos, permite velocidades de funcionamiento muy superiores frente a la tecnología EEPROM primigenia, que sólo permitía actuar sobre una única celda de memoria en cada operación de programación. Se trata de la tecnología empleada en los dispositivos pendrive o memorias USB.

La historia de la memoria flash siempre ha estado muy vinculada con el avance del resto de las tecnologías a las que presta sus servicios como routers, módems, BIOS de los PC, wireless, etc.

Fue Fujio Masuoka en 1984, quien inventó este tipo de memoria como evolución de las EEPROM existentes por aquel entonces.

Intel intentó atribuirse la creación de esta sin éxito, aunque sí comercializó la primera memoria flash de uso común.

Entre los años 1994 y 1998, se desarrollaron los principales tipos de memoria que conocemos hoy, como la SmartMedia o la CompactFlash. La tecnología pronto planteó aplicaciones en otros campos. En 1998, la compañía Rio comercializó el primer ‘Walkman’ sin piezas móviles aprovechando el modo de funcionamiento de SmartMedia. Era el sueño de todo deportista que hubiera sufrido los saltos de un discman en el bolsillo.

En 1994 SanDisk comenzó a comercializar tarjetas de memoria (CompactFlash) basadas en estos circuitos, y desde entonces la evolución ha llegado a pequeños dispositivos de mano de la electrónica de consumo como reproductores de MP3 portátiles, tarjetas de memoria para vídeo consolas, y para móviles.

Funcionamiento de la memoria flash

Flash, como un tipo de memoria EEPROM que es, contiene una matriz de celdas con un transistor evolucionado con dos puertas en cada intersección.

Tradicionalmente sólo almacenan un bit de información. Las nuevas memorias flash, llamadas también dispositivos de celdas multi-nivel, pueden almacenar más de un bit por celda variando el número de electrones que almacenan.

Estas memorias están basadas en el transistor FAMOS (Floating Gate Avalanche-Injection Metal Oxide Semiconductor) que es, esencialmente, un transistor NMOS con un conductor (basado en un óxido metálico) adicional localizado o entre la puerta de control (CG – Control Gate) y los terminales fuente/drenador contenidos en otra puerta (FG – Floating Gate) o alrededor de la FG conteniendo los electrones que almacenan la información.

Esquema de un transistor FAMOS.

 

Memoria flash de tipo NOR

En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG, modifican (prácticamente anulan) el campo eléctrico que generaría CG en caso de estar activo.

De esta forma, dependiendo de si la celda está a 1 ó 0, el campo eléctrico de la celda existe o no. Entonces, cuando se lee la celda poniendo un determinado voltaje en CG, la corriente eléctrica fluye o no en función del voltaje almacenado en la celda. La presencia/ausencia de corriente se detecta e interpreta como un 1 ó un 0, reproduciendo así el dato almacenado.

En los dispositivos de celda multi-nivel, se detecta la intensidad de la corriente para controlar el número de electrones almacenados en FG e interpretarlos adecuadamente.

Para programar una celda de tipo NOR (asignar un valor determinado) se permite el paso de la corriente desde el terminal fuente al terminal sumidero, entonces se coloca en CG un voltaje alto para absorber los electrones y retenerlos en el campo eléctrico que genera. Este proceso se llama hot-electrón injection.

Para borrar (poner a “1′s”, el estado natural del transistor) el contenido de una celda, expulsar estos electrones, se emplea la técnica de Fowler-Nordheim tunnelling, un proceso de tunelado mecánico – cuántico. Esto es, aplicar un voltaje inverso bastante alto al empleado para atraer a los electrones, convirtiendo al transistor en una pistola de electrones que permite, abriendo el terminal sumidero, que los electrones abandonen el mismo.

Este proceso es el que provoca el deterioro de las celdas, al aplicar sobre un conductor tan delgado un voltaje tan alto.

Es necesario destacar que las memorias flash están subdivididas en bloques (en ocasiones llamados sectores) y por lo tanto, para el borrado, se limpian bloques enteros para agilizar el proceso, ya que es la parte más lenta del proceso. Por esta razón, las memorias flash son mucho más rápidas que las EEPROM convencionales, ya que borran byte a byte. No obstante, para reescribir un dato es necesario limpiar el bloque primero para después reescribir su contenido.

Memoria tipo NOR.

Memorias flash de tipo NAND

Las memorias flash basadas en puertas lógicas NAND funcionan de forma ligeramente diferente: usan un túnel de inyección para la escritura y para el borrado un túnel de ‘soltado’.

Las memorias basadas en NAND tienen, además de la evidente base en otro tipo de puertas, un coste bastante inferior, unas diez veces de más resistencia a las operaciones pero sólo permiten acceso secuencial (más orientado a dispositivos de almacenamiento masivo), frente a las memorias flash basadas en NOR que permiten lectura de acceso aleatorio. Sin embargo, han sido las NAND las que han permitido la expansión de este tipo de memoria, ya que el mecanismo de borrado es más sencillo (aunque también se borre por bloques) lo que ha proporcionado una base más rentable para la creación de dispositivos de tipo tarjeta de memoria. Las populares memorias USB o también llamadas pendrives, utilizan memorias flash de tipo NAND.

Memoria flash tipo NAND

Comparación de memorias flash basadas en NOR y NAND

Para comparar estos tipos de memoria se consideran los diferentes aspectos de las memorias tradicionalmente valorados.

  • La densidad de almacenamiento de los chips es actualmente bastante mayor en las memorias NAND.
  • El coste de NOR es mucho mayor.
  • El acceso NOR es aleatorio para lectura y orientado a bloques para su modificación. Sin embargo, NAND ofrece tan solo acceso directo para los bloques y lectura secuencial dentro de los mismos.
  • En la escritura de NOR podemos llegar a modificar un solo bit. Esto destaca con la limitada reprogramación de las NAND que deben modificar bloques o palabras completas.
  • La velocidad de lectura es muy superior en NOR (50-100 ns) frente a NAND (10µs de la búsqueda de la página + 50 ns por byte).
  • La velocidad de escritura para NOR es de 5µs por byte frente a 200µs por página en NAND.
  • La velocidad de borrado para NOR es de 1s por bloque de 64 KB frente a los 2ms por bloque de 16 KB en NAND.
  • La fiabilidad de los dispositivos basados en NOR es realmente muy alta, es relativamente inmune a la corrupción de datos y tampoco tiene bloques erróneos frente a la escasa fiabilidad de los sistemas NAND que requieren corrección de datos y existe la posibilidad de que queden bloques marcados como erróneos e inservibles.

En resumen, los sistemas basados en NAND son más baratos y rápidos pero carecen de una fiabilidad que los haga eficientes, lo que demuestra la necesidad imperiosa de un buen sistema de archivos. Dependiendo de qué sea lo que se busque, merecerá la pena decantarse por uno u otro tipo.

Usos de la memoria flash:

Flash NAND, se usan para almacenamiento de código y datos. A veces se usan flash NOR y flash NAND unidas, como en el caso de OneNAND Flash de Samsung.

OneNAND Flash de Samsung: satisface las necesidades de memoria de los dispositivos de última generación, proporcionando un flash de un solo chip que ofrece una alta densidad de integración típica de las flash NAND con un un simplificado interfaz típico de las flash NOR. OneNAND alcanza velocidades de hasta 108MB/s en lectura. Se encuentra disponibles en densidades de 256 MB hasta 8GB. Con esta tecnología los diseñadores pueden utilizar sus actuales interfaces NOR para comunicaciones directas con la flash NAND, OneNAND también aumenta la velocidad de escritura cosa muy difícil de conseguir con las NOR.

La próxima generación de smartphones requerirán más memoria para satisfacer las necesidades de los usuarios. Así OneNAND permite:

  • Hasta 50 veces más rápido para el visionado de fotos (referencia de fotos con 3 megapíxeles).
  • Baja tensión y menor consumo para la batería.
  • Reducción de un 40% en los costes frente a NOR.

Velocidades de las flash NAND

Los investigadores probaron los chips integrados de flash NAND de 16GB utilizados en smartphones Android y se encontró que el rendimiento a través de una red WiFi variaba entre un 100% y un 300% en todas las aplicaciones. Cuando se hizo una prueba en tarjetas de memoria flash de diferentes fabricantes y tipos(clases), el rendimiento tenía a veces variaciones de hasta 20 veces.

Debajo tenemos una tabla con el rendimiento que dieron las tarjetas de diferentes fabricantes.

Referencias:

http://es.wikipedia.org/wiki/Memoria_reprogramable

http://mundodelafotografia.com/index.php/Tarjetas-Digitales/tecnologias-flash-no-volatiles-nor-y-nand.html

http://en.wikipedia.org/wiki/NOR_flash_replacement

Páginas 11, 12 y 13 del libro “Inside NAND Flash Memories”, escrito por Rino Micheloni, Luca Crippa y Alessia Marelli:

http://books.google.es/books?id=vaq11vKwo_kC&pg=PA12&lpg=PA12&dq=memory+inside+smartphone+NOR+NAND&source=bl&ots=UIVKLljHu3&sig=Ba7YxQUiuOWIcY_9csfx8WBiY0c&hl=es&sa=X&ei=EOWoUNzrI6S40QXb_4GoBg&ved=0CDoQ6AEwAQ#v=onepage&q=memory%20inside%20smartphone%20NOR%20NAND&f=false

http://static.usenix.org/events/fast12/tech/full_papers/Kim.pdf

http://www.computerworld.com/s/article/9224352/Slow_smartphone_It_s_not_the_network_it_s_NAND_flash

Sensores y hardware en smartphones.

Bluetooth

Bluetooth: es una especificación industrial para redes inalámbricas de área personal (WPAN) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM(Bandas ISM(Industrial, Scientific and Medical) son bandas reservadas internacionalmente para uso no comercial) en los 2,4 GHz. Los principales objetivos que se pretenden conseguir con esta norma son:

  • Facilitar las comunicaciones entre equipos móviles y fijos.
  • Eliminar los cables y conectores entre éstos.
  • Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.

Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras o cámaras digitales.

El nombre procede del rey danés y noruego Harald Blåtand, cuya traducción al inglés es Harald Bluetooth, conocido por unificar las tribus noruegas, suecas y danesas y por convertirlos al cristianismo. La idea de este nombre fue propuesto por Jim Kardach que desarrolló un sistema que permitiría a los teléfonos móviles comunicarse con los ordenadores y unificar la comunicación de los sistemas digitales.

El logo de Bluetooth son las runas(la letras llamadas runas se emplearon para escribir en las lenguas germánicas ) de las iniciales del nombre y el apellido. La Hagall y la Berkana.

Especificaciones Bluetooth y novedades

La utilidad Bluetooth fue desarrollada como un reemplazo del cable en 1994 por Jaap Haartsen y Mattisson Sven, que estaban trabajando para Ericsson en Lund, Suecia. La utilidad se basa en la tecnología de saltos de frecuencia de amplio espectro.

Las prestaciones fueron publicadas por el Bluetooth Special Interest Group (SIG). El SIG las anunció formalmente el 20 de mayo de 1998. Hoy cuenta con una membresía de más de 14.000 empresas en todo el mundo. Fue creado por Ericsson, IBM, Intel, Toshiba y Nokia, y posteriormente se sumaron muchas otras compañías.

Todas las versiones de los estándares de Bluetooth están diseñadas para la compatibilidad hacia abajo, que permite que el último estándar cubra todas las versiones anteriores.

SIG (El grupo de interés especial de Bluetooth) es una asociación privada sin ánimo de lucro con sede en Bellevue, Washington que, a fecha de septiembre de 2007, estaba formado por más de 9000 compañías de telecomunicaciones, informática, automovilismo, música, textil, automatización industrial y tecnologías de red. Los miembros del SIG dirigen el desarrollo de la tecnología inalámbrica Bluetooth, además de implementar y comercializar la tecnología en sus productos. El Bluetooth SIG por sí mismo no fabrica ni vende dispositivos Bluetooth.

Bluetooth v1.0 y v1.0b

Las versiones 1.0 y 1.0b tuvieron muchos problemas, y los fabricantes tenían dificultades para hacer que sus productos la soportaran. Las versiones 1.0 y 1.0b incluyen en hardware de forma obligatoria la dirección del dispositivo Bluetooth (BD_ADDR) en la transmisión (el anonimato se hace imposible a nivel de protocolo), lo que fue un gran revés para algunos servicios previstos para su uso en entornos Bluetooth.

Bluetooth v1.1

  • Ratificado como estándar IEEE 802.15.1-2002
  • Muchos errores en las especificaciones 1.0b se corrigieron.
  • Añadido soporte para canales no cifrados.
  • Indicador de señal recibida (RSSI).

Bluetooth v1.2

Esta versión es compatible con USB 1.1 y las principales mejoras son las siguientes:

  • Una conexión más rápida y Discovery (detección de otros dispositivos bluetooth).
  • Salto de frecuencia adaptable de espectro ampliado (AFH), que mejora la resistencia a las interferencias de radio frecuencia, evitando el uso de las frecuencias de lleno en la secuencia de saltos.
  • Mayor velocidad de transmisión en la práctica, de hasta 721 kbit/s, que en v1.1.
  • Conexiones Sincrónicas extendidas (ESCO), que mejoran la calidad de la voz de los enlaces de audio al permitir la retransmisión de paquetes corruptos, y, opcionalmente, puede aumentar la latencia de audio para proporcionar un mejor soporte para la transferencia de datos simultánea.
  • Host Controller Interface (HCI) el apoyo a tres hilos UART.
  • Ratificado como estándar IEEE 802.15.1-2005
  • Introdujo el control de flujo y los modos de retransmisión de L2CAP.

Bluetooth v2.0 + EDR

Esta versión de la especificación principal Bluetooth fue lanzada en 2004 y es compatible con la versión anterior 1.2. La principal diferencia es la introducción de una velocidad de datos mejorada (EDR “Enhanced Data Rate” “mayor velocidad de transmisión de datos”) para acelerar la transferencia de datos. La tasa nominal de EDR es de 3 Mbit/s, aunque la tasa de transferencia de datos práctica es de 2,1 Mbit/s. EDR utiliza una combinación de GFSK y Phase Shift Keying modulación (PSK) con dos variantes, π/4-DQPSK y 8DPSK. EDR puede proporcionar un menor consumo de energía a través de un ciclo de trabajo reducido.

La especificación se publica como “Bluetooth v2.0 + EDR”, lo que implica que EDR es una característica opcional. Aparte de EDR, hay otras pequeñas mejoras en la especificación 2.0, y los productos pueden reclamar el cumplimiento de la norma “Bluetooth v2.0″ sin que se cumpla la mayor velocidad en transferencia de datos. Un dispositivo comercial puede ser etiquetado como “Bluetooth v2.0 sin EDR” en su ficha técnica.

Bluetooth v2.1 + EDR

La especificación Bluetooth Core Version 2.1 + EDR es totalmente compatible con 1.2, y fue adoptada por el Bluetooth SIG ( Bluetooth Special Interest Group) el 26 de julio de 2007.

La función más importante que incluye la 2.1 es Secure Simple Pairing (SSP): se mejora la experiencia de emparejamiento de dispositivos Bluetooth, y aumenta la seguridad.

2.1 permite a otras mejoras, incluida la “respuesta amplia investigación” (EIR), que proporciona más información durante el procedimiento de investigación para permitir un mejor filtrado de los dispositivos antes de la conexión, y “sniff subrating”, lo que reduce el consumo de energía en modo de bajo consumo.

Bluetooth v3.0 + HS

La versión 3.0 + HS de el Bluetooth Core Specification fue aprobado por el Bluetooth SIG el 21 de abril de 2009. Bluetooth 3.0 + HS soporta velocidades de transferencia de datos teórica de hasta 24 Mbit/s, aunque no a través del enlace Bluetooth propiamente dicho. La conexión Bluetooth nativa se utiliza para la negociación y el establecimiento mientras que el tráfico de datos de alta velocidad se realiza mediante un enlace 802.11. Su principal novedad es AMP (como alternativa MAC/PHY), la adición de 802,11 como transporte de alta velocidad.

Estaban inicialmente previstas dos tecnologías para incorporar en AMP:. 802.11 y UWB, pero finalmente UWB no se encuentra en la especificación.

La incorporación de la transmisión a alta velocidad no es obligatoria en la especificación y por lo tanto, los dispositivos marcados con “+ HS” incorporan el enlace 802.11 de alta velocidad de transferencia de datos. Un dispositivo Bluetooth 3.0, sin el sufijo “+ HS” no soportará la alta velocidad, y sólo admite una característica introducida en Bluetooth 3.0 + HS (o en CSA1).

Alternativa MAC / PHY: permite el uso de alternativas MAC y PHY para el transporte de datos de perfil Bluetooth. La frecuencia Bluetooth se usa para la detección de dispositivos, la conexión inicial y la configuración del perfil, sin embargo, cuando deben enviarse grandes cantidades de datos, se utiliza PHY MAC 802.11 (por lo general asociados con Wi-Fi) para transportar los datos. Esto significa que el modo de bajo consumo de la conexión Bluetooth se utiliza cuando el sistema está inactivo, y la radio 802.11 cuando se necesitan enviar grandes cantidades de datos.

Unicast datos sin conexión: permite datos de servicio para ser enviados sin el establecimiento de un canal L2CAP explícito. Está diseñado para su uso en aplicaciones que requieren baja latencia entre la acción del usuario y reconexión/transmisión de datos. Esto sólo es adecuado para pequeñas cantidades de datos.

Control de energía mejorada: actualizaciones de la función de control de potencia para quitar el control de potencia de bucle abierto, y también para aclarar las ambigüedades de control de potencia introducida por los esquemas de modulación nuevos añadidos para EDR. Control de potencia mejorada elimina las ambigüedades mediante la especificación de la conducta que se espera. Además, también le añade control de potencia en bucle cerrado, es decir, RSSI filtrado puede comenzar como se recibe la respuesta. Además, un “ir directamente a la máxima potencia” solicitud ha sido introducido. Esto se espera que tratar con el problema de pérdida de enlace auricular observa típicamente cuando un usuario pone su teléfono en un bolsillo en el lado opuesto a los auriculares.

Ultra-Wideband:

La alta velocidad (AMP), característica en Bluetooth v3.0, fue pensado originalmente para UWB, pero la WiMedia Alliance, el órgano responsable del sabor de UWB destinado a Bluetooth, anunciada en marzo de 2009 que fue disolviendo, y en última instancia UWB se omitió en la especificación v3.0 Core.

El 16 de marzo de 2009, la Alianza WiMedia anunció que iba a entrar en acuerdos de transferencia de tecnología para los WiMedia Ultra-Wideband (UWB) especificaciones. WiMedia ha transferido todas las especificaciones actuales y futuros, incluidos el futuro de alta velocidad y las implementaciones de energía optimizado, para el Bluetooth Special Interest Group (SIG), Wireless USB Promoter Group y el Foro de Implementadores USB. Después de la finalización con éxito de la transferencia de tecnología, comercialización y artículos relacionados con administración, la Alianza WiMedia dejará de operar.

En octubre de 2009, el Grupo de Interés Especial Bluetooth suspendió el desarrollo de UWB como parte de la alternativa Bluetooth v3.0 MAC / PHY, + solución HS. Un número pequeño, pero significativo, de los antiguos miembros de WiMedia no tenía y no firmaría los acuerdos necesarios para la transferencia IP. El SIG de Bluetooth está ahora en el proceso de evaluar otras opciones para su plan de trabajo a largo plazo.

Bluetooth v4.0

El SIG de Bluetooth completado en la especificación de Core Bluetooth versión 4.0 y ha sido adoptado hasta el 30 de junio de 2010. Incluye Bluetooth Classic, Bluetooth de alta velocidad y protocolos Bluetooth de baja energía. Bluetooth de alta velocidad está basada en Wi-Fi y Bluetooth Classic se compone de protocolos Bluetooth heredados.

Bluetooth energía baja (BLE – Bluetooth Low Energy), anteriormente conocido como Wibree, es un subconjunto de funcionalidades de Bluetooth v4.0 con una pila de protocolo totalmente nueva para una rápida acumulación de enlaces simples.

Como una alternativa a los protocolos estándar Bluetooth que se introdujeron en Bluetooth v1.0 a v3.0, que está dirigido a aplicaciones de muy baja potencia corriendo una pila de botón. Los diseños de chips permiten dos tipos de implementación, de modo dual, las versiones anteriores de modo único y mejorada. Los nombres provisionales Wibree y Bluetooth ULP (Ultra Low Power) fueron abandonados y el nombre BLE se utilizó durante un tiempo. A finales de 2011, los nuevos logotipos “Bluetooth inteligente Ready” para hosts y “Bluetooth inteligentes” para los sensores se presentó como la cara pública de la general-BLE.

En una implementación de un solo modo de la pila de protocolo de energía se lleva a cabo únicamente bajo. RSE, Nordic Semiconductor y Texas Instruments han publicado soluciones Bluetooth en modo de baja energía.

En una aplicación de modo dual, la funcionalidad Bluetooth de baja energía está integrada en un controlador de Bluetooth Classic existente. En la actualidad (2011-03) las empresas de semiconductores han anunciado la disponibilidad de chips que cumplen el estándar: Atheros, la RSE, Broadcom y Texas Instruments. Las acciones compatibles con la arquitectura existente abarcan toda la la gama Bluetooth clásica y la funcionalidad que resulta en un aumento del costo insignificante en comparación con el Bluetooth Classic.

Reducción de costos de modo único chips, que permiten a los dispositivos altamente integrados y compactos, cuentan con una ligera capa de enlace de proporcionar ultra-bajo funcionamiento de la alimentación el modo de inactividad, el descubrimiento de dispositivo simple y fiable de punto a multipunto de transferencia de datos con tecnología avanzada de ahorro de energía y asegurar conexiones cifradas al costo más bajo posible.

Mejoras generales en la versión 4.0 incluyen los cambios necesarios para facilitar los modos BLE, así el perfil de atributos genéricos (GATT) y de servicios de seguridad Manager (SM) con cifrado AES.

Addendum Core 2 de la especificación fue presentado en diciembre de 2011, que contiene mejoras en la interfaz de controlador de host y audio a la Alta Velocidad (802.11) Protocolo de la capa de Adaptación.

Información técnica:

La especificación de Bluetooth define un canal de comunicación de máximo 720 kb/s (1 Mbps de capacidad bruta) con rango óptimo de 10 m (opcionalmente 100 m con repetidores).

La frecuencia de radio con la que trabaja está en el rango de 2,4 a 2,48 GHz con amplio espectro y saltos de frecuencia con posibilidad de transmitir en Full Duplex con un máximo de 1600 saltos/s. Los saltos de frecuencia se dan entre un total de 79 frecuencias con intervalos de 1Mhz; esto permite dar seguridad y robustez.

La potencia de salida para transmitir a una distancia máxima de 10 metros es de 0 dBm (1 mW), mientras que la versión de largo alcance transmite entre 20 y 30 dBm (entre 100 mW y 1 W).

Para lograr alcanzar el objetivo de bajo consumo y bajo costo, se ideó una solución que se puede implementar en un solo chip utilizando circuitos CMOS. De esta manera, se logró crear una solución de 9×9 mm y que consume aproximadamente 97% menos energía que un teléfono celular común.

El protocolo de banda base (canales simples por línea) combina conmutación de circuitos y paquetes. Para asegurar que los paquetes no lleguen fuera de orden, los slots pueden ser reservados por paquetes síncronos, un salto diferente de señal es usado para cada paquete.

Por otro lado, la conmutación de circuitos puede ser asíncrona o síncrona. Tres canales de datos síncronos (voz), o un canal de datos síncrono y uno asíncrono, pueden ser soportados en un solo canal. Cada canal de voz puede soportar una tasa de transferencia de 64 kb/s en cada sentido, la cual es suficientemente adecuada para la transmisión de voz.

Un canal asíncrono puede transmitir como mucho 721 kb/s en una dirección y 56 kb/s en la dirección opuesta, sin embargo, para una conexión síncrona es posible soportar 432,6 kb/s en ambas direcciones si el enlace es simétrico.

En la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2 se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1, es decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a ser más débil.

Bluejacking

Bluejacking es el envío de una imagen o un mensaje de un usuario a un usuario desprevenido a través de tecnología inalámbrica Bluetooth. Las aplicaciones más comunes incluyen mensajes cortos (por ejemplo, “You’ve just been bluejacked!”).

Bluejacking no implica la eliminación o modificación de los datos desde el dispositivo. Bluejacking también puede implicar tomar el control de un móvil de forma inalámbrica y llamar a una línea de tarificación adicional, propiedad del operador del móvil maestro.

Ejemplo de Bluejacking

Imagen de previsualización de YouTube

 

A-GPS: el GPS en los smartphones.

El SPG o GPS (Global Positioning System: sistema de posicionamiento global) o NAVSTAR-GPS es un sistema global de navegación por satélite (GNSS) que permite determinar en todo el mundo la posición de un objeto, una persona o un vehículo con una precisión hasta de centímetros (si se utiliza GPS diferencial), aunque lo habitual son unos pocos metros de precisión.

El sistema fue desarrollado, instalado y actualmente operado por el Departamento de Defensa de los Estados Unidos.

El GPS funciona mediante una red de 24 satélites en órbita sobre el planeta tierra, a 20.200 km, con trayectorias sincronizadas para cubrir toda la superficie de la Tierra.

Funcionamiento GPS:

Cuando se desea determinar la posición, el receptor que se utiliza para ello localiza automáticamente como mínimo tres satélites de la red, de los que recibe unas señales indicando la identificación y la hora del reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el tiempo que tardan en llegar las señales al equipo, y de tal modo mide la distancia al satélite mediante “triangulación” (método de trilateración inversa), la cual se basa en determinar la distancia de cada satélite respecto al punto de medición. Conocidas las distancias, se determina fácilmente la propia posición relativa respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. También se consigue una exactitud extrema en el reloj del GPS, similar a la de los relojes atómicos que llevan a bordo cada uno de los satélites.

Breve historia del GPS:

En 1957, la Unión Soviética lanzó al espacio el satélite Sputnik I, que era monitorizado mediante la observación del efecto Doppler de la señal que transmitía. Debido a este hecho, se comenzó a pensar que, de igual modo, la posición de un observador podría ser establecida mediante el estudio de la frecuencia Doppler de una señal transmitida por un satélite cuya órbita estuviera determinada con precisión.

La armada estadounidense rápidamente aplicó esta tecnología, para proveer a los sistemas de navegación de sus flotas de observaciones de posiciones actualizadas y precisas. Así surgió el sistema TRANSIT, que quedó operativo en 1964, y hacia 1967 estuvo disponible, además, para uso comercial.

Las actualizaciones de posición, en ese momento, se encontraban disponibles cada 40 minutos y el observador debía permanecer casi estático para poder obtener la información adecuada.

Posteriormente, en esa misma década y gracias al desarrollo de los relojes atómicos, se diseñó una constelación de satélites, portando cada uno de ellos uno de estos relojes y estando todos sincronizados con base en una referencia de tiempo determinado.

En 1973 se combinaron los programas de la Armada y el de la Fuerza Aérea de los Estados Unidos (este último consistente en una técnica de transmisión codificada que proveía datos precisos usando una señal modulada con un código de PRN (Pseudo-Random Noise: ruido pseudo-aleatorio), en lo que se conoció como Navigation Technology Program (programa de tecnología de navegación), posteriormente renombrado como NAVSTAR GPS.

Entre 1978 y 1985 se desarrollaron y lanzaron once satélites prototipo experimentales NAVSTAR, a los que siguieron otras generaciones de satélites, hasta completar la constelación actual, a la que se declaró con «capacidad operacional inicial» en diciembre de 1993 y con «capacidad operacional total» en abril de 1995.

Integración del GPS en telefonía móvil

Actualmente dentro del mercado de la telefonía móvil la tendencia es la de integrar, por parte de los fabricantes, la tecnología GPS dentro de sus dispositivos.

El uso y masificación del GPS está particularmente extendido en los teléfonos móviles smartphone, lo que ha hecho surgir todo un ecosistema de software para este tipo de dispositivos, así como nuevos modelos de negocios que van desde el uso del terminal móvil para la navegación tradicional punto-a-punto, la prestación de los llamados Servicios Basados en la Localización (LBS), hasta aplicaciones que haciendo uso de la realidad aumentada y diversos mapas son capaces de localizar por la calle lo que tengan programado.

Imagen: realidad aumentada en un iPhone

Un buen ejemplo del uso del GPS en la telefonía móvil son las aplicaciones que permiten conocer la posición de amigos cercanos sobre un mapa base. Para ello basta con tener la aplicación respectiva para la plataforma deseada (Android, Bada, iOS, WP, Symbian) y permitir ser localizado por otros.

A-GPS o aGPS fue desarrollado e introducido para mejorar el funcionamiento del sistema. El acrónimo A-GPS deriva de los términos ingleses Assisted Global Positioning System, es decir, GPS asistido, y se suele usar en teléfonos y dispositivos móviles. El desarrollo de A-GPS fue acelerado por requerimiento del servicio de emergencias E911 (similar al 112 europeo) de la FCC estadounidense, el cual requiere la posición de un teléfono móvil en caso de que realice una llamada de emergencia.

¿Por qué AGPS?

El GPS convencional presenta dificultades a la hora de proporcionar posiciones precisas en condiciones de baja señal. Por ejemplo, cuando el aparato está rodeado de edificios altos (como consecuencia de la recepción de múltiples señales rebotadas) o cuando la señal del satélite se ve atenuada por encontrarnos con obstáculos, dentro de edificios o debajo de árboles.

De todos modos algunos de los nuevos aparatos GPS reciben mejor las señales de poca potencia y funcionan mejor en estas condiciones que aparatos más antiguos y menos sensibles.

Además, la primera vez que los receptores GPS se encienden en tales condiciones, algunos sistemas no asistidos no son capaces de descargar información de los satélites GPS, haciéndolos incapaces de funcionar, triangular o posicionarse hasta que se reciba una señal clara durante al menos un minuto. Este proceso inicial, denominado primer posicionamiento o posicionamiento inicial (del inglés TTFF (Time To First Fix) o tiempo para el primer posicionamiento), suele ser muy largo en general, incluso según las condiciones, de minutos.

Un receptor A-GPS o GPS asistido puede solucionar estos problemas de diversas formas mediante el acceso a un Servidor de Asistencia en línea (modo “on-line”) o fuera de línea (modo “off-line”). Los modos en línea acceden a los datos en tiempo real, por lo que tienen la necesidad de tener una conexión de datos activa con el consiguiente coste de la conexión. Por contra, los sistemas fuera de línea permiten utilizar datos descargados previamente.

Por tanto, algunos dispositivos A-GPS requieren una conexión activa (modo en línea) a una red celular de teléfono (como GSM) para funcionar, mientras que en otros simplemente se hace el posicionamiento más rápido y preciso, pero no se requiere conexión (modo fuera de línea). Los dispositivos que funcionan en modo fuera de línea (“off-line”), descargan un fichero mientras tienen acceso a la red (ya sea a través de una conexión de datos GPRS, Ethernet, WIFI, ActiveSync o similar) que se almacena en el dispositivo y puede ser utilizado por éste durante varios días hasta que la información se vuelve obsoleta y se nos avisa de que es preciso actualizar los datos.

En cualquier caso, el sistema de GPS asistido utilizará los datos obtenidos, de una u otra forma, de un servidor externo y lo combinará con la información de la celda o antena de telefonía móvil para conocer la posición y saber qué satélites tiene encima. Todos estos datos de los satélites están almacenados en el servidor externo o en el fichero descargado, y según nuestra posición dada por la red de telefonía, el GPS dispondrá de los datos de unos satélites u otros y completará a los que esté recibiendo a través del receptor convencional de GPS, de manera que la puesta en marcha de la navegación es notablemente más rápida y precisa.

Por tanto:

  • Cuando trabajamos en modo en línea (“on-line”):
  • El servidor de asistencia puede hacer saber al teléfono su posición aproximada, conociendo la celda de telefonía móvil por la que se encuentra conectado a la red celular.
  • El servidor de asistencia recibe la señal de satélite perfectamente, y posee grandes capacidades de cómputo, por lo que puede comparar señales recibidas procedentes del teléfono y determinar una posición precisa para informar al teléfono o a los servicios de emergencia de tal posición.
  • Puede proveer datos orbitales de los satélites GPS al teléfono, haciéndolo capaz de conectarse a los satélites, cuando de otra manera no podría, y calcular su posición de manera autónoma.
  • Puede tener mejor conocimiento de las condiciones ionosféricas y otros errores que podrían afectar la señal GPS que el teléfono, dotándolo de un cálculo más preciso de su posición. (Wide Area Augmentation System)

Como beneficio adicional, puede reducirse tanto la utilización de CPU como la cantidad de líneas de código que se necesiten calcular por parte del teléfono, ya que muchos procesos se realizan en el servidor de asistencia (no es una gran cantidad de procesamiento para un receptor GPS básico – muchos de los primeros receptores GPS corrían sobre Intel 80386 a 16 Mhz o hardware similar).

Cuando trabajamos en modo fuera de línea (“off-line”):

  • El teléfono obtiene su posición aproximada conociendo la celda de telefonía móvil por la que se encuentra conectado a la red celular y se la entrega al sistema integrado en el dispositivo.
  • El GPS asistido, que habrá obtenido previamente del servidor de asistencia los datos, determina qué satélites tenemos encima y obtiene la posición completando los datos parciales que recibe el receptor GPS convencional.

Algunos sistemas funcionan tanto en un modo como en otro (dependiendo de si tenemos activa una conexión de datos o no), resultando muy versátiles.

 

Acelerometros

Se denomina acelerómetro a cualquier instrumento destinado a medir aceleraciones. Es capaz de medir la magnitud y la dirección de la aceleración y se puede utilizar para detectar la inclinación, la vibración, el movimiento, el giro y el choque. Actualmente es posible construir acelerómetros de tres ejes (X,Y,Z) en un sólo chip de silicio, incluyendo en el mismo la parte electrónica que se encarga de procesar las señales. La Wii, la consola de Nintendo que utiliza un mando que podemos mover en el aire para controlar a nuestro personaje en pantalla, en su interior se encuentra un acelerómetro para detectar esos movimientos.

Año del primer acelerómetro

El primer desarrollo de la resistencia/acelerómetro de tipo puente que se comercializó en última instancia, se le atribuye a McCollum y Peters en 1920. Pesaba alrededor de 453,59 gramos y tenía “¾ x 1-7/8 x 8-1/2” pulgadas de tamaño. Se componía de un marco en forma de E que contiene de 20 a 55 anillos de carbono. Por el final de los años 40 y cerca de los 50 ya habían numerosos fabricantes de acelerómetros electricos.

Acelerómetros y móviles

La mayoría de los nuevos modelos de cámaras de fotos incluyen un acelerómetro con el que es posible detectar si hacemos la toma en forma horizontal o vertical, grabando ese dato en la foto y permitiendo verla con la orientación deseada, esto ya se incluye en algunos modelos de smartphones (Nokia N95). Incluso, la foto puede girarse automáticamente dependiendo de la posición con que la sostengamos.

En los teléfonos móviles existen infinidad de aplicaciones que utilizan acelerómetros, mencionaremos a modo de ejemplo las más populares para no profundizar demasiado en este campo.

RotateMe fue de las primeras utilidades Symbian que permite girar la pantalla de forma automática dependiendo la aplicación que este corriendo, controlar un coche a radiocontrol o agitar el móvil para leer un SMS. Otro de los móviles famosos que incluyen acelerómetro es el iPhone, con funciones similares y muchísimos juegos que utilizan este dispositivo. El Sony Ericsson W910, con la funcionalidad Shake Control, la cual permite controlar la reproducción de la música y saltar canciones agitando el teléfono, además de un contador de pasos muy útil a la hora de hacer ejercicios físicos.

Hoy por hoy uno de cada tres celulares posee un acelerómetro. Con esta cifra, las posibilidades de combinación de este hardware con nuevos software son inmensas, es por esto que decidimos mencionar solo algunos ejemplos.

Un informe indica que Apple Inc. es el segundo mayor comprador de acelerómetros, brújulas y giroscopios a nivel mundial. Los de Cupertino solo se han visto superados en este particular ranking por Samsung.

Apple monta estos componentes en muchos de sus dispositivos (iPhone, iPad, iPod touch). Solo Samsung compra más que Apple, para ser exactos 200 millones de dólares del fabricante surcoreano, por 195 millones de dólares de Apple.

Por cierto, anteriormente Nintendo era el líder indiscutible de este ranking, esta es una muestra más del mercado que están perdiendo las consolas portátiles a favor de los dispositivos como el iPhone y iPad.

Aspectos favorables y desfavorables de la utilización de acelerómetros:

Existen numerosas aplicaciones que utilizan a los acelerómetros para su funcionamiento.

Las más conocidas son las incluidas en los teléfonos móviles; pero sin lugar a dudas, las más favorables son las que están relacionadas con la biomedicina y la sismología, es decir, aplicaciones que contribuyen a mejorar la calidad de vida de un grupo determinado de la población o a evitar serios inconvenientes ante un inminente sismo.

Como toda tecnología, los aspectos que se podrían considerar desfavorables están vinculados a la utilización que se le puede llegar a dar, como serian su uso para invadir la intimidad de las personas o con fines bélicos.

Unos expertos en seguridad del Georgia Tech ven en estos sensores una potencial amenaza puesto que podrían ser capaces de detectar las teclas que pulsamos sobre el terminal y ser usados como un espía de lo que escribimos en el móvil.

Aunque a primera vista pueda parecer sacado de una película de James Bond, esta posibilidad fue presentada durante una conferencia celebrada en Chicago, el ACM CCS 2011. Allí se comentó que si alguien comprometía un terminal, por ejemplo, podía acceder al GPS y localizar al usuario, activar la cámara para ver qué había alrededor o activar el micrófono para grabar el sonido ambiente, sin embargo, ahí no terminaban las amenazas de seguridad porque el acelerómetro podría utilizarse para capturar lo que escribimos en nuestro terminal, incluyendo contraseñas. Según demostraron en su trabajo de investigación, si se depositaba el teléfono en horizontal sobre una superficie, mediante las señales generadas por el acelerómetro se podía ser capaz de reproducir las pulsaciones del usuario sobre la pantalla táctil, distinguiendo palabras con un 80% de acierto.

Referencias:

Historia de los acelerómetros, 1920-1996:

http://www.sandv.com/downloads/0701walt.pdf

http://www.xatakamovil.com/varios/el-acelerometro-en-los-moviles

 

Giroscopios

El giróscopo o giroscopio es un dispositivo mecánico formado esencialmente por un cuerpo con simetría de rotación que gira alrededor de su eje de simetría. Cuando se somete el giróscopo a un momento de fuerza que tiende a cambiar la orientación del eje de rotación su comportamiento es aparentemente paradójico ya que el eje de rotación, en lugar de cambiar de dirección como lo haría un cuerpo que no girase, cambia de orientación en una dirección perpendicular a la dirección «intuitiva».

Historia del giroscopio

El giróscopo fue inventado en 1852 por Léon Foucault, quien también le dio el nombre. Montó una masa rotatoria en un soporte de Cardano para un experimento de demostración de la rotación de la Tierra. Foucault también se dio cuenta de que su aparato podía servir para indicar el Norte. En efecto, si se impiden ciertos movimientos del soporte del giróscopo, éste se alinea con el meridiano. Esto permitió la invención del girocompás.

Los giróscopos se han utilizado en girocompases y giropilotos.

Los giróscopos también se han utilizado para disminuir el balanceo de navíos, para estabilizar plataformas de tiro y para estabilizar plataformas inerciales sobre las cuales están fijados captadores de aceleración para la navegación inercial en aviones y misiles construidos antes de la aparición del GPS.

El efecto giroscópico es la base del funcionamiento de los juguetes trompo o peonza y dynabee(aparato terapéutico para la muñeca).

A partir de aquí, se desarrollaron giróscopos electrónicos, a los cuales se les conoce también con otros nombres como piezoeléctricos o capacitivos dependiendo de su efecto. En ellos vamos a centrar la atención en esta segunda parte.

Lo primero que hay que decir, es que estos giróscopos se basan en el principio de Coriolis. Básicamente, lo que dice este principio es que si un cuerpo está girando (un tiovivo) y nosotros estamos en el centro queriendo salir al exterior en línea recta, tendremos que ir hacia adelante y al mismo tiempo de forma lateral para contrarrestar esta rotación. Además, cuanto más cerca del exterior estemos, mayor deberá ser esta velocidad lateral; es como si tuviéramos una fuerza que nos hace “acelerar” la marcha; y la expresión de Coriolis permite relacionar las variables que intervienen para calcular unas a partir de otras.

Los giróscopos se basan en esto, y calculan sus parámetros basándose en esta relación, para traducir luego esos resultados en una señal de salida válida (un voltaje).

Vamos a explicar en qué se basan interiormente:

El Giróscopo Piezoeléctrico

Se basa en la utilización de un cristal que oscila. Esta oscilación surge cuando actúa sobre él una aceleración que hace que los elementos que lo soportan (piezoeléctricos) se deformen y por lo tanto varíe su resistencia eléctrica.

Estos cambios de resistencia son medibles y permiten saber el valor de la fuerza que ha actuado y también la aceleración (relacionandolas mediante Coriolis).

El Giróscopo Capacitivo

Está compuesto por dos partes: una móvil que realiza un movimiento de vibración entrante/saliente con respecto al eje de rotación del giróscopo y otra fija, perpendicular a este movimiento. Estas dos partes forman una estructura capacitiva que puede almacenar una carga eléctrica (como un condensador).

Los sensores de velocidad angular o giroscopios detectan el giro en un eje. Aunque en un principio eran dispositivo mecánicos, han sido sustituidos por los piezoeléctricos o los ópticos, de los cuales, los láser son los que ofrecen la mayor precisión, y que por tanto son empleados en aplicaciones de mayor responsabilidad, como en aviación.

Una de las características más importantes a tener en cuenta en este tipo de dispositivos es la deriva, dado que con el paso del tiempo pueden falsear enormemente la medida, haciéndola inservible.

Giroscopio electrónico

Los giroscopios electrónicos son dispositivos de estado sólido basados en la aceleración de Coriollis. En ellos, un material piezoeléctrico se hace oscilar a la frecuencia de resonancia, de modo que al girar, la fuerza de Coriollis (proporcional a la velocidad angular) provoca la aparición de una diferencia de potencial debida a la desviación del prisma, permitiendo la medida de la velocidad de rotación.

Giróscopos MEMS (Micro Electric-Mechanical System)

Al igual que los piezoeléctricos, se basan en la vibración pero utilizando materiales a nivel molecular. Con esta tecnología lo que se permite es integrar en un chip de silicio pequeñas partes tridimensionales e incluso móviles. Lo que miden son variaciones en las vibraciones (que deberían ser estables) y también utilizan Coriolis para calcular sus variables.

Imagen de un giroscopio MEMS.

Dado que analizan vibraciones, es por lo que necesitan que el aeromodelo no les transmita más vibraciones, por lo que normalmente se suelen fijar utilizando una almohadilla que amortigüe.

Apple fue la primera que introdujo un giroscopio en un móvil con el iPhone 4. Después le siguieron los smarthphones Android de gama alta, y ahora son muchos fabricantes los que lo incorporan, sobre todo en gama alta-media.

El iPhone 4 integra un giroscopio tipo MEMS.

Referencias:

http://www.cochesrc.com/content/122-articulos-y-guias/1807-giroscopo-ii-giroscopos-electronicos.html#ixzz2Ccc6l6Gq

http://es.scribd.com/doc/49968858/29/Giroscopio-electronico

http://www.cochesrc.com/content/122-articulos-y-guias/1807-giroscopo-ii-giroscopos-electronicos.html#axzz2CcbvASqa

http://mobilegyros.blogspot.com.es/

 

Compás o brújula digital

La brújula es un instrumento que sirve de orientación y que tiene su fundamento en la propiedad de las agujas magnetizadas. Por medio de una aguja imantada esta es capaz de señalas el Norte magnético, que es diferente para cada zona del planeta, y distinto del Norte geográfico. Utiliza como medio de funcionamiento el magnetismo terrestre.

Hay dos tipos ampliamente utilizados y radicalmente diferentes de brújula. La brújula magnética contiene un imán que interactúa con el campo magnético de la tierra y se alinea para que apunte a los polos magnéticos .

El girocompás (a veces escrito con un guión, o como una palabra) contiene una rueda que gira rápidamente, cuya rotación interactúa dinámicamente con la rotación de la Tierra con el fin de hacer que el movimiento, a través de la pérdida de energía por la fricción, haga que su eje de rotación esté en paralelo con la Tierra.

La brújula fue inventada por primera vez como un dispositivo para la adivinación ya en la dinastía Han china. La brújula también se utilizó en la dinastía Song de China por los militares para la orientación de navegación por 1040-1044, y fue utilizada para la navegación marítima en 1117. La utilización de una brújula se registra en Europa Occidental entre 1187 y 1202, y en Persia en 1232. La brújula seca fue inventada en Europa alrededor de 1300.

Brújulas de estado sólido

Son brújulas pequeñas que se encuentran en relojes, teléfonos móviles y otros dispositivos electrónicos, generalmente construidas con dos o tres sensores de campo magnético que proporcionan y generan datos para el microprocesador. Los datos correctos de dirección de la brújula se calculan utilizando la trigonometría.

A menudo, el dispositivo es un componente que emite una señal digital o analógica proporcional a su orientación. Esta señal es interpretada por un controlador o microprocesador y se utiliza ya sea internamente, o enviada a una unidad de visualización. El sensor utiliza calibrados electrónicos internos para medir la respuesta del dispositivo con respecto al campo magnético de la Tierra.

Un desarrollo reciente es la brújula electrónica que detecta la dirección sin piezas móviles potencialmente no precisas. Puede utilizar un girocompás de fibra óptica o un magnetómetro . El magnetómetro frecuentemente aparece como un subsistema opcional integrado en portátiles receptores GPS y teléfonos móviles.

Hoy en día es un pequeño chip , el más usado es el Asahi Kasei (AKM) AK8973S que permite mediante una calibración inicial detectar la posición que ocupa el teléfono con respecto al campo magnético terrestre. Esto es muy útil cuando utilizas por ejemplo un mapa , o la visión a pie de calle de Google.

Este chip mide 2,5 milímetros de ancho y de largo y 0,5 milímetros de grosor. Dentro lleva tres sensores, aunque ya los hay de seis para darles mayor precisión pero aún no se han generalizado en los móviles. Al tener tres sensores sensibles al magnetismo que está colocados en tres posiciones diferentes dentro del chip conseguimos que la brújula detecte los tres ejes (X,Y,Z).

Las principales características de este chip utilizado por el Iphone y la HTC Magic son:

  • Interfaz digital interno convertidor A/D 2-compatible con la línea de bus I2C
  • Circuito oscilador interno – no requiere la entrada de reloj
  • Bajo consumo de energía – 6,4 mA durante la operación del sensor, 0,8 mA promedio en la medición con intervalos de 100 ms
  • Sensor de temperatura interior con 8 bits de salida digital
  • EEPROM interna para el registro de ajuste de sensibilidad del sensor geomagnético de datos, etc

Imagen. El fabricante Asahi Kasei presentó este chip allá por el año 2007 (AK8973S)

Asahi Kasei: Asahi Kasei Corporation es una empresa japonesa. Los principales productos son los productos químicos y ciencia de los materiales.

Ciencia de los materiales: La ciencia de materiales es un campo interdisciplinario donde se aplicas las propiedades de la materia a las diversas áreas de la ciencia y la ingeniería . Este campo científico investiga la relación entre la estructura de los materiales a escala atómica o molecular y sus propiedades macroscópicas. Incorpora elementos de física aplicada y la química . Con una atención significativa de los medios se centró en la nanociencia y la nanotecnología en los últimos años, la ciencia de materiales ha sido impulsada en muchas universidades.

Referencias:

http://www.alldatasheet.com/datasheet-pdf/pdf/219477/AKM/AK8973.html

http://3gmemories.com/2009/06/20/%C2%BFque-es-la-brujula-digital/

 

Sensor de luz en los móviles

Un sensor fotoeléctrico es un dispositivo electrónico que responde al cambio en la intensidad de la luz.

Estos sensores requieren de un componente emisor que genera la luz, y un componente receptor que “ve” la luz generada por el emisor. Todos los diferentes modos de sensado se basan en este principio de funcionamiento.

Están diseñados especialmente para la detección, clasificación y posicionado de objetos; la detección de formas, colores y diferencias de superficie, incluso bajo condiciones ambientales extremas. Los sensores de luz se usan para detectar el nivel de luz y producir una señal de salida representativa respecto a la cantidad de luz detectada. Un sensor de luz incluye un transductor fotoeléctrico para convertir la luz a una señal eléctrica y puede incluir electrónica para condicionamiento de la señal, compensación y formateo de la señal de salida.

Imagen: Sensor CM3320 RGB de Capella Microsystems.

Transductor: Un transductor es un dispositivo capaz de transformar o convertir un determinado tipo de energía de entrada, en otra diferente a la salida, de valores de energía muy pequeñitos en términos relativos con los de un generador.

Capella Microsystems, Inc.(Santa Clara, California) dijo que su familia Filtron de sensores de luz ambiental excesiva elimina la retroiluminación en productos portátiles como computadoras portátiles, teléfonos móviles, reproductores de DVD, PDAs, reproductores MP3, iPods y GPS. Preservando así la vida de la batería en estos dispositivos. Estos chips deben detectan la cantidad de luz ambiental en el medio y ajustar el brillo de la LCD en consecuencia para que coincida con los requisitos que el ojo humano requiere para una correcta visibilidad.

 

Sensor de proximidad

El sensor de proximidad es un transductor que detecta objetos o señales que se encuentran cerca del elemento sensor.

Existen varios tipos de sensores de proximidad según el principio físico que utilizan. Los más comunes son los interruptores de posición, los detectores capacitivos, los inductivos y los fotoeléctricos, como el de infrarrojos.

En muchos móviles actuales un sensor de proximidad desactiva la capacidad táctil de la pantalla cuando el dispositivo se usa cerca de la cara durante una llamada de voz. Se hace para ahorrar batería y para prevenir ejecuciones incorrectas con la cara o orejas.

Imagen. Sensor de proximidad por infrarrojos.

Historia del sensor de proximidad

En 1958 -hace 58 años- el sensor de proximidad fue inventado en un laboratorio de Mannheim propiedad de Pepperl y Fuchs. Lo que fue concebido originalmente como una solución específica del cliente para un circuito de corriente de seguridad intrínseca en la industria química, se ha convertido en el estándar de la industria universalmente reconocido para la conmutación sin contacto, por intensidad de luz.

 

NFC: Near field communication

Near field communication (NFC) es una tecnología de comunicación inalámbrica, de corto alcance y alta frecuencia que permite el intercambio de datos entre dispositivos.

Los estándares de NFC cubren protocolos de comunicación y formatos de intercambio de datos, y están basados en ISO 14443 (RFID, radio-frequency identification). Muchos smartphones de alta gama lo llevan integrado en sus placas base.

SIM con NFC

Hay tarjetas SIM con tecnología NFC en las que no hace falta cambiar de móvil para utilizar NFC, se las denomina “Tag”. Funcionarán tanto con smartphones como con los móviles tradicionales.

También funciona con la nueva consola Wii U, sus mandos lo incorporan de serie.

La operadora francesa Orange ha comenzado a ofrecer a escala nacional tarjetas SIM con NFC incorporado, como preparación a lo que denomina “despliegue masivo” de servicios móviles sin contacto. Las tarjetas SIM NFC UpTeq son suministradas por Gemalto y son las primeras del mercado que ofrecen el mismo nivel de seguridad que las tarjetas de pago provistas de chip, aseguran las empresas implicadas.

 

Uso de NFC en identificación(izquierda) y pago(derecha).

El acceso a lugares donde es precisa una identificación podría hacerse simplemente acercando nuestro teléfono móvil o tarjeta con chip NFC. Y pagos por proximidad en el móvil con poco recorrido.

Abajo: dos móviles con tecnología NFC intercambiando datos.

Referencias:

http://blogdigitalsignage.com/tag/nfc/page/2/

 

Puerto de Infrarrojos

Infrared Data Association (IrDA) define un estándar físico en la forma de transmisión y recepción de datos por rayos infrarrojos. IrDA se crea en 1993 entre HP, IBM, Sharp y otros.

La radiación infrarroja, o radiación IR es un tipo de radiación electromagnética y térmica, de mayor longitud de onda que la luz visible, pero menor que la de las microondas. Consecuentemente, tiene menor frecuencia que la luz visible y mayor que las microondas. Su rango de longitudes de onda va desde unos 0,7 hasta los 1000 micrómetros.

La radiación infrarroja es emitida por cualquier cuerpo cuya temperatura sea mayor que 0 Kelvin, es decir, −273,15 grados Celsius (cero absoluto).

Esta tecnología está basada en rayos luminosos que se mueven en el espectro infrarrojo invisible para el ojo humano. Los estándares IrDA soportan una amplia gama de dispositivos eléctricos, informáticos y de comunicaciones, permite la comunicación bidireccional entre dos extremos a velocidades que oscilan entre los 9.600 bps y los 4 Mbps.

Esta tecnología se encontraba en muchos ordenadores portátiles, PDAs y en teléfonos móviles de finales de los 90´s y principios de la década del 2000, sobre todo en los de fabricantes líderes como Nokia y Ericsson, fue gradualmente desplazada por tecnologías como wifi y bluetooth. La versión VFIR se encuentra en estudio, con unas velocidades teóricas de hasta 16 Mbps.

Pocos smartphones incorporan esta tecnología. Es una pena porque móviles como el Nokia 6600 (Sistema Operativo Symbian 7.0s) podían manejar por medio de irDA una televisión, y cualquier otro aparato que hiciera uso de mandos a distancia por infrarojos.

Historia: Los infrarrojos fueron descubiertos en 1800 por William Herschel, un astrónomo inglés de origen alemán. Herschel colocó un termómetro de mercurio en el espectro obtenido por un prisma de cristal con el fin de medir el calor emitido por cada color. Descubrió que el calor era más fuerte al lado del rojo del espectro y observó que allí no había luz. Esta es la primera experiencia que muestra que el calor puede transmitirse por una forma invisible de luz. Herschel denominó a esta radiación “rayos calóricos”, denominación bastante popular a lo largo del siglo XIX que, finalmente, fue dando paso al más moderno de radiación infrarroja.

Comunicaciones PDA-Móvil(izquierda) por irDA e impresora-portátil(derecha):

Referencias:

http://www.actisys.com/actir100.html

http://www.codeproject.com/Articles/3543/Infrared-Communication-with-your-Mobile-Phone

Nueva tecnología de infrarrojos con hasta 1 Gbps de transferencia:

http://www.symbian-freak.com/news/008/01/new_life_for_irda_technology.htm

Magnetómetros

Se llama magnetómetro a los dispositivos que sirven para cuantificar en fuerza o dirección la señal magnética de una muestra.

Cuando se presentó la tableta Google Nexus 7, entre sus características contaba con un magnetómetro pero no se explicó que funcionalidad iba a tener en la tableta, pero parece que hoy ya la han descubierto, y parece que servirá para su funda. Un usuario ha colgado en YouTube un vídeo en el que pasa un imán por el marco de la Nexus 7 y podemos observar como el sensor magnético se encuentra situado en la parte inferior izquierda, y al detectar la tableta el imán la pantalla se apaga y cuando lo quita se enciende. Este comportamiento parece que será para la funda oficial Nexus 7, que detectará la tableta cuando su pantalla esté protegida con la tapa de la funda y cuando no, para que se apague o se encienda la pantalla automáticamente sin necesidad de darle al botón de encendido, del mismo modo que lo hace la funda magnética de los últimos iPad.

Funda para iPad marca GNS

 

Wifi en smartphones

Wi-Fi es un mecanismo de conexión de dispositivos electrónicos de forma inalámbrica. Los dispositivos habilitados con Wi-Fi, tales como: un ordenador personal, una consola de videojuegos, un smartphone o un reproductor de audio digital, pueden conectarse a Internet a través de un punto de acceso de red inalámbrica. Dicho punto de acceso (o hotspot) tiene un alcance de unos 20 metros (65 pies) en interiores y al aire libre una distancia mayor. Pueden cubrir grandes áreas la superposición de múltiples puntos de acceso .

Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 relacionados a redes inalámbricas de área local.

Tipos de Wi-Fi:

Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:

Los estándares IEEE 802.11b, IEEE 802.11g e IEEE 802.11n disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbit/s , 54 Mbit/s y 300 Mbit/s, respectivamente.

En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además, no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).

Existe un primer borrador del estándar IEEE 802.11n que trabaja a 2.4 GHz y a una velocidad de 108 Mbit/s. Sin embargo, el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbit/s, gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.

Los routers inalámbricos funcionan en ciertas frecuencias o bandas, de modo similar a un canal de radio que está en una frecuencia concreta del dial. Las comunicaciones en redes Wi-Fi suelen utilizar dos de ellas, la de 2.4 GHz y la de 5 Ghz. Un router que trabaja a 2.4 GHz tiene más alcance. Pero es más sensible a interferencias que el que lo hace a 5 GHz.

Lo ideal es un router capaz de usar las dos bandas. Esos son los routers duales o Dual Band.

Ventajas y desventajas

Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:

  • Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
  • Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
  • La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total.

Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:

  • Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
  • La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante).
  • Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.

 

¿Qué es tethering? Hacer de tu smartphone un router WiFi o hots-pot(punto de acceso)

Tethering es la capacidad de compartir la conexión a internet 3G o LTE de un smartphone con ordenadores u otros dispositivos. Se puede llevar a cabo mediante la conexión de los dispositivos con un cable USB, un enlace Bluetooth inalámbrico o una conexión Wi-Fi. Un Wi-Fi hotspot tethering es muy útil y puede dar servicio a más de un cliente a la vez.

Ya sea por medio de aplicaciones incluidas en el SO móvil o aplicaciones de terceros todos los SO móviles incluidos ha fecha de hoy en los smartphones soportan tethering. Aunque no todas las compañías de telefonía móvil permiten hacerlo siempre hay formas de llevarlo a cabo sin que te cobren más en la factura.

Otras formas de conectarse a redes 3G

MiFi

MiFi es un router móvil 3G que actúa como hotspot Wi-Fi móvil. MiFi hace referencia a ‘Mi Wi-Fi’. MiFi se puede conectar a un teléfono móvil o módem USB 3G y proporciona acceso a internet hasta a cinco dispositivos. MiFi trabaja hasta una distancia de hasta 10 m y proporciona internet o acceso a red a cualquier dispositivo habilitado para WiFi.

 

 

Modem 3G USB

Aunque el 3G estaba orientado a la telefonía móvil, desde hace unos años las operadoras de telefonía móvil ofrecen servicios exclusivos de conexión a internet mediante módem USB, sin necesidad de adquirir un teléfono móvil, por lo que cualquier computadora puede disponer de acceso a internet.

Modem 3G Vodafone.

Referencias:

http://pichicola.com/como-doblar-la-velocidad-de-un-modem-3g/

http://www.computerworld.com/s/article/9221336/Wi_Fi_tethering_101_Use_a_smartphone_as_a_mobile_hotspot

 

Baterías para móviles

Se denomina batería, batería eléctrica, acumulador eléctrico o simplemente acumulador, al dispositivo que almacena energía eléctrica, usando procedimientos electroquímicos y que posteriormente la devuelve casi en su totalidad; este ciclo puede repetirse por un determinado número de veces. Se trata de un generador eléctrico secundario; es decir, un generador que no puede funcionar sin que se le haya suministrado electricidad previamente, mediante lo que se denomina proceso de carga.

El primer móvil, el Motorola DynaTAC, desarrollado en 1983, presumiblemente montaba una batería de níquel e hidruro metálico.

Níquel e hidruro metálico Ni-MH

Una batería de níquel-hidruro metálico (Ni-MH) es un tipo de batería recargable que utiliza un ánodo de oxidróxido de níquel (NiOOH), como la batería de níquel cadmio, pero su cátodo es de una aleación de hidruro metálico. Esto permite eliminar el cadmio, que es muy caro y, además, representa un peligro para el medio ambiente. Asimismo, posee una mayor capacidad de carga (entre dos y tres veces más que la de una pila de NiCd del mismo tamaño y peso) y un menor efecto memoria. Por el contrario, presentan una mayor tasa de autodescarga que las de NiCd (un 30% mensual frente a un 20%), lo cual relega a estas últimas a usos caracterizados por largos periodos entre consumos (como los mandos a distancia, las luces de emergencia, etc), mientras que son desplazadas por las de NiMH en el de consumo continuo.

El efecto memoria es un fenómeno que reduce la capacidad de las baterías con cargas incompletas. Se produce cuando se carga una batería sin haber sido descargada del todo: se crean unos cristales en el interior de estas baterías, a causa de una reacción química al calentarse la batería, bien por uso o por las malas cargas. Para prevenirlo no hace falta esperar a descargar totalmente la batería antes de realizar una carga; basta con que una de cada pocas cargas sea completa.

Entre las baterías que se ven afectadas por el efecto memoria se encuentran la batería de níquel cadmio (NiCd) y, en menor grado, la batería de níquel e hidruro metálico (NiMH). Por el contrario, las baterías de plomo y ácido o las de iones de litio apenas se ven afectadas por el mismo.

Batería de iones de litio Li-Ion

La batería de iones de litio, también denominada batería Li-Ion, es un dispositivo diseñado para almacenamiento de energía eléctrica que emplea como electrolito, una sal de litio que procura los iones necesarios para la reacción electroquímica reversible que tiene lugar entre el cátodo y el ánodo.

Las propiedades de las baterías de Li-ion, como la ligereza de sus componentes, su elevada capacidad energética y resistencia a la descarga, junto con la ausencia de efecto memoria o su capacidad para funcionar con un elevado número de ciclos de regeneración, han permitido el diseño de acumuladores livianos, de pequeño tamaño y variadas formas, con un alto rendimiento, especialmente adaptados a las aplicaciones de la industria electrónica de gran consumo Desde la primera comercialización de un acumulador basado en la tecnología Li-ion a principios de los años 1990, su uso se ha popularizado en aparatos como teléfonos móviles, agendas electrónicas, ordenadores portátiles y lectores de música.

Algunos smartphones han decidido montar sus baterías en el interior del dispositivo sin posibilidad para el usuario de retirarla o cambiarla por otra(baterías no removibles), esto reduce las posibilidades de usar una batería de repuesto en estos modelos. Además, en caso de fallo de la batería, el único que puede cambiarla es el fabricante, esto reduce mucho las posibilidades de usar una batería de marca compatible con tu teléfono. El iPhone Original de Apple fue uno de los primeros en restringir la manipulación de la batería por parte de los usuarios. Todos los iPhone llevan baterías no removibles, le han seguido otros modelos como el Motorola Razr, o casi todos de la serie Lumia de Nokia.

Desde que salieron los smartphones al mercado la batería siempre ha sido su punto débil, ya que pocos modelos llegan a los dos días de duración sin tener que cargar, existen aplicaciones que maximizan la vida de la batería(JuiceDefender es una de ellas), incluso las hay que reducen la velocidad del procesador para que se consuma menos energía(SetCPU for Root Users).

Referencias:

http://www.iesleonardo.info/ele/pro/CURSO%202002-2003/jesusmicrobot/paginas/pag08.pdf

 

Cámaras en móviles

Un teléfono con cámara fotográfica es un teléfono móvil que tiene una cámara fotográfica incorporada y que junto a una infraestructura basada en servidor permite al usuario compartir fotos y vídeos con cualquier persona inmediatamente. El primer teléfono completo con cámara fotográfica fue construido por Philippe Kahn en 1997.

Comparado a las cámaras fotográficas digitales de los años 90, una cámara fotográfica en un teléfono móvil requeriría menos energía y un alto nivel de la integración de la electrónica de la cámara fotográfica de permitir la miniaturización. El sensor activo “cámara-en-uno-viruta” de la imagen del pixel del Cmos desarrollada en el laboratorio de la propulsión a chorro por el Dr. Eric Fossum y su equipo en los años 90 fue el primer paso de realizar el teléfono moderno con cámara fotográfica según lo descrito en un artículo de la semana del negocio de marzo de 1995. Mientras que los primeros celulares con cámaras fueron vendidos con éxito por J-Phone, que usaban sensores CCD y no los sensores CMOS; más del 90% de los celulares con cámaras fotográficas vendidos tienen esa tecnología.

El 11 de junio de 1997, Philippe Kahn compartió inmediatamente las primeras imágenes de la maternidad donde su hija Sophie nació. Esta infraestructura compartida entre un teléfono celular y una cámara auguraron el nacimiento de la comunicación visual instantánea.

A partir de ese momento los fabricantes empezaron a fabricar complementos opcionales que incluían una cámara VGA 640×480 para acoplar a la base de sus teléfonos: como Sony Ericsson T300 o T68. Año 2002.

Imagen de SonyEricsson T300 y T68 con sus cámaras opcionales incorporadas.

Anteriormente Nokia ya había dado un paso más allá y sacó el primer smartphone Nokia 7650 contaba con cámara integrada con resolución VGA 640×480. Año 2002.

 

Actualmente todos los smartphones que se venden y casi todos los móviles cuentan con una cámara que puede ir, normalmente, desde los 2 ó 3 megapíxeles hasta los 8 megapíxeles (del iPhone 5 o el Samsung Galaxy Note II).

En modelos low-cost se apuesta con cámaras de 3 a 5 megapíxeles. La mayoría admiten un zoom digital, que puede ir desde los 3 a 5 o más aumentos.

La cámara puede contar además con autofocus (autofoco es un automatismo de una cámara fotográfica o cualquier otro aparato óptico que permite el enfoque de un motivo sin intervención del usuario. ), flash Xenon se suele usar para las fotografías y flash LED para vídeo. El flash Xenon da más calidad en general pues es lo que se ha usado en las cámaras convencionales desde hace mucho tiempo.

Flash Xenon

El xenón es un miembro de los elementos de valencia cero llamados gases nobles o inertes. La palabra “inerte” ya no se usa para describir esta serie química, dado que algunos elementos de valencia cero forman compuestos. En un tubo lleno de gas xenón, se emite un brillo azul cuando se le excita con una descarga eléctrica. Se ha conseguido xenón metálico aplicándole presiones de varios cientos de kilobares. El xenón también puede formar clatratos con agua cuando sus átomos quedan atrapados en un entramado de moléculas de oxigeno.

Durante la década de 1930, el ingeniero norteamericano Harold Edgerton comenzó a explorar la tecnología de luz estroboscópica para la fotografía de alta velocidad. Esto le llevó a la invención de la lámpara de flash de xenón, y es que la luz se genera mediante el envío de una breve corriente eléctrica a través de un tubo relleno de gas xenón. En 1934, Edgerton fue capaz de generar flashes breves, de un microsegundo.

El uso principal y más famoso de este gas es en la fabricación de dispositivos emisores de luz tales como lámparas bactericidas, tubos electrónicos, lámparas estroboscópicas y flashes fotográficos, así como en lámparas usadas para excitar láseres de rubí, que generan de esta forma luz coherente.

El smartphone con la cámara más potente del mercado es el Nokia 808 PureView, con una cámara de 41 megapíxeles.

Nokia 808 PureView

 

Especificaciones del sensor PureView de Nokia.

 

Referencias:

http://www.xataka.com/moviles/tres-telefonos-camara

http://www.elconfidencial.com/tecnologia/2012/09/18/los-smartphones-con-mejor-camara-de-fotos-del-mercado-3177/

 

Pantallas táctiles y tecnologías: evolución

Hurst y su Elograph

Las pantallas táctiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971, desarrollada por el Dr. Samuel C. Hurst.(Universidad de Kentucky).

Han llegado a ser comunes en tabletas, en cajeros automáticos y en PDAs, en estas últimas se suele emplear un estilete(stylus) para manipular la interfaz gráfica de usuario e introducir datos. La popularidad de los smartphones, PDAs, videoconsolas portátiles o de los navegadores de automóviles está generando una gran demanda y una gran aceptación de las pantallas táctiles.

Los historiadores atribuyen la primera pantalla táctil capacitiva a E.A. Johnson, natural de Gran Bretaña. Johnson desarrolló a lo largo de los 1965 y 1967 la primera pantalla táctil capacitiva. El inventor describió su trabajo en un artículo publicado en 1965 y luego lo detalló en los años siguientes. Su idea era usar esta tecnología en control de tráfico aéreo, pero no llegó muy lejos.

En la década de los setenta, el doctor Sam Hurst (fundador de la empresa Elographics) fue el que dio el siguiente gran avance. Hurst creó un sensor “touch” en 1971 mientras era profesor de la Universidad de Kentucky. Este sensor fue llamado “Elograph” y fue patentado por la fundación de investigaciones de la propia universidad. El “Elograph” no era una pantalla táctil transparente como las que conocemos ahora, sino que era bastante más tosco. La idea de Hurst era usar el sistema para leer información de forma más fácil. En 1973, el elograph fue elegido como uno de los 100 productos tecnológicos más importantes para la época.

Transcurrido unos años de investigación y desarrollo, Sam Hurst y su empresa lograron finalmente en 1977 crear y patentar la primera pantalla resistiva táctil, cuya tecnología ha estado presente en muchos productos conocidos. Luego con el paso del tiempo Elographics siguió trabajando en este tipo de pantallas, incluso en conjunto con Siemens, logrando la primera pantalla de vidrio táctil curva.

Derecha: elograph, 1971. Izquierda: primera pantalla resistiva transparente, 1977.

Referencias:

http://ingeniatic.euitt.upm.es/index.php/tecnologias/item/542-pantalla-t%C3%A1ctil

http://enlanet.blogspot.com.es/2011/11/fayerwayer-en-tu-email-conectado-02.html

 

HP, Apple, IBM y Palm

Pero, después del señor Hurst, no es hasta 1983 que las pantallas táctiles dan el siguiente paso. HP lanzó al mercado uno de los primeros computadores con pantalla táctil para uso comercial. El llamado HP-150, que funcionaba con transmisores y receptores infrarrojos montados alrededor de una pantalla Sony CRT de 9”, el cual detectaba la posición de cualquier objeto no transparente en la pantalla. Sin embargo los sensores se ensuciaban frecuentemente con polvo, por lo cual requería una constante limpieza para su correcto funcionamiento.

Ya para los 90, empieza a surgir la industria de pantallas táctiles en dispositivos móviles. Y fue nada más ni nada menos que Apple la que la introdujo en este mercado en 1993, con su “fracasada” PDA llamada Newton. El equipo venía equipado con reconocimiento de escritura usando un lápiz. A la par, IBM también introduciría al mercado el IBM Simon, con manejo 100% táctil a través de su pantalla LCD monocromática. Ya para 1996 Palm entra al mercado de las PDAs con nuevas tecnologías táctiles dentro de su serie Pilot.

Con el tiempo, los precios de esta tecnología han ido bajando y las opciones para trabajar con ellas han ido creciendo. Muchos fabricantes de teléfonos móviles han intentado incorporar la tecnología táctil dentro de sus equipos, pero no es hasta estos últimos 5 años que hemos visto cómo esta tecnología se ha vuelto masiva en teléfonos, tablets y PDAs. De hecho, casi todos los teléfonos no básicos, tienen por defecto una pantalla táctil, dejando atrás y con una impresión de anticuado el uso de los botones.

PDA Apple Newton e IBM Simon.

Referencias:

http://enlanet.blogspot.com.es/2011/11/fayerwayer-en-tu-email-conectado-02.html

 

Tipos de pantallas táctiles: resistivas y capacitivas

Las pantallas resistivas son más baratas que las capacitivas y no les afecta el agua ni el polvo. Además de ser más precisas pueden ser usadas con un puntero o con el dedo. Sin embargo, las pantallas, que montan esta tecnología, pierden hasta un 25% del brillo y son más gruesas. Por ello están siendo sustituidas en los dispositivos móviles que precisan un tamaño y un peso ajustados y un mayor brillo en la pantalla para usarse expuestos a la luz directa del sol.

La pantalla táctil propiamente dicha está formada por dos capas de material conductor transparente, con una cierta resistencia a la corriente eléctrica, y con una separación entre las dos capas. Cuando se toca la capa exterior se produce un contacto entre las dos capas conductoras. Un sistema electrónico detecta el contacto y midiendo la resistencia puede calcular el punto de contacto.

Hay varios tipos de pantallas resistivas según el número de hilos conductores que usan, entre cuatro y ocho. Todas se basan en el mismo sistema.

Aparte de su precio, la resistencia a los elementos la ha llevado a una mejor aceptación en la gama baja, aunque los objetos afilados pueden dañarlas. La necesidad de ejercer presión en una pantalla resistiva implica una experiencia de usuario diferente. La respuesta del móvil parece menos intuitiva, más lenta.

En las pantallas capacitivas la calidad de imagen es mejor, tienen mejor respuesta y algunas permiten el uso de varios dedos a la vez, permitiendo funciones multitactiles. Sin embargo, son más caras y no se pueden usar con puntero normal, sino con uno especial que disponga de capacitancia (es la propiedad que tienen los cuerpos para mantener una carga eléctrica) o simplemente con el dedo.

Estas pantallas son utilizadas normalmente en los ordenadores portátiles para suplir al ratón. El touchpad está formado por una rejilla de dos capas de tiras de electrodos, una vertical y otra horizontal, separadas por un aislante y conectadas a un sofisticado circuito. El circuito se encarga de medir la capacidad mutua entre cada electrodo vertical y cada electrodo horizontal. Un dedo situado cerca de la intersección de dos electrodos modifica la capacidad mutua entre ellos al modificarse las propiedades dieléctricas de su entorno. El dedo tiene unas propiedades dieléctricas muy diferentes a las del aire.

La posición del dedo se calcula con precisión basándose en las variaciones de la capacidad mutua en varios puntos hasta determinar el centroide de la superficie de contacto. La resolución de este sistema es impresionante, hasta 1/40 mm. Además se puede medir también la presión que se hace con el dedo.

Es muy resistente al entorno, soporta perfectamente polvo, humedad, electricidad estática, etc. Es un sistema ligero, fino y puede ser flexible o transparente. En estas pantallas se añade una capa conductora al cristal. Se aplica una tensión en cada una de las cuatro esquinas de la pantalla. Una capa que almacena cargas se sitúa sobre el cristal del monitor. Cuando un usuario toca el monitor algunas cargas se transfieren al usuario, de tal forma que la carga en la capa capacitiva se decrementa. Este decrecimiento se mide en los circuitos situados en cada esquina del monitor. El ordenador calcula, por la diferencia de carga entre cada esquina, el sitio concreto donde se tocó y envía la información al software de control de la pantalla táctil. La principal ventaja de este sistema es que, al tener menos capas sobre el monitor, la visibilidad de la pantalla mejora y la imagen se ve más clara.

Referencias:

http://www.ecojoven.com/dos/05/tactil.html

http://enlanet.blogspot.com.es/2011/11/fayerwayer-en-tu-email-conectado-02.html

http://www.netambulo.com/2012/11/13/tipos-de-pantallas-tactiles-resistivas-capacitivas-e-infrarrojas/

 

Tecnologías de pantalla en móviles

Pantallas LCD

Cuando se trata de pantallas de móviles, hay dos tipos principales que se utilizan, el primero de los cuales es LCD, sinónimo de pantalla de cristal líquido

Propiedades químicas e historia:

Existen sustancias donde la fusión del estado sólido cristalino a líquido no ocurre de golpe sino en dos o más pasos, en el año 1888 el botánico austríaco Friedrich Reitnitzer (1857-1927) descubría a que al calentar y fundir (a 145 C) una sustancia química llamada benzoato de colesterol se obtenía un líquido opaco (estable hasta 178 C) y posteriormente si se calentaba más el líquido se hacía más claro y cuando se enfriaba cristalizaba pasando a un color azul; la idea de la tecnología LCD no es nueva pues se basa en este descubrimiento. Reinitzer and Lehman llamaron a la fase estable entre 145 y 178 °C, cristal líquido.

Las propiedades de estos cristales cambian al ser atravesados por una corriente eléctrica, siendo ésta la base del funcionamiento de todos los dispositivos LCD. Transcurrido casi un siglo el descubrimiento se transformó en la primera pantalla, en el año 1964 en Estados Unidos, George Heilmeier ideó por primera vez la forma de aprovechar estos conocimientos para fabricar una pantalla destinada a la representación de imágenes mediante una técnica en aquel entonces revolucionaria.

Un panel LCD está compuesto por una capa de cristales líquidos en una matriz de celdillas pequeñas, a su vez hay una matriz de electrodos controlados independientemente para cada una de las celdas y este conjunto se encuentra entre dos placas de vidrio con filtros polarizantes con una diferencia de orientación entre ambos de 90°. El filtro externo se encuentra coloreado con los colores básicos (rojo, verde y azul), alineados sobre cada terna de partículas de cristal líquido presentes en el panel. Cada uno de estos grupos de color sirve para representar un punto de color en la pantalla. Los filtros se sitúan en la parte externa de este panel y tras éste se sitúa la fuente de luz, actualmente generada por lámparas fluorescentes, situadas tras una fina capa de material reflectante con la finalidad de distribuir la luz uniformemente por toda la parte posterior del panel. Además tiene los dispositivos electrónicos que se encargan de recibir las señales de vídeo y traducir los impulsos eléctricos hacia el electrodo preciso para dibujar o borrar un punto en la pantalla.

Los múltiples rayos de luz generados por la fuente luminosa en la parte posterior del monitor atraviesan el primero de los filtros, quedando polarizados (los polarizadores “filtran” la luz de manera que sólo dejan pasar aquellas ondas que se correspondan con un ángulo especifico de vibración) en una orientación concreta; seguidamente pasan la celdillas de cristal líquido donde, dependiendo de la intensidad de la corriente aplicada por el electrodo encargado de controlar dicha celda, alterará su polarización en mayor o menor medida, que es lo que determina la cantidad de luz que logrará atravesar el último de los filtros dando lugar así a una luminosidad concreta para cada una de la celdillas que forman la pantalla.

En función de la intensidad de luz proyectada en cada una de esta celdillas y el color del filtro sobre ese punto concreto de la pantalla, se originan puntos de distinta tonalidad dando lugar a la imagen representada.

Un diagrama básico de un panel TFT LCD

La capa de luz de fondo es casi siempre retroiluminación LED, y si bien hay diferentes tipos de luz de fondo LED, el utilizado casi siempre es retroiluminación LED de color blanco. Aquí es donde diodos emisores de luz blanca (LEDs) se colocan detrás de la capa de cristal líquido para proporcionar una base de luz para los cristales. De nuevo, esto es una explicación simplificada de cómo trabajan los paneles LCD.

Los paneles LCDs que se utilizan en los móviles son todos de matriz activa , que se refiere a la manera en que los píxeles se contemplan, y todos ellos también utilizan la tecnología TFT LCD.

TFT-LCD (Thin Film Transistor-Liquid Crystal Display, Transistor de Película Fina – Pantalla de Cristal Líquido) es una variante de pantalla de cristal líquido (LCD) que usa tecnología de transistor de película delgada (TFT) para mejorar su calidad de imagen. Sus componentes ayudan a una reproducción más exacta del color, el contraste y el brillo. Hay TFTs de dos tipos:

TN+Film

TN+Film (Twisted Nematic + Film, Torsión Nemática + Película)

Torsión Nemática es un término que se utiliza muy poco por los fabricantes de smartphones, prefiriendo llamar a sus pantallas simplemente “TFT LCD”.

Se hace referencia al método en el que células de cristal están trenzadas en la pantalla para reproducir los colores, y es más comúnmente utilizado en las pantallas de teléfonos de gama baja o low cost, debido a su facilidad de producción.

En comparación con el otro tipo de LCD, IPS (In-Plane Switching, Alternación En El-Plano), los paneles TN LCD tienen ángulos de visión más limitados, como su contraste y su reproducción del color, por lo tanto, son las que se utilizan generalmente en dispositivos más baratos. Dicho esto, el monitor del ordenador o, más aún el televisor (LCD TV), es más probable que haga uso de un panel TN, por esto, no quiere decir que siempre los dispositivos que lo usan sean malos, sólo se debe saber que hay una tecnología mejor que esa.

El Sony Xperia S cuenta con un panel estándar TN TFT LCD, pero es uno de los mejores.

El mejor tipo de panel TN LCD disponible es el que Sony y Samsung hacen uso, el Super LCD (o S-LCD), que tiene mucho mejores niveles de contraste y reproducción de color en comparación con el estándar de los paneles TN. Estos tipos de pantallas comenzaron a aparecer en el HTC Desire como un reemplazo para las pantallas AMOLED, cuando la demanda era pequeña, y desde entonces ha sido sustituido por las pantallas Super LCD 2.

In-Plane Switching (IPS LCD).

Los paneles IPS LCD utilizan un método más organizado para la torsión de las células del cristal, lo que permite una mejor calidad de imagen y, por esto, es el tipo preferido de pantalla para smartphones de gama alta. Las ventajas principales sobre los paneles TN son: su significativamente mejor ángulo de visión y una reproducción de colores más real. Modernos paneles IPS también tienen mucho mejor ratio de contraste que los paneles TN, que los hace (en algunos casos) comparables con la tecnología AMOLED.

El panel Super LCD 2 del HTC One X, es un IPS de tipo TFT LCD, y se ve realmente increíble.

La mayoría de los paneles IPS usados en los smartphones son técnicamente súper IPS(S-IPS) o la versión avanzada (IPS Súper AS-IPS), y en algunos casos se usa tecnología patentada que mejora en diferentes aspectos los paneles IPS.

De vez en cuando los fabricantes de móviles nombrarán a sus paneles como “IPS LCD” o “LCD TFT IPS”, pero en otros casos utilizan un nombre de marca, tales como los que se señalan a continuación.

Retina – El término empleado en paneles IPS LCD de LG para los Apple con una densidad de píxeles alto, que se utilizan desde que el iPhone 4 y desde el iPad 3ª generación.

NOVA – Término de LG de marketing para sus paneles LCD IPS que producen un brillo de 700 nits(el nit es una unidad de medida, no estándar, de luminiscencia), lo que es más brillante que muchas otras pantallas.

Super LCD 2 – La segunda generación de S-LCD de Sony, que cambia el uso de la tecnología TN IPS. Tienen una reproducción del color fenomenal, gran contraste de brillo y buenos ángulos de visión, debido a la reducción del tamaño y la separación de las capas, y son sin duda las mejores pantallas disponibles.

Pros y contras de los paneles LCD

Pros:

  • Barato para producir
  • Los paneles IPS tienen una reproducción del color precisa
  • Baja probabilidad de tintado/emborronado de color o cambio de color
  • Puede ser brillante y claramente legible en el exterior

Contras:

  • Debido a la necesidad de una luz de fondo, las proporciones enormes de contraste y sólidos niveles de negro son difíciles de alcanzar
  • Los paneles TN tienen malos ángulos de visión
  • En algunos casos tienen un consumo alto y son gruesas

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-47-displays

 

Tipo de pantalla: AMOLED

Donde los paneles LCD se fabrican utilizando una variedad de diferentes capas para que todo el trabajo vaya en armonía para producir una imagen, con las pantallas AMOLED el proceso es mucho más simple. Las AMOLED (Active-Matrix Organic Light-Emitting Diode), como los dice el nombre. Esta emite colores directamente de diodos orgánicos en lugar de tener filtros polarizadores, cristales y luces traseras. Como tal, hay un buen número de ventajas que supera la tecnología LCD.

La forma en la que una pantalla AMOLED funciona es muy simple: hay una capa inferior llena de transistores que controla la energía que va a la capa orgánica superior; cuando se aplica energía a los diodos orgánicos que emiten luz, el color de los cuales corresponde a la estructura molecular de el diodo. La intensidad de la luz se puede variar con la potencia enviada por los transistores, que a su vez permite representar millones de colores como la torsión en las pantallas de cristal líquido LCD.

 

Un diagrama de un panel AMOLED | Imagen: Wikimedia Commons

Los diodos de emisión de luz no requieren ningún tipo de luz de fondo para el filtrado y visionado de los colores. Esto ayuda no sólo a ahorrar energía, si no, también al tamaño de la pantalla, que será menor, lo cual es una ventaja para los teléfonos que están luchando por ser los más delgados del mercado. Además, la falta de una luz de fondo persistente permite altos ratio de contraste, porque para visualizar el negro, los diodos orgánicos simplemente se apagan y no muestran nada.

Por supuesto, hay algunos aspectos negativos de las pantallas AMOLED. Para mostrar los habituales subpíxeles: rojo, verde y azul, que se utilizan para crear la gama completa de colores, se hace uso de diferentes compuestos orgánicos para proporcionar cada uno de los tres colores. Las propiedades de cada uno de estos compuestos varía significativamente, por lo que es muy difícil conseguir que cada diodo emita la misma intensidad de luz a plena potencia con la longitud de onda correcta.

Esto conduce a una serie de problemas. Si un color que da un diodo es demasiado intenso, puede cambiar la naturaleza de los colores en la pantalla, por lo general los diodos azules son los culpables del tono azulado en las páginas web blancas. Asimismo, si bien las AMOLED dan colores muy vibrantes(colores vivos y llamativos) por la intensidad del diodo, la reproducción del color no es tan precisa como los paneles IPS LCD, una vez más debido a los problemas para conseguir todos los colores.

El Super AMOLED HD en el Samsung Galaxy Note, los colores pueden parecer muy vibrantes.

El problema final de las pantallas AMOLED es la vida útil de los tipos de diodos diferentes: como cada color es de un compuesto orgánico diferente, que tienen una vida útil determinada, y esa cantidad de tiempo varía para los diferentes colores. En las primeras pantallas AMOLED se sabía que los diodos azules “morían” alrededor de dos veces más rápido que los diodos verdes, sin embargo, en los últimos tipos de pantalla, la tecnología ha evolucionado para hacer de este un problema menor. Esperemos que los problemas de precisión de color también se mejoren con la evolución de la tecnología.

Al igual que con los paneles LCD hay unas marcas asociadas para la implementación de la tecnología:

  • Super AMOLED – La primera generación que Samsung hizo, este panel integra el digitalizador de pantalla táctil en la pantalla y proporciona una mejor legibilidad exterior.
  • Super AMOLED Plus – La nueva generación de Samsung AMOLED, que cambia la matriz de subpixeles PenTile a una matriz RGB para dotar de una mejorada reproducción del color.
  • HD Super AMOLED – Una vez más el “Super” se refiere a un panel de Samsung con un digitalizador integrado, y la falta de “Plus” significa que tiene una matriz PenTile. El HD simplemente significa que tiene una resolución de alta definición con una buena densidad de píxeles
  • ClearBlack AMOLED – usado por Nokia, este es un panel AMOLED que utiliza un “ClearBlack” unidos a un polarizador anti-reflejo que ayuda a la legibilidad al aire libre.

PenTile: es un esquema de familia de matrices de subpíxeles patentada por Samsung, usada en dispositivos electrónicos.

RGB: La descripción RGB (del inglés Red, Green, Blue; “rojo, verde, azul”) de un color hace referencia a la composición del color en términos de la intensidad de los colores primarios de la luz: rojo, verde y azul. Es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores de luz primarios.

Pros y contras de los paneles AMOLED.

Pros:

  • Muy delgada, y (a veces) flexible
  • Colores vibrantes y un contraste elevado debido a los diodos orgánicos
  • Excelentes ángulos de visión
  • Bajo consumo de energía en algunas situaciones

Contras:

  • Reproducción de color imprecisa y emborronado/teñido de color presente a veces
  • Vida útil más corta que los LCD
  • A menudo se usan matrices de subpixel PenTile

Referencias:

http://www.neowin.net/news/guide-to-smartphone-hardware-47-displays

Las tecnologías Super AMOLED, LCD, IPS LCD y Super LCD 1 y 2 compitiendo bajo un microscopio de 201 aumentos:

http://www.xatakamovil.com/revision/las-tecnologias-super-amoled-lcd-ips-lcd-y-super-lcd-1-y-2-compitiendo-bajo-un-microscopio-de-201-aumentos

La matriz subpíxeles PenTile y RGB

Desde la inclusión de la famosa matriz subpixel “PenTile” en las pantallas de smartphones, ha habido una gran cantidad de medios de comunicación hablando mal de ella, y han asegurado que esta matriz en particular es peor que la tradicional “RGB”. Lo difícil no es decir que PenTile es peor que RGB, sino decir por qué esta matriz PenTile, en particular, ofrece una experiencia inferior.

En las pantallas de computadoras, la sensación de color se produce por la mezcla aditiva de rojo, verde y azul. Las pantallas se dividen en puntos minúsculos llamados píxeles formados por tres subpíxeles de colores primarios de luz, cada uno de los cuales brilla con una determinada intensidad.Vemos un diseño RGB con matriz subpixel. Tenga en cuenta que cada subpixel con color azul, verde y rojo forma un cuadrado, y hay que tener en cuenta las especificaciones del tamaño de los transistores.

Al principio, la limitación en la profundidad de color de la mayoría de los monitores condujo a una gama limitada de 216 colores, definidos por el cubo de color, mediante la fórmula 63=216. No obstante, el predominio de los monitores de 24-bit (resultante de 224), posibilitó el uso de 16,7 millones de colores del espacio de color HTML RGB. Que es el que usan mayoritariamente los smartphones.

En cuanto a la producción de estos 16,78 millones colores, se necesitan los tres subpixeles RGB, el método preferido es el de tener estos tres dispuestos en un cuadrado, y así se convierte en un píxel. Esto se conoce como el modelo “RGB”, y es casi universalmente utilizado a través de los monitores de LCD, ya que proporciona la reproducción del color más precisa y más alto nivel de claridad.

En pantallas AMOLED como he mencionado anteriormente, hay algunos problemas con la tecnología que hay que superar, como las incoherencias entre las diferentes intensidades de subpíxeles y esperanzas de vida, pero también hay otro problema: es que, en la actualidad es mucho más difícil de producir una pantalla AMOLED de alta densidad a un precio razonable, porque la tecnología para crear subpíxeles extremadamente pequeños no está aquí, todavía, mientras que con las pantallas LCD, la producción de pequeños subpíxeles es mucho más barata y más fácil.

Y así vino la idea de Samsung en introducir la matriz de subpixel PenTile. En lugar de poner los tres subpíxeles RGB en el píxel, los pares RGBG de la PenTile son uno verde con alternativamente azul y o rojo, lo que significa que son sólo dos subpíxeles por píxel en una matriz RGBG PenTile, en comparación con los tres de una matriz RGB.

Esta es una PenTile; nota que un solo píxel, cuadrado tiene un subpíxel verde pero alternando subpíxeles rojos/azules.

Debido a la naturaleza de la óptica del ojo humano y sus diferentes sensibilidades a diferentes longitudes de onda de la luz, una pantalla de matriz PenTile es capaz de mostrar los mismos colores que la tradicional RGB. Como se utilizan menos subpíxeles por píxel, esto también permite que la pantalla sea más densa en color que si se usa el método RGB, y en algunas situaciones se utiliza menos energía. Por último, debido a que hay menos subpíxeles azules, la pantalla debe durar más que un diseño tradicional AMOLED.

Por supuesto la gente que se queja de matrices PenTile tiene razón, ya que el hecho de que sólo hay dos subpíxeles por píxel, técnicamente, reduce la resolución subpixel de la pantalla: por ejemplo una pantalla de 1280×720 utilizando el diseño de RGB tiene 2,76 millones de subpíxeles mientras que una pantalla PenTile 720p tiene sólo 1,84 millones de subpíxeles; 0,92 millones menos. El tiempo de renderizado de los subpíxeles compensa esto, pero en ciertas situaciones la diferencia es notable.

En los bordes extremos, como un texto claro o en el borde de un elemento de la interfaz de usuario, la matriz PenTile a veces “pide prestados” subpíxeles de otros píxeles para formar una imagen que es del color correcto. Esto es más notorio cuando se mira en el borde izquierdo de un icono blanco o texto, donde parece haber pequeños puntos rojos a lo largo del borde, o a lo largo de las líneas de alto contraste, donde la línea no aparece nítida.

Htc One X lleva una pantalla LCD y One S una AMOLED con tecnología PenTile:

Por lo general se tiene que observar razonablemente cerca la pantalla para notar estas imperfecciones, pero de nuevo comparando una pantalla PenTile con una pantalla RGB, la representación de texto, en el último, es notablemente más clara a una distancia de lectura cómoda. La buena noticia es que PenTile hoy en día sólo se utiliza en dispositivos con una densidad de ppp de almenos 250, y cuando se aproxima a 300 ppp se vuelve muy difícil notar las imperfecciones.

El Samsung Galaxy S III tiene una densidad de ppp de 306, así que no hay ningún problema con que su pantalla sea una PenTile, en concreto la HD SUPER AMOLED RGBG-Matrix (PenTile).

Ppp o en inglés Dots per inch (DPI) es una medida de la densidad de puntos en impresoras o en vídeo, en particular es el número de puntos que pueden ser incluidos en el espacio de 1 pulgada (2.54cm).

En los dispositivos como el Samsung Galaxy Note y Nexus Galaxy, que utilizan pantallas PenTile HD Súper AMOLED, pero tienen una alta densidad de píxeles, el problema pasa a ser prácticamente inexistente. Es evidente que sería mejor tener una alta densidad ppp con una tecnología RGB AMOLED, e incluso Samsung reconoce que sus pantallas Súper AMOLED Plus son mejores, por lo que, seguramente en el futuro veremos la tecnología y los componentes que mejorarán la tecnología de matriz PenTile o simplemente la sustituyan.

La importancia de la densidad de píxeles (definición ppp al detalle)

Todo comenzó con La pantalla de Apple denominada “Retina”: una de 3,5 pulgadas con tecnología IPS LCD promocionando una resolución de 640 x 960. En este tamaño y con esa resolución, la pantalla tiene una densidad de píxeles por pulgada de 326, un número que, al ser mayor de 300, rara vez se ve en otras pantallas.

Entonces, ¿qué son los píxeles por pulgada, y qué significa el mágico 300 ppp?

Píxeles por pulgada (ppp) es un conteo de la cantidad de píxeles en forma de una dimensión a lo largo de una línea en una pulgada, es decir, si pones una regla en la pantalla es el número de píxeles que se pueden contar a lo largo del borde de la regla antes de que alcance una pulgada. Debido al hecho de que los píxeles son cuadrados, no importa si usted cuenta verticalmente u horizontalmente para obtener esta cantidad, y gracias a la fórmula de la página de Wikipedia para la densidad de píxeles, se puede calcular la densidad ppp para cualquier pantalla sin tener que hacer este recuento por ti mismo.

Fómula de Wikipedia:

Para determinar los píxeles por pulgada (PPI) de un monitor, basta medir la longitud y altura, en pulgadas, de un cuadrado de un PPI dado (por ejemplo como el que se muestra de 200×200) usando una regla colocada sobre el monitor. Dividiendo por la resolución dada (200 en nuestro ejemplo) la longitud y la altura medida, dará respectivamente, el valor de PPI horizontal y vertical de la resolución del monitor. Así, cuanto mayor sea el número de ppi, mayor es la resolución y menor el tamaño de cada píxel. En una pantalla que sea buena, lo ideal es que no se deberían de distinguir los píxeles individuales a una distancia razonable de los ojos, para así representar las imágenes y textos con la más alta calidad y nitidez. Al igual que con la calificación de impresión de 300 dpi (puntos por pulgada), 300 ppi es un nivel ideal para estar a 30cm (12 pulgadas) de distancia de la pantalla, la persona no será capaz de ver los píxeles individuales.

Una pantalla de 720p de 4,3 pulgadas con una densidad de 342 ppp. Incluso ampliada, los píxeles individuales son difíciles de determinar.

En las resoluciones estándar tales como 1280×720(720p HD), 960×540(QHD) y 800×480(WVGA), hay un límite en el tamaño diagonal de la pantalla que mantiene la densidad de píxeles por encima de 300 ppp. En 720p, las pantallas puede subir a 4,9″, en QHD está a 3,65″, y WVGA a 3,1″.

Cuando se trata las tabletas, para que alcanzen 300 ppp, es un problema menor, ya que por lo general se mantienen y utilizan más lejos de los ojos, así los fabricantes deben buscar una densidad de 250 ppp o superior. Esto significa que con 10,1 pulgadas, en tabletas, con una resolución de 1920 x 1200 (WUXGA) da 224 ppp, pero con 2560 x 1600 (WQXGA) daría una densidad de 299 ppp con 10,1 pulgadas, y esto se mantiene por encima de 250 ppp hasta las 12 pulgadas. Para los dispositivos de hasta 8,9 pulgadas, la resolución WUXGA es suficiente.

La mayoría de los próximos smartphones de gama alta que están por venir están utilizando una pantalla de alta densidad, como en algunos dispositivos de gama media, pero aún así es definitivamente algo a tener en cuenta en nuevas adquisiciones.

Referencias:

http://www.digitaltrends.com/mobile/the-samsung-galaxy-s-iii-has-a-pentile-display-what-is-it-and-why-should-you-care/

 

Añadiendo función táctil a las pantallas

En un smartphone la pantalla táctil es muy importante. Afortunadamente casi todos los smartphones en estos días (excepto tabletas muy muy baratas) utilizan pantallas táctiles capacitivas que, en comparación con las táctiles resistivas utilizadas en los dispositivos más antiguos, son mucho mejores.

La circuitería de detección capacitiva más utilizada es la capacitiva táctil proyectada (PCT).

La tecnología capacitiva proyectada conecta el toque a través de una pantalla protectora que se encuentra al frente de la pantalla, de manera tal que cada unidad pueda instalarse por detrás de materiales de protección o vidrio anti-roturas como el Gorilla Glass. El modelo DirectTouch incluye un sensor de 7.8mm con vidrio templado, y el modelo ThruTouch funciona a través de una lámina externa provista por el cliente, por ejemplo. El sistema integrado resistente a golpes, rayones y vandalismo, además de no verse afectado por agentes tales como humedad, calor, lluvia, nieve o granizo y líquidos corrosivos, les convierte en ideales para aplicaciones de acceso público en exterior. El touchscreen -sólido y estable- y su controladora, aumentan el nivel de calidad y vida útil del equipo ofreciendo una respuesta rápida y libre de error, además de requerir bajos niveles de mantenimiento y recalibración.

Gorilla Glass es un material sintético transparente fabricado por Corning Inc. Gorilla Glass, introducido al mercado en 2008, está compuesto por una lámina transparente delgada de alta resistencia fabricada a partir de una combinación álcali-aluminosilicato y que se usa como una cubierta de gran resistencia a fracturas y arañazos en dispositivos manuales con pantalla táctil. Muchas marcas lo usan en muchos de sus modelos de smartphones. Los modelos que no incluyen esta tecnología incluyen otra similar con otro nombre compercial que cumple con su cometido.

Dependiendo de la intensidad del campo y de los sensores, a veces es posible activar a veces la pantalla táctil sin tocar realmente el vidrio, o a través de una tela delgada, tales como guantes.

Se muestra un diagrama que da una idea aproximada de cómo funciona una pantalla táctil capacitiva.

El componente principal que proporciona el campo electrostático (generalmente óxido de indio y estaño) es transparente, por lo que en la mayoría de las pantallas táctiles no es posible ver la cuadrícula de electrodo capacitivo en la capa de sistema integrado. Aunque, de vez en cuando se puede ser capaz de ver los puntos pequeños enfrente de la pantalla cuando se coloca en un ángulo específico bajo la luz directa: se trata de pequeños condensadores que están en las intersecciones de la rejilla que permiten la capacitancia mutua, lo que proporciona funcionalidades multitouch.

Con las pantallas LCD la capa sistema integrado se coloca por encima de la capa de cristal líquido, pero por debajo de la capa final de vidrio protector, que le permite ver, a veces, algunos de los componentes mencionados anteriormente. Con algunas pantallas AMOLED, específicamente Super AMOLED de Samsung, el sistema está realmente integrado en la misma capa que los diodos orgánicos emisores de luz, por lo que consume menos espacio, es una de las ventajas de la tecnología AMOLED.

A menudo, el vidrio protector (tal como Gorilla Glass), el sensor digitalizador y la pantalla están todos unidos firmemente juntos en el panel para reducir la posibilidad de los destellos y reflejos mientras se ahorra espacio. Debido a esto, es casi imposible reemplazar sólo uno de los componentes por separado. En su lugar, tendría que desembolsar más dinero para reemplazar la totalidad de cristal digitalizador, pantalla de la unidad, y muchas veces no son baratos y vale la pena comprar otro dispositivo.

Referencias:

http://www.elotouch.com.ar/Productos/Touchscreens/CapacitivaProyectada/default.asp

http://www.touchadvance.com/2011/06/capacitive-touch-touch-sensing.html

http://www.neowin.net/news/guide-to-smartphone-hardware-47-displays

 

Evolución en el diseño de los teléfonos móviles

¿Cómo hemos pasado de la miniaturización de los móviles hasta la maximización de los smartphones modernos?

En los prolegómenos de la telefonía móvil se apostó por la miniaturización de los dispositivos móviles, pero eso cambió “repentinamente” con el boom de ventas de los smartphones. Ahora el mercado está enfocado a la maximización de la pantalla y ,a la vez, a la reducción del volumen del aparato, principalmente el espesor.

Ya han quedado atrás la tendencia de fabricar teléfonos más y más pequeños, algunos ejemplos de estos teléfonos son los Nokia 8210/8850, los Ericsson T68/T28/T18s, el Sony CDM-Z7, el famoso Motorola StarTAC/V50, el Samsung Z500/D500. Estos fueron un ejemplo de teléfonos capaces de ocupar una pequeña parte de la envergadura de muchos smartphones de hoy día.

Entre 1996 y 2002 los teléfonos móviles cumplían con unas funciones de comunicación muy básicas comparadas con las que tenemos hoy en día (básicamente realizaban llamadas de voz y enviaban SMS). Pero en los mercados europeos desde 2001 se comenzó a escribir un cambio de concepción, en la idea de lo que era un teléfono móvil, el lanzamiento del Nokia 7650 (el primero de la marca con cámara integrada) supuso un cambio de rumbo en el mercado. Pero en aquellos tiempos la gente no necesitaba una pantalla muy grande, solo lo suficiente para escribir SMS, leer registros de llamadas y manejar contactos entre otras “sencillas tareas”.

En esa época siempre existieron teléfonos más avanzados que se acercaban a la idea actual de smartphone. Estos disidentes contaban con dimensiones fuera de la norma de aquel tiempo principalmente debido a las funciones especiales que ofrecían, eran muy cercanas a las de las PDAs. Teléfonos como: la serie Nokia Communicator, el Ericsson R380 primero y la serie Sony Ericsson P900/P910 eran ejemplos de los primeros smartphones que gozaban de cierto éxito. Después llegaron más ejemplos de smartphones, como la serie Motorola Accompli, la serie BlackBerry 6230/7230, los HTCs con Windows Mobile, etc. Son ejemplos que no comulgaban con la idea de llevar un teléfono diminuto, ligero y sencillo. Aún así la gente seguía pensando que no era útil tener esas funcionalidades en el teléfono, ya que si las querían se comprarían una Palm o una PDA para ello.

Los móviles de formato tipo concha estaban muy de moda (Samsung D500 y D900, o Motorola V3 y V8), marcaron tendencia y la gente los quería por lo pequeños que eran.

¿Qué pasó con ese afán de miniaturización o compactación de los teléfonos móviles?

Al final los pocos smartphones que por aquella época se comercializaban ganaron la batalla de ideas. Ofrecer más funcionalidades y servicios al dispositivo triunfo sobre la idea de pequeño y simple. Fue a partir de la proliferación de las cámaras fotográficas cuando los teléfonos móviles se vieron obligados a “crecer” y dejar espacio para la tecnología de cámara digital, con la mejora de estas se empezó a apostar por ópticas y resoluciones cada vez mejores integradas en los móviles, y junto a ello la implementación de pantallas de teléfono más amplias, con el fin de mejorar la visualización a la hora de realizar y revisar después las fotografías en la pantalla del teléfono.

El Samsung G800, estrenado el 23 de Octubre de 2007 (el año del lanzamiento del iPhone) quiso seguir la competencia con un producto de grandes dimensiones, al que seguirían después otros modelos como el Samsung F480 y Pixon. Siendo francos hay que decir que la nueva tendencia en el tamaño de los dispositivos y sus nuevas funcionalidades se marca definitivamente con la llega del Apple iPhone y su pantalla táctil multitouch de 3.5”. No bastaban las pantallas pequeñas, la fotografía digital y la navegación web, el móvil exigía un nuevo marco de observación. Desde 2007 surgieron teléfonos que sugerían una nueva línea a seguir, el LG Viewty (KU990), el Samsung F700, Samsung Omnia, Nokia 5800, HTC Hero, Motorola Dext, etc.

Servicios como internet en movilidad, el GPS, las cámaras digitales y las tiendas de aplicaciones han sido las principales responsables de la tendencia a la maximización de los teléfonos móviles, dejando atrás la idea de compresión del volumen.

El Apple iPhone puso de moda el estándar de pantalla de 3.5″ en 2007, el Samsung Galaxy S el de 4″ en 2010, el Samung Galaxy S2 y HTC Desire HD el de 4.3″, y HTC con su Titan/Sensation XL se desmarcaron en Septiembre de 2011 con las 4.7″, solo el Samsung Galaxy Note de 5.3″ se atrevió a ir un paso más allá con un tipo de terminal que mezclaba dos tipos de dispositivos, las tabletas y los smartphones. El nuevo Samsung Galaxy Note II introduce una pantalla de 5.5″, la más grande hasta la fecha en los smartphones.

¿En que punto estamos en la actualidad?

Se piensa que se ha llegado al tope de envergadura práctica de los smartphones con las 4,7″, más allá de esas dimensiones de pantalla se hace menos viable el transporte en el bolsillo de un pantalón, camisa, o bolsillo interior de una americana, así como el abarcamiento de toda la pantalla con una sola mano.

Referencias:

http://alexistechblog.com/2012/04/19/opinion-e-historia-de-la-miniaturizacion-del-motorola-v50-a-la-maximizacion-del-htc-sensation-xl/

Smartphones de bajo coste (lowcost)

En los inicios de la telefonía móvil tener un teléfono transportable y con el que te pudieras comunicar con los demás, aunque fuera pesado e incomodo, era una ventaja al alcance de muy pocos bolsillos. Pero hoy día es raro no cruzarte por la calle con alguien que va andando utilizando un smartphone. Pero, desde hace mucho tiempo, en todos los productos comerciales siempre ha existido la gama lowcost que, en parte, ha propiciado el éxito de dispositivos que en principio no estaban al alcance de todos, y con los móviles no podía ser de otra manera.

Cuando el concepto de smartphone pasó a ser lo que hoy en día conocemos, móviles con grandes capacidades multimedia y multitarea, orientados a estar siempre conectados a internet y con soporte para poder instalar aplicaciones y así ampliar sus posibilidades, se podían diferenciar dos grupos: la gama alta, compuesta por el buque insignia de Apple: iPhone y algunos de los dispositivos Android de la época, estos contaban con pantallas táctiles de gran tamaño con una buena experiencia de usuario y una potencia más que aceptable.

Luego estaba la gama baja, que por aquel entonces estaba compuesta por smartphones que ciertamente dejaban mucho que desear, porque, para conseguir un precio bajo, debían sacrificar costes con algunos de los componentes importantes: como puede ser la pantalla capacitiva, muchos de ellos llevaban pantallas resistivas.

Sin embargo, poco a poco, la idea de que “la gama alta es la que funciona bien y la gama baja no”, está cambiando, cada vez son más los fabricantes que están poniendo grandes esfuerzos en ofrecer diversidad de productos para cubrir todos los nichos de mercado, desde la gama más alta a productos más baratos que están orientados a todas esas personas que no necesitan tener lo más potente, ni la mejor pantalla o la cámara con mayor resolución. Pasando también por la gama media, que es más cercana a la alta pero con pequeños recortes en sus prestaciones. La gama de bajo coste de la que disponemos actualmente dista mucho de lo que se entendía por bajo coste hace un par de años.

Abajo un smartphone de gama baja, el Samsung Galaxy Mini

La tecnología avanza a pasos agigantados, y lo que hace nada considerábamos gama alta o media-alta ha pasado a ser gama media o medio-baja, convirtiéndose en dispositivos accesibles a una gran cantidad de personas, con unos precios competitivos y que las operadoras llegan a regalar.

Y es que no todo el mundo tiene las mismas necesidades, hay gente que quiere tener el último modelo disponible en el mercado, y los hay que quieren un móvil para WhatsApp (mensajería instantánea a través de internet) y poco más. Es importante que los fabricantes se centren y den soporte a su gama alta, pero las gamas media y baja se deben de ir mejorando poco a poco también.

Actualmente, la gama baja cuenta con numerosos dispositivos que funcionan bien y cumplen su función, y la gama alta ofrece un plus de potencia y experiencia de usuario mejorada, además de ciertos servicios añadidos.

Referencias:

http://www.omicrono.com/2012/07/historia-y-evolucion-de-los-smartphones-lowcost-una-gama-imprescindible/

 

Sistemas operativos y software en los teléfonos móviles

Evolución de los sistemas operativos para móviles

Cuando nacieron los teléfonos móviles, y en los años posteriores, el sistema operativo ha sigo casi siempre propietario (desarrollado por la misma marca que fabricaba el móvil), aunque Nokia junto con otras marcas se volcaron en la utilización del sistema operativo Symbian desde 2003. En 2002, se lanza al mercado PocketPc 2002 que es el precursor de Windows Phone, basado en Windows CE que se utiliza en pdas y smartphones.

Android

Android es un sistema operativo móvil basado en Linux, que junto con aplicaciones middleware(software que asiste a una aplicación para interactuar o comunicarse con otras aplicaciones) está enfocado para ser utilizado en dispositivos móviles como cmartphones, tabletas, Google TV y otros dispositivos. Este sistema maneja aplicaciones como Google Play (que es la tienda oficial de aplicaciones Android).

Fue desarrollado inicialmente por Android Inc., una firma comprada por Google en 2005. Pero en realidad es el principal producto de la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicios. Las unidades vendidas de smartphones con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de 43,6% en el tercer trimestre. A nivel mundial alcanzó una cuota de mercado del 50,9% durante el cuarto trimestre de 2011, más del doble que el segundo sistema operativo (iOS de Apple, Inc.) con más cuota.

En el tercer trimestre del año 2012, el sistema operativo móvil de Google ha logrado copar las tres cuartas partes del mercado de los «smartphones». Según la firma analista IDC, se vendieron en este período 136 millones de dispositivos Android de un total de 181,1 millones de terminales. La segunda plataforma es iOS, con un 14,9% de las ventas. Esto significa que Android tiene el 75% del mercado.

Tiene una gran comunidad de desarrolladores escribiendo aplicaciones para extender la funcionalidad de los dispositivos. A la fecha, se han sobrepasado las 600.000 aplicaciones (de las cuales, dos tercios son gratuitas) disponibles para la tienda de aplicaciones oficial de Android: Google Play, sin tener en cuenta aplicaciones de otras tiendas no oficiales para Android, como pueden ser la App Store de Amazon o la tienda de aplicaciones Samsung Apps de Samsung. Google Play es la tienda de aplicaciones en línea administrada por Google, aunque existe la posibilidad de obtener software externamente. Los programas están escritos en el lenguaje de programación Java, HTML5, o LUA. No obstante, no es un sistema operativo libre de malware y virus, aunque la mayoría de estos proceden de aplicaciones descargadas de sitios de terceros.

LUA: es un lenguaje de programación que es potente y fácil de aprender.

El anuncio del sistema Android se realizó el 5 de noviembre de 2007 junto con la creación de la Open Handset Alliance, un consorcio de 78 compañías de hardware, software y telecomunicaciones dedicadas al desarrollo de estándares abiertos para dispositivos móviles. Google liberó la mayoría del código de Android bajo la licencia Apache, una licencia libre y de código abierto.

Entre los cofundadores de Android que se fueron a trabajar a Google están Andy Rubin (es un pionero en tecnologías y co-fundador de Danger, la cual fue una compañía especializada en el diseño de hardware, de software, y de servicios para dispositivos móviles), Rich Miner (co-fundador de Wildfire Communications, Inc. y socio inversor de Google Ventures, la firma de capital de riesgo de Google), Nick Sears (colaboró en T-Mobile), y Chris White (quien encabezó el diseño y el desarrollo de la interfaz en WebTV). En aquel entonces, poco se sabía de las funciones de Android Inc. fuera de que desarrollaban software para teléfonos móviles. Esto dio pie a rumores de que Google estaba planeando entrar en el mercado de los teléfonos móviles.

En Google, el equipo liderado por Rubin desarrolló una plataforma para dispositivos móviles basada en el núcleo Linux que fue promocionado a fabricantes de dispositivos y operadores con la promesa de proveer un sistema flexible y actualizable. Se informó que Google había alineado ya una serie de fabricantes de hardware y software y señaló a los operadores que estaba abierto a diversos grados de cooperación por su parte.

La especulación sobre que el sistema Android de Google entraría en el mercado de la telefonía móvil se incrementó en diciembre de 2006. Reportes de BBC y The Wall Street Journal señalaron que Google quería sus servicios de búsqueda y aplicaciones en teléfonos móviles y estaba muy empeñado en ello. Medios impresos y en línea pronto reportaron que Google estaba desarrollando un teléfono con su marca.

En septiembre de 2007, «InformationWeek» difundió un estudio de Evalueserve que reportaba que Google había solicitado diversas patentes en el área de la telefonía móvil.

No para todos los teléfonos de tipo smartphone que salen al mercado está la última versión de Android disponible, es por esto que existen lo que se conoce como ROMs cocinadas, ROM y firmware vienen a ser “lo mismo”: la memoria de solo lectura de tu móvil, su “alma”, por así decirlo. Contiene el sistema operativo Android de Google, debidamente adaptado y configurado para funcionar con el hardware específico de cada teléfono móvil (antena, chip gráfico, cámaras, etcétera), una de las ROMs personalizadas más conocidas es la CyanogenMod.

El sistema operativo se halla en una zona de memoria de solo lectura por dos motivos: para evitar que lo dañes sin querer -por ejemplo, sobrescribiendo archivos- y para que sigas fiel a las pequeñas modificaciones y aplicaciones integradas que los fabricantes suelen incluir en sus modelos.

Al ser un sistema operativo de código fuente abierto, por suerte, Android permite toda clase de modificaciones. Además de las ROM oficiales, es muy habitual encontrar ROM hechas por grupos de voluntarios y entusiastas que toman el código base y le añaden o quitan características o interfaces de usuario. Incluso uno mismo puede crear la suya.

Cuando queremos actualizar un móvil Android tenemos varias opciones, siempre dependiendo de la operadora y sobre todo del fabricante de nuestro dispositivo. Algunos permiten actualizar por medi de la conexión USB entre el móvil y el PC, y otros directamente en el dispositivo descargando un archivo a la microSD y encendiendo el móvil.

Sin embargo lo más normal es que se actualice un Android por OTA, es decir, Over The Air o inalámbricamente, sin tener que conectar el móvil por cable ni para descargar un archivo ni para actualizar mediante un programa.

Arquitectura de Android: imagen.

El problema de la fragmentación:

Los desarrolladores informaron de la dificultad de mantener aplicaciones para versiones diferentes de Android, debido a problemas de compatibilidad entre la versión 1.5 y 1.6, especialmente, por diferencias de resolución entre los distintos teléfonos Android.

Estos problemas se hicieron patentes durante el concurso ADC2. Posteriormente, el rápido aumento de modelos de teléfono basados en Android con diferentes capacidades de hardware complicaban el desarrollo de aplicaciones para todos lo modelos de teléfonos Android.

Sin embargo, la situación parece haber mejorado “en parte”, porque aún: más de el 54% de teléfonos con Android usan versiones 2.3.X (salida en 2010), el principal problema de esto es a la hora de desarrollar aplicaciones nuevas con las APIs más recientes del SDK de Android, y es que, si se quiere hacer llegar una aplicación a la mayoría de dispositivos Android, se tiene que usar una versión de API compatible con 2.3(aplicación compatible desde la 2.3 hasta la más reciente), así las nuevas funcionalidades de APIs superiores, como NFC a partir de la versión Android ICS 4.0, no se pueden usar si no se implementan a mano por no poder usar la API que hace uso de su funcionalidad.

Datos recogidos del dashboard de Android durante el mes de noviembre.

API – Versión de Android

La compañía modificó su acuerdo legal con los desarrolladores que trabajan en aplicaciones de Android donde específicamente se prohíbe cualquier acción que pueda contribuir a una mayor fragmentación de la plataforma móvil. La cláusula anti-fragmentación se ha añadido recientemente a los términos de licencia y condiciones del SDK de Android que deben aceptar los desarrolladores para construir aplicaciones en Android.

La sección 3.4 de los nuevos términos de Google se actualizó diciendo que “usted se compromete a no tomar ninguna medida que pueda causar o producir la fragmentación de Android, incluyendo pero no limitando la distribución, la participación en la creación o la promoción de modo alguno un kit del desarrollo de software derivado del SDK”.

Referencias:

http://programadorygeek.blogspot.com.es/2011/11/html5-crear-una-aplicacion-nativa-de.html

Fragmentación en Android:

http://www.eleconomista.es/CanalPDA/2012/41435/7-de-cada-10-dispositivos-android-aun-usan-versiones-2-x/

El 75% del mercado es, de momento,  para Android:

http://www.abc.es/20121102/tecnologia/abci-android-mercado-201211021411.html

iOS

iOS (anteriormente denominado iPhone OS) es un sistema operativo móvil de Apple. Fue originalmente desarrollado para el smartphone iPhone, siendo después usado en dispositivos como el iPod Touch, iPad y el Apple TV.

Apple, Inc. no permite la instalación de iOS en hardware de terceros. Tenía el 26% de cuota de mercado de sistemas operativos móviles vendidos en el último cuatrimestre de 2010, detrás de Google Android y Nokia Symbian. En mayo de 2010 en los Estados Unidos, tenía el 59% de consumo en datos móviles (incluyendo el iPod Touch y el iPad).

La interfaz de usuario de iOS está basada en el concepto de manipulación directa, usando gestos multitáctiles(multitouch). Los elementos de control son deslizadores, interruptores y botones. La respuesta a las órdenes del usuario es inmediata y provee de una interfaz fluida. La interacción con el sistema operativo incluye gestos como deslices, toques, pellizcos, los cuales tienen definiciones diferentes dependiendo del contexto de la interfaz. Se utilizan acelerometros internos para hacer que algunas aplicaciones respondan al sacudir el dispositivo (por ejemplo, para el comando deshacer) o rotarlo en tres dimensiones (un resultado común es cambiarlo de modo vertical a apaisado u horizontal).

iOS se deriva de Mac OS X, que a su vez está basado en Darwin BSD(plataforma de código abierto), es un sistema operativo tipo Unix.

iOS cuenta con cuatro capas de abstracción: la capa del núcleo del sistema operativo, la capa de “Servicios Principales”, la capa de “Medios” y la capa de “Cocoa Touch”. La versión actual del sistema operativo (iOS 6.0) ocupa más o menos 770 megabytes, variando por modelo.

Imagen de las cuatro capas de iOS:

Apple reveló la existencia de iPhone OS en la Macworld Conference & Expo del 9 de enero de 2007, aunque el sistema no tuvo un nombre oficial hasta que salió la primera versión beta del SDK un año más tarde, el 6 de marzo de 2008. Antes de esto se consideraba simplemente que el iPhone ejecutaba OS X.5, a partir de ese momento se llamaría iPhone OS. El lanzamiento del iPhone OS tuvo lugar el 29 de junio de 2007.

El interés en el SDK aumentaría en meses siguientes debido al explosivo crecimiento de la plataforma iPhone, que se vio incrementado en septiembre de 2007 por la inclusión del iPod Touch, un dispositivo con las capacidades multimedia del iPhone pero sin la capacidad de hacer llamadas telefónicas.

El 27 de enero de 2010 Steve Jobs, CEO(chief executive officer o director ejecutivo) de Apple, anunció el iPad, un dispositivo muy similar al iPod Touch pero con un enfoque más orientado hacia la industria de contenidos. Este dispositivo, con una pantalla táctil de mayor dimension, compartiría sistema operativo con sus dos exitosos hermanos, y vendría acompañado de una aplicación oficial para la compra y lectura de libros electrónicos, iBooks.

A fecha de abril de 2010 se estima por encima de 185.000 las aplicaciones disponibles para iPhone OS a través de la App Store. El 7 de junio de 2010, durante la presentación del iPhone 4, Steve Jobs anunció que iPhone OS pasaría a ser llamado oficialmente como iOS.

El 12 de septiembre de 2012 se presentó iOS 6 durante la presentación del iPhone 5. Tim Cook hace presentación del iPhone 5, iTunes 11 e iOS 6 a las 19:00 (hora española) del 12 de septiembre en San Francisco.

Referencias:

http://www.fperezp.com/blog/2011/01/03/cocoa-por-donde-empezar/

 

Symbian OS

Symbian es un sistema operativo que fue producto de la alianza de varias empresas de telefonía móvil, entre las que se encuentran: Nokia, Sony Ericsson, Psion, Samsung, Siemens, Arima, Benq, Fujitsu, Lenovo, LG, Motorola, Mitsubishi Electric, Panasonic, Sharp, etc. Sus orígenes provienen de su antepasado EPOC32, utilizado en PDA’s y Handhelds de PSION.

El objetivo de Symbian fue crear un sistema operativo para terminales móviles que pudiera competir con el de Palm o el Windows Mobile 6.X de Microsoft y ahora con el SO Android de Google Inc. , el iOS de Apple Inc. y BlackBerry OS de RIM.

En 2003 Motorola vendió el 13% de su participación a Nokia, lo cual hizo que se quedara con el 32,2% de la compañía. Más tarde, sin embargo, después de no tener el éxito esperado con sus terminales “Linux-Like”, volvió al mundo del Symbian comprándole el 50% a Sony Ericsson. El 24 de junio de 2008, Nokia decidió comprar Symbian, adquiriendo el 52% restante de las acciones de la compañía, tras un acuerdo con el resto de socios.

El objetivo era establecer la Fundación Symbian y convertir este sistema operativo en una plataforma abierta. Entre 2009 y 2010 Nokia decide transferir el soporte y desarrollo del sistema operativo Symbian a la consultora Accenture, terminando la operación a finales de septiembre de 2011, cuando se terminó el desarrollo de la nueva versión Symbian Belle, convirtiéndose en la última versión de Symbian en la que Nokia participó de forma exclusiva. En octubre de 2011 se confirma de forma oficial que Symbian tendrá soporte, solo, hasta el año 2016, por no poder seguir siendo un competidor para la nueva versión de smartphones con sistemas operativos de última generación como Android, iOS o Windows Phone.

La interfaz gráfica por defecto es S60: La plataforma S60 (anteriormente, Interfaz de usuario de Series 60) es una plataforma para terminales móviles que utilicen el sistema operativo Symbian OS. Es desarrollada principalmente por Nokia y licenciada por ellos a otros fabricantes, incluyendo Lenovo, LG Electronics, Panasonic y Samsung.

Symbian^3 se considera una nueva generación del sistema operativo Symbian. Usada en los smartphones de nueva generación de Nokia, como el N8, C7, C6-01, y E7. Este tiene una gran compatibilidad de hardware y soporte para gráficos acelerados con la aceleración de hardware en 2D y 3D, soporte para HDMI, hasta 3 pantallas de inicio personalizables con widgets, y mejoras estéticas notables gracias a la aceleración de gráficos y muchas mejoras generales en estabilidad, entre ellas la consistencia.

Esta es la primera versión de código abierto de Symbian, la cual se presentó un mes después de haber liberado el código fuente de todo el sistema.

Imagen de Symbian^3.

Referencias:

http://es.wikipedia.org/wiki/Symbian%5E3

 

 

Otros sistemas operativos

Windows Mobile y Windows Phone

Windows Mobile es un sistema operativo móvil, propietario, compacto desarrollado por Microsoft, y diseñado para su uso en smartphones y otros dispositivos móviles.

Se basa en el núcleo del sistema operativo Windows CE y cuenta con un conjunto de aplicaciones básicas utilizando las API de Microsoft Windows. Está diseñado para ser similar, en su estética, a las versiones de escritorio de Windows. Además, existe una gran oferta de software de terceros disponible para Windows Mobile, la cual se pudede adquirir a través de Windows Marketplace for Mobile(su tienda oficial).

Originalmente apareció bajo el nombre de Pocket PC, como una ramificación de desarrollo de Windows CE para equipos móviles con capacidades limitadas. En la actualidad, la mayoría de los teléfonos con Windows Mobile vienen con un estilete digital(stylus), que se utiliza para introducir comandos pulsando en la pantalla táctil.

Si bien muchos pensamos que Windows Mobile había sido descontinuado temporalmente en favor del nuevo sistema operativo Windows Phone, la amplia gama de teléfonos que lo usan ha hecho a Microsoft optar por una tercera linea de sistemas operativos para móviles que ha llamado Windows Embedded Handheld 6.5, que vendría a ser la nueva linea de sistemas operativos basados en Windows Mobile 6.5.

Imagen de Windows Mobile 6.5

Windows Phone es un sistema operativo móvil desarrollado por Microsoft, como sucesor de la plataforma Windows Mobile. Está pensado para el mercado de consumo generalista en lugar del mercado empresarial, por lo que carece de muchas funcionalidades que proporciona la versión anterior. Microsoft ha decidido no hacer compatible Windows Phone con Windows Mobile por lo que las aplicaciones existentes no funcionan en Windows Phone, haciendo necesario desarrollar nuevas aplicaciones. Con Windows Phone, Microsoft ofrece una nueva interfaz de usuario e integra varios servicios en el sistema operativo. Microsoft planeaba un estricto control del hardware que implementaría el sistema operativo, para evitar la fragmentación con la evolución del sistema, pero han reducido los requisitos de hardware de tal forma que puede que eso no sea posible dicho propósito.

El 29 de Octubre de 2012 se lanzó al mercado Windows Phone 8 solo para nuevos dispositivos, que incluye algunas mejoras que según Microsoft lo harán competitivo con sistemas operativos como iOS de Apple o Android de Google. Con esta actualización da comienzo la fragmentación de Windows Phone ya que los dispositivos basados en Windows Phone 7 no pueden actualizarse a Windows Phone 8.

WP7 y WP8.

BlackBerry OS

BlackBerry OS es un sistema operativo móvil, de código cerrado, desarrollado por Research In Motion para sus propios dispositivos BlackBerry.

El sistema permite multitarea y tiene soporte para diferentes métodos de entrada adoptados por RIM para su uso en computadoras de mano, particularmente la trackwheel, trackball, touchpad y pantallas táctiles.

Su desarrollo se remonta la aparición de los primeros handheld (Handheld Computer, Handheld Device, como computadora de mano) en 1999. Estos dispositivos permiten el acceso a correo electrónico, navegación web y sincronización con programas como Microsoft Exchange o Lotus Notes aparte de poder hacer las funciones usuales de un teléfono móvil.

RIM estuvo en disputa con NTP Inc. la cual le acusaba de violar cinco patentes que pudo haber dejado sin servicio a sus usuarios en Estados Unidos (sobre tres millones). Las compañías llegaron a un acuerdo extrajudicial que soluciono la disputa en marzo de 2006 previo pago de 612 millones de dólares por parte de RIM.

El SO BlackBerry esta claramente orientado a su uso profesional como gestor de correo electrónico y agenda. Desde la cuarta versión se puede sincronizar el dispositivo con el correo electrónico, el calendario, tareas, notas y contactos de Microsoft Exchange Server además es compatible también con Lotus Notes y Novell GroupWise.

BlackBerry Enterprise Server (BES) proporciona el acceso y organización del email a grandes compañías identificando a cada usuario con un único BlackBerry PIN. Los usuarios más pequeños cuentan con el software BlackBerry Internet Service, programa más sencillo que proporciona acceso a internet y a correo POP3 / IMAP / Outlook Web Access sin tener que usar BES.

Al igual que en el SO Symbian, desarrolladores independientes también pueden crear programas para BlackBerry pero en el caso de querer tener acceso a ciertas funcionalidades restringidas necesitan ser firmados digitalmente para poder ser asociados a una cuenta de desarrollador de RIM.

BlackBerry 10 es el próximo sistema operativo móvil propietario, desarrollado por Research In Motion(RIM) para su línea de smartphones BlackBerry y tableta BlackBerry PlayBook. Está basado en QNX el cual fue adquirido por RIM en Abril de 2010. La plataforma se llamaba originalmente BBX pero se cambió cuando a RIM se le vetó el uso de la marca comercial BBX después de la acción legal de BASIS International, quien también lo usa para su software. El CEO de RIM, Thorsten Heins, ha dicho que la compañía está considerando licenciar BlackBerry 10 a otros OEM (original equipment manufacturer, en español “fabricante de equipamiento original”).

Pantalla inicial de BlackBerry 10.

 

Bada OS

Bada («océano» o «mar» en coreano) es un sistema operativo móvil propietario para teléfonos móviles desarrollado por Samsung. Está diseñado para cubrir tanto los móviles smartphones de gama alta como los de gama baja. Samsung afirmó que bada rápidamente reemplazaría la plataforma de teléfonos más básicos. Se basa en el sistema operativo propiedad de Samsung SHP OS, utilizado en muchos de sus teléfonos como el Samsung Wave. Leva un núcleo Linux(núcleo de código libre) o RTOS(Real Time Operating System con núcleo propietario).

Historia de Bada OS

Samsung anunció la plataforma Bada el 10 de noviembre de 2009. Tras el anuncio, el WAVE S8500 el primer móvil con SO Bada fue mostrado por primera vez en el Mobile World Congress 2010 de Barcelona en febrero de 2010.

Samsung comenzó a publicar el SDK(Kit de desarrollo de Software) para Bada para atraer a programadores independientes. Durante mayo de 2010, Samsung lanzó Bada SDK 1.0.0b2, seguido por 1.0.0b3 lanzado a finales del mismo mes. Además, Samsung comenzó la Bada Developer Challenge con un premio total de $ 2.700.000 (USD). A pesar de todo, bada sigue sin suficientes aplicaciones.

Críticas a Bada

  • No se permite instalar aplicaciones fuera de la tienda y tampoco permite el uso de ningún tipo de programa de VoIP/SIP. (Voz sobre IP, llamadas a través de internet).
  • La IPA(en inglés API) del sensor externo no está abierta, evitando el desarrollo de nuevos tipos de sensores o inesperadas tecnologías de desarrollo para futuras actualizaciones.
  • Las aplicaciones bada no tienen acceso a la bandeja de SMS/MMS o a la alertas de recepción de SMS/MMS.
  • El framework de las aplicaciones bada sólo permite una aplicación bada al mismo tiempo. La multitarea sólo es posible entre las aplicaciones que esta almacenadas en la ROM y una aplicación bada.
  • Algunos han especulado que el mercado está demasiado abarrotado para aceptar un nuevo sistema operativo.
  • No se puede instalar WhatsApp(mensajería instantánea usando una conexión WiFi o 3G a través de un móvil compatible).

 

Tizen

Tizen es un proyecto de un sistema operativo móvil basado en Linux, patrocinado por Linux Foundation y la Fundación LiMo.

Tizen se origina en MeeGo, que a su vez fue una combinación de los sistemas operativos móviles Moblin, creado por Intel, y Maemo, creado por Nokia, y está destinado a sustituirlo. El código base de MeeGo sigue estando disponible. El Desarrollo está dirigido por Intel, Samsung, y algunos ex-desarrolladores de MeeGo.

Las interfaces de desarrollo de Tizen están basadas en HTML5 y otros estándares web y será diseñado para su uso en tabletas, netbooks, smartphones, televisores inteligentes y sistemas integrados de información y entretenimiento.

Los miembros del actual equipo técnico directivo declararon que el desarrollo será totalmente abierto.

La primera versión del sistema y su SDK ya ha sido publicada y los primeros dispositivos serán liberados durante el segundo trimestre de 2012. Tizen está diseñado para ser compatible con las aplicaciones actuales de MeeGo. Se espera que sea mas flexible que MeeGo a través de la nueva API basada en HTML5. Los desarrolladores han hecho hincapié en que HTML5 no es la única plataforma disponible y también se han integrado las Enlightenment Foundation Libraries en el sistema operativo.

Las Enlightenment Foundation Libraries (EFL) son un conjunto de bibliotecas para el desarrollo y la integración de entornos gráficos desarrollada y liderada por Carsten «Rasterman» Haitzler y apoyada por el grupo de desarrolladores del proyecto Enlightenment(Enlightenment, también conocido simplemente como E, es un gestor de ventanas ligero para UNIX y GNU/Linux).

The Linux Foundation es un consorcio tecnológico sin animo de lucro establecido para adoptar el crecimiento de linux. Este nace de la unión de Free Standards Group (FSG) y Open Source Development Labs (OSDL) el día 21 de enero del 2007. Estos dos consorcios tenían los mismos objetivos dentro de la adaptación del mercado y la estandarización de los componentes de Hardware y Software para el Sistema Operativo GNU/Linux.

LiMo Foundation (fundación Linux Mobile) es una asociación sin ánimo de lucro fundada por Motorola, NEC, NTT DoCoMo (del grupo NTT), Panasonic Mobile Communications (del grupo Matsushita), Samsung Electronics (del grupo Samsung), y Vodafone en enero del 2007. Este consorcio industrial está trabajando para la creación de una plataforma de desarrollo auténticamente libre para dispositivos móviles, independiente del hardware, y basada en el sistema operativo GNU/Linux.

Samsung reveló en el CES 2012 su intención de incorporar Bada al proyecto de desarrollo de Tizen. Fue una muy buena noticia para los usuarios que disponen de estos móviles Bada.

Líneas de desarrollo Tizen.

Aspecto de Tizen.

Referencias:

http://www.movilzona.es/2012/05/08/el-primer-smartphone-con-tizen-se-deja-ver-en-un-video/

http://www.xataka.com.mx/celulares-y-smartphones/el-primer-smartphone-tizen

 

Firefox OS

Firefox OS (anteriormente conocido como Boot to Gecko o B2G) es un sistema operativo móvil basado en el navegador de código abierto Firefox.

Es desarrollado por Mozilla Corporation bajo el apoyo de otras empresas como Telefónica y una gran comunidad de voluntarios de todo el mundo. Este sistema operativo está enfocado especialmente a los dispositivos móviles incluidos los de gama baja.

El 21 de octubre de 2012 Mozilla estrena el Firefox Marketplace, una tienda online de aplicaciones para Firefox OS, cuyo lanzamiento está proyectado para 2013. Firefox OS tiene un objetivo muy claro: ser sencillo y fluido.

Una de las críticas que recibe Android es la estructura del sistema. Basada en un kernel Linux, nos encontramos con diferentes capas intermedias que componen los diferentes sistemas. Esta complejidad da muchos quebraderos a algunos desarrolladores, de hecho se han hecho diferentes movimientos para animar a Google a que cambie la arquitectura.

Tomando este caso como ejemplo, en el otro lado tenemos a Firefox OS. Sus creadores han querido simplificar todo esto y dejar el sistema en tres capas: Gonk (una capa de abstracción para el hardware), otra con un port de Gecko a Gonk y finalmente Gaia: la interfaz visual que veremos cuando usemos el teléfono.

¿Qué se consigue todo esto? Optimización y rendimiento.

Firefox OS, en sus orígenes de hace un par de años (2010), dejó las bases muy claras: queremos un sistema operativo ágil, fácil de usar y que cualquier desarrollador pueda modificar a su gusto para que existan diferentes distribuciones.

Otro de los puntos fuertes lo encontramos en la gran utilización de las tecnologías web para que funcione Firefox OS. Todo lo que se pueda ver en la pantalla estará basado en HTML5, Javascript y CSS. Así de sencillo. Todas las aplicaciones, incluso las del sistema como el dialer, los SMS o los ajustes, funcionan con esta triada.

En este último aspecto, la interfaz, es donde más ha trabajado Telefónica, siendo Mozilla quien se ha encargado del desarrollo más profundo. Lo cierto es que hablar de interfaces en Firefox OS resulta interesante por un punto muy interesante: la personalización.

Telefónica, evidentemente, ha desarrollado su propia interfaz pero al basarse todo en HTML5 y CSS cualquiera puede modificarla libremente. De este modo tenemos un sistema operativo menos encorsetado donde podríamos tener diferentes versiones de una misma distribución por ejemplo una interfaz Metro OS, otra tipo IOS, Android.

Las aplicaciones serán todas basadas en la web, ¿Esto significa que siempre necesitaremos conexión para usarlas?

No necesariamente. Gracias a la función WebCache podremos almacenar algunas de ellas en nuestro terminal. De este modo no siempre tendremos que tener conexión para usar todas las apps (aunque habrá algunas que obviamente lo necesiten). Además la actualización por parte de los desarrolladores es fácil gracias a la mencionada cache.

Cuando salga, el reto será atraer a los creadores de aplicaciones. Hay mucho trabajo hecho, juegos y aplicaciones, ya hay bastantes y algunas funcionan bastante bien sin necesidad de optimización previa, como Grooveshark. Sin embargo, hay que convencer a las compañías disruptivas.

Hablando en plata: necesitarán a Whatsapp y compañía para que la gente se anime a usarlo. Recordemos que, de momento, se lanzará incluido en un teléfono de bajo coste y al final este tipo de usuarios quieren el móvil para cuatro apps, si no tienen una de ellas se pensarán usar otra alternativa.

En Mozilla y Telefónica tienen claro que habrá una tienda de aplicaciones o mejor dicho, varias. No sólo para distribuir las gratuitas sino para que también las puedan monetizar. ¿Cómo? Haciendo una comprobación con una “receta” para ver si el usuario ha pagado por ella o no.

Al hablar de sistemas abiertos y aplicaciones es inevitable pensar en Android, sus problemas con el malware y la piratería. En Firefox OS quieren tomar nota de todo esto y hacer que el sistema sea más seguro y evitar los problemas con la distribución no autorizada de las apps.

Como en Android, habrá un sistema de permisos que funcionará a dos niveles. Por un lado los que se den cuando se instalen, se hará al momento y para los temas más básicos. Por otro, si la aplicación intenta pedir un permiso especial durante su uso y que sea extraño (que una aplicación de fondos te pida enviar un SMS Premium) nos avisará para que aceptemos o no.

Probando el terminal que saldrá a la venta en Brasil: Tras ver con el equipo técnico toda la historia y cómo es este Firefox OS procedemos a usar el terminal de desarrollo. Un ZTE de gama baja (procesador de 600MHz) que será el mismo que se ponga a la venta en Brasil. Sus especificaciones modestas pueden inducir al engaño pero el rendimiento de Firefox OS es espectacular.

Transiciones fluidas, apertura y utilización de aplicaciones web de forma rápida y un dato, algo vago eso sí, que a más de uno agradará: la batería durará días. Digo vago porque realmente no hay ninguna prueba técnica que lo demuestre, esto son palabras de sus desarrolladores y es que la autonomía puede variar en función de la distribución, pero ahí queda eso: parece que no tendremos que cargar el móvil todos los días.

La sensación que nos ha dejado fue muy buena. Incluso con los juegos modestos era capaz de cargarlos sin mayor problema. Si lo comparamos con un terminal similar en Android, por ejemplo un Galaxy Mini, las diferencias se notan y sacan a relucir ese rendimiento y agilidad de la que presume Firefox OS.

Probar Firefox OS en un ordenador doméstico es posible con Firefox OS Simulator instalándolo como extensión del navegador Firefox.

Smartphone de gama baja con Firefox OS.

Características de multitarea en los Sistemas Operativos Móviles

Multitarea en iOS

Antes de iOS 4(la última versión es la iOS6), la multitarea estaba reservada para aplicaciones por defecto del sistema. A Apple le preocupaba los problemas de batería y rendimiento si se permitiese correr varias aplicaciones de terceros al mismo tiempo. A partir de iOS 4, dispositivos de tercera generación y posteriores permiten el uso de 7 APIs para multitarea, específicamente:

  1. Audio en segundo plano
  2. Voz IP
  3. Localización en segundo plano
  4. Notificaciones push
  5. Notificaciones locales
  6. Completado de tareas
  7. Cambio rápido de aplicaciones

Sin embargo, no consiste en una verdadera multitarea real, pues las aplicaciones ajenas al SO que no se ciñan a esas 7 premisas, quedan congeladas en segundo plano sin recibir un sólo ciclo de reloj del procesador.

Multitarea en Android:

Es una multitarea real de aplicaciones está disponible, es decir, las aplicaciones que no estén ejecutándose en primer plano reciben ciclos de reloj, a diferencia de otros sistemas de la competencia en la que la multitarea es congelada (Como por ejemplo iOS, en el que la multitarea se limita a servicios internos del sistema y no a aplicaciones externas).

Multitarea en Symbian:

Los primeros Symbian s60 (en 2002, Nokia 7650, llevaba Symbian OS 6.1) ya tenían multitarea.

Multitarea en Windows Mobile

La mayoría de versiones de Windows Mobile tienen de forma estándar soporte multitarea.

Multitarea en Windows Phone 7/8

La multitarea en WP7 està inhibida para aplicaciones de terceros. En WP8 está disponible.

Referencias:

http://jpascu.blogspot.com.es/2011/03/sistemas-operativos-moviles.html

http://www.miandroideyyo.com/2009/05/android-si-es-multitarea.html

 

Evolución de las aplicaciones para móviles

Al principio, cuando el móvil nació, sus funciones más útiles eran: llamar y enviar SMS, pero con la llegada de los smartphones el móvil se ha convertido en un dispositivo multifuncional que no sólo comunica, sino que ayuda a aprender, relacionarse y divertirse.

A finales de los años 1990 algunos fabricantes, como Nokia, decidieron ofrecer algún tipo de entretenimiento en esos pequeños dispositivos que tenían botones y una pantalla LCD en blanco y negro, compañías como Nokia o Philips introdujeron pequeños juegos basándose en las primeras consolas y recreativas arcade de principios de los años 1980; jamás pensaron que esto revolucionaría el mundo de los videojuegos portátiles. Estos juegos fueron evolucionando y algunos ofrecían la posibilidad de desbloquear niveles pagando al operador o conectándose a internet.

Mientras, en Japón se lanzaban los primeros móviles programables con tecnología Java (allí tenían su propia versión, I-mode-doja). Hasta ese momento los videojuegos en los móviles estaban integrados en la memoria ROM del teléfono, programados directamente en código máquina, pero con los móviles programables surgió una zona de memoria donde se podían grabar datos, y se podía utilizar un lenguaje de desarrollo como Java, con un cable USB o una conexión a internet se introducían los programas al móvil. La finalidad de esto era el desarrollo de pequeñas aplicaciones: tipo calculadoras, notas, y no videojuegos. Surgieron algunas empresas, como la francesa Gameloft(fundada en 1999), para desarrollar videojuegos en blanco y negro para esas pequeñas pantallas y resultaron ser un éxito.

El comienzo del nuevo milenio dotó al mercado una rápida evolución de los contenidos y aplicaciones para móviles.

Los sistemas operativos para móviles tipo smartphone (Windows Mobile, Symbian, BlackBerry de RIM, Android, Mac iOS), están abiertos al desarrollo de software de terceros, a diferencia del convencional entorno de programación de los teléfonos celulares estándar, que se veían reducidos a programar, principalmente, en J2ME.

De esta forma los fabricantes trataron de hacer sus productos más atractivos para los clientes mediante la introducción de más y más aplicaciones, así los usuarios han sido capaces de personalizar sus dispositivos de la manera que más les conviene.

Los desarrolladores de software para móviles quieren libertad para desarrollar aplicaciones móviles sin restricciones para el usuario final.

Por otro lado los fabricantes de teléfonos móviles quieren una plataforma asequible, segura y estable para alimentar sus dispositivos.

El Motorola DynaTAC 8000X fue el primer teléfono celular comercializado por primera vez en 1983, permitiendo hablar poco más de media hora. Hacía llamadas sin disponer de una aplicación para almacenar el nombre de los contactos, solo 30 ubicaciones de marcación rápida. Las primeras aplicaciones de la primera generación de teléfonos móviles fueron diseñadas y desarrolladas por los fabricantes de teléfonos móviles. La competencia era feroz y los secretos comerciales estaban a la orden del día. No se querían exponer los secretos de sus teléfonos móviles, por lo que el desarrollo el software del teléfono quedaba limitado a los programadores de la empresa. Los desarrolladores que no formaban parte de este círculo interno no tenían oportunidad de escribir aplicaciones para los teléfonos. Fue durante este período cuando las primeras aplicaciones para el entretenimiento comienzan a aparecer.

Nokia fue famoso, en 1997, por incorporar el video juego Snake(Serpiente) en algunos de sus primeros teléfonos. Otros siguieron los pasos de Nokia y agregaron juegos como Pong, Tetris, y Tic-Tac Toe. Estos teléfonos tempranos cambiaron la forma de pensar de la comunicación.

Los precios de la telefonía móvil fueron cayendo, las baterías mejorando, creciendo las áreas de recepción, y más y más gente comenzó a llevar estos dispositivos de mano.

Los clientes comenzaron a presionar a las marcas para que incorporasen más funciones y más juegos a sus aparatos, sin embargo los fabricantes de móviles no tenían la motivación o los recursos suficientes para desarrollar todas las aplicaciones que el usuario quería.

Ellos pensaron que proveer un portal de información, entretenimiento y servicios, sin permitir el acceso directo al sistema operativo del móvil, sería suficiente. Así es como se intentó introducir la navegación por internet en los móviles de la época, pero el acceso telefónico directo a la red tenía problemas de escalado: porque a finales de los 90 los sitios Web eran a todo color, con texto, imágenes y otros tipos de medios, además se basaban en JavaScript, Flash y tenían una resolución media de 800X600.

Era un problema para los teléfonos con pantallas monocromáticas de muy baja resolución y procesadores de muy baja velocidad de procesamiento, además el ancho de banda para la transmisión de datos era muy costosa para el usuario. Así es como nació WAP (Wireless Application Protocol(protocolo de aplicaciones inalámbricas), es un estándar abierto internacional para aplicaciones que utilizan las comunicaciones inalámbricas, está basado en una versión reducida de HTTP, que es la base de la World Wide Web).

Imagen de la versión de Wap 1.0

Así se desarrollaron los primeros navegadores WAP adaptados a los procesadores, pantallas y memoria de los móviles de aquella época.

Las páginas WAP se escribían en WML (Wireless Markup Language, versión reducida de HTML basado en XML, EXtensible Markup Language).

La solución WAP fue genial, los fabricantes desarrollaban los navegadores adaptándolos a los teléfonos, y dejaba en manos de terceros el desarrollo de contenidos deseados por los usuarios que accederían vía WAP.

También fue genial para los operadores de telefonía móvil, ya que, ofrecían portales WAP para captar abonados a sus servicios y a contenidos de su propia casa. La mayoría de los primeros sitios WAP eran extensiones de sitios web populares, como CNN.com, ESPN.com, etc.

Los contenidos a los que se podía acceder durante esa época eran básicamente fondos de pantalla y tonos de llamada, lo que permitía una personalización de los móviles nunca vista antes.

Pero había un problema: la comercialización de aplicaciones WAP era difícil puesto que no existía un mecanismo de facturación en aquella época que estuviera integrada. Además los usuarios debían introducir la marca y modelo del teléfono para bajarse un tono o imagen compatible.

Surgieron los primeros mecanismos de cobro mediante SMS, EMS y MMS, además de WAP Push (mensajes SMS con direcciones URL WAP). Pero los navegadores WAP eran lentos y pesados, y era muy costoso escribir largas direcciones URL con el teclado alfanumérico, la mayoría de sitios WAP disponía de una sola versión para todos los teléfonos, aunque estos tuvieran una pantalla a color o monocromo, de una resolución determinada o otra. La tarea de adaptación de la página WAP a un móvil determinado corría a cargo del desarrollador, el resultado final era bastante mediocre.

Aún así WAP cumplió con las expectativas comerciales, menos en Japón y otros lugares (i-mode).

Los críticos comenzaron a hablar mal de WAP, diciendo que era un servicio de “espera y cobro” porque se cobraba por tiempo, no, como hoy, por datos.

Los usuarios empezaron a demandar mejores formas de conectarse a internet. Escribir aplicaciones gráficas o juegos con WAP es casi imposible. El mercado juvenil quería personalizar sus teléfonos con fondos de pantalla y tonos de llamada. Teniendo de referencia sus consolas portátiles se preguntaron si sería posible tener en un mismo dispositivo consola, reproductor de música y teléfono móvil.

Si las consolas, como la Game Boy de Nintendo, podían proporcionar horas de diversión con solo cinco botones, ¿por qué no insertar capacidades de videojuegos al móvil?

A medida que las memorias fueron siendo más baratas y las baterías iban aumentando la duración, las PDAs y otros dispositivos portátiles comenzaban a utilizar versiones compactas de los sistemas operativos de escritorio más comunes como Linux y Windows.

Así el programador de aplicaciones para escritorio se vio involucrado en el mercado de telefonía móvil, de una forma más notoria cuando salió al mercado Windows Mobile para smartphones.

Los fabricantes de teléfonos móviles se dieron cuenta de que si querían seguir vendiendo sus productos, tenían que cambiar su políticas proteccionistas con respecto al diseño del hardware, tenían que exponer su funcionamiento interno, hasta cierto punto.

Una variedad de diferentes plataformas propietarias ha surgido desde entonces y los desarrolladores pueden crear aplicaciones para ellas. Uno de los primeros fue el sistema operativo Palm (ahora Garnet OS) y RIM Blackberry OS.

Java desarrolló la plataforma Java Micro Edition (anteriormente J2ME, está bajo licencia GNU desde 2006, hay más de 2,1 mil millones de dispositivos Java ME entre teléfonos móviles y PDAs). Aunque no se utiliza en algunas de las más recientes plataformas móviles: iPhone, Windows Phone, BlackBerry o Android; sigue siendo muy popular en dispositivos como Nokia Serie s40. También se utiliza en el SO Bada y en Symbian OS con soporte nativo.

Además, existen implementaciones para Windows CE, Windows Mobile, Maemo, MeeGo, que se pueden descargar por separado, así como para Android(Android J2ME MIDP RUNNER).

Qualcomm ha desarrollado su Binary Runtime Environment for Wireless (B.R.E.W: es una plataforma de desarrollo de aplicaciones móviles para teléfonos celulares con tecnología CDMA, tecnología paralela a 3G).

Symbian OS ha sido desarrollado por Nokia, Sony Ericsson, Motorola y Samsung.

El Apple iPhone, corre iOS. Y se unió a la batalla en 2007, el SO Android de Google(la única alternativa basada en código abierto GNU).

La mayoría de las plataformas tienen asociados kits de desarrollo que mantienen las comunidades de desarrolladores pequeños, con acuerdos contractuales sobre lo que pueden y no pueden hacer.

Estos programas a veces son de pago y los desarrolladores deben desembolsar dinero para utilizarlos.

Cada plataforma tiene sus ventajas y desventajas, por ello, ninguna plataforma ha salido victoriosa sobre otra, aún. Algunas plataformas son las más adecuados para la comercialización de los juegos

y se pueden hacer millones si su empresa cuenta con el respaldo de una marca. El mercado de la telefonía móvil se ha convertido en un territorio cada vez más fragmentado. En lugar de elegir una sola plataforma, los fabricantes y los operadores se han visto obligados a vender los teléfonos para distintas plataformas. La comunidad de desarrolladores móviles se ha convertido en un factor determinante para la fragmentación el mercado.

Los móviles han ido evolucionando y con ellos la memoria, potencia y los lenguajes de programación de los mismos, Symbian OS, J2ME 2.0, doja 1.5…

Actualmente el mercado de los videojuegos para móviles es más grande que cualquier otro mercado de videojuegos portátiles, teniendo cifras de ventas elevadas. Se esperan videojuegos en 3D y en red a través del 3G, LTE, Wi-Fi o Bluetooth.

Snake Original en Nokia 6110, y Snake de Android.

Al final los desarrolladores de software para móviles trabajan con diferentes entornos de programación, con sus diferentes herramientas y lenguajes de programación.

Migrar aplicaciones entre las plataformas es a menudo costoso y nada sencillo.

Referencias:

http://www.uky.edu/~jclark/mas490apps/History%20of%20Mobile%20Apps.pdf

 

 

Evolución de las redes de telefonía móvil

La historia del teléfono móvil se remonta a los inicios de la Segunda Guerra Mundial, donde ya se veía que era necesaria la comunicación a distancia de un lugar a otro, es por eso que la compañía Motorola creó un equipo llamado Handie Talkie H12-16, que es un equipo que permite el contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese tiempo no superaban los 600 kHz.

Handie Talkie H12-16

Comenzaron a perfeccionar y amoldar las características de este nuevo sistema revolucionario ya que permitía comunicarse a distancia. Fue así que en los años 1980 se llegó a crear un equipo que ocupaba recursos similares a los Handie Talkie pero que iba destinado a personas que por lo general eran grandes empresarios y debían estar comunicados, es ahí donde se crea el teléfono móvil y marca un hito en la historia de los componentes inalámbricos ya que con este equipo podría hablar a cualquier hora y en cualquier lugar.

Los inicios (0G): Los pioneros

Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 40 en los Estados Unidos. Eran sistemas de radio analógicos que utilizaban, en un primer momento, modulación en amplitud (AM) y posteriormente modulación en frecuencia (FM). Se popularizó el uso de sistemas FM gracias a una calidad superior de audio y una mejor resistencia a las interferencias. El servicio se daba en las bandas de HF y VHF.

Los primeros equipos eran enormes y pesados, por lo que estaban destinados casi exclusivamente a su uso a bordo de vehículos. Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche.

Una de las compañías pioneras que se dedicaron a la explotación de este servicio fue la americana Bell. Su servicio móvil fue llamado System Service. No era un servicio popular porque era extremadamente caro, pero estuvo operando (con actualizaciones tecnológicas, por supuesto) desde 1946 hasta 1985.

En conclusión, el teléfono móvil se hizo portátil cuando Motorola culmina el proyecto DynaTAC 8000X, que es presentado oficialmente en 1984.

Primera generación (1G): Maduración de la idea

En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia (FM). Era el primer sistema del mundo de telefonía móvil tal como se entiende hasta hoy en día.

Los equipos de 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época, ya que podían ser trasladados y utilizados por una única persona.

En 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel NMT 900. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores (del orden de 900 MHz). Esto posibilitó dar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales.

Además del sistema NMT, en los 80 se desarrollaron otros sistemas de telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EE.UU y TACS (Total Access Comunication System).

El sistema TACS se utilizó en España con el nombre comercial de MoviLine. Estuvo en servicio hasta su extinción en 2003.

Segunda generación (2G): Popularización

En la década de 1990 nace la segunda generación, que utiliza sistemas como GSM, IS-136, iDEN e IS-95. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz.

El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costos que ello conlleva).

En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EE. UU.), Personal Digital Cellular (Japón), cdmaOne (EE. UU. y Asia) y GSM.

Muchas operadoras telefónicas móviles implementaron Acceso múltiple por división de tiempo (TDMA) y Acceso múltiple por división de código (CDMA) sobre las redes Amps existentes convirtiéndolas así en redes D-AMPS. Esto trajo como ventaja para estas empresas poder lograr una migración de señal analógica a señal digital sin tener que cambiar elementos como antenas, torres, cableado, etc. Inclusive, esta información digital se transmitía sobre los mismos canales (y por ende, frecuencias de radio) ya existentes y en uso por la red analógica. La gran diferencia es que con la tecnología digital se hizo posible hacer Multiplexion, tal que en un canal antes destinado a transmitir una sola conversación a la vez se hizo posible transmitir varias conversaciones de manera simultánea, incrementando así la capacidad operativa y el número de usuarios que podían hacer uso de la red en una misma celda en un momento dado.

El estándar que ha universalizado la telefonía móvil ha sido el archiconocido GSM: Global System for Mobile communications o Groupe Spécial Mobile. Se trata de un estándar europeo nacido de los siguientes principios:

  • Buena calidad de voz (gracias al procesado digital).
  • Itinerancia (Roaming).
  • Deseo de implantación internacional.
  • Terminales realmente portátiles (de reducido peso y tamaño) a un precio asequible.
  • Compatibilidad con la RDSI (Red Digital de Servicios Integrados).
  • Instauración de un mercado competitivo con multitud de operadores y fabricantes.

Realmente, GSM ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad (9.6 kbit/s con WAP) y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema. Es en este momento cuando se empieza a gestar la idea de 3G, pero como la tecnología CDMA no estaba lo suficientemente madura en aquel momento se optó por dar un paso intermedio: 2.5G.

Generación de transición (2.5G)

Dado que la tecnología de 2G fue incrementada a 2.5G, se incluyen nuevos servicios como EMS y MMS:

EMS es el servicio de mensajería mejorado, permite la inclusión de melodías e iconos dentro del mensaje basándose en los sms; un EMS equivale a 3 o 4 sms.

MMS (Sistema de Mensajería Multimedia) Este tipo de mensajes se envían mediante GPRS y permite la inserción de imágenes, sonidos, videos y texto. Un MMS se envía en forma de diapositiva, en la cual cada plantilla solo puede contener un archivo de cada tipo aceptado, es decir, solo puede contener una imagen, un sonido y un texto en cada plantilla, si se desea agregar más de estos tendría que agregarse otra plantilla. Cabe mencionar que no es posible enviar un vídeo de más de 15 segundos de duración.

Para poder prestar estos nuevos servicios se hizo necesaria una mayor velocidad de transferencia de datos, que se hizo realidad con las tecnologías GPRS y EDGE.

GPRS (General Packet Radio Service) permite velocidades de datos desde 56 kbit/s hasta 114 kbit/s.

EDGE (Enhanced Data rates for GSM Evolution) permite velocidades de datos hasta 384 kbit/s.

Se empezó a tarificar por cantidad de datos enviados/recibidos, no por tiempo de conexión.

Tercera generación (3G)

3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a internet desde el móvil, la videoconferencia, la televisión y la descarga de archivos. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System).

UMTS utiliza la tecnología CDMA, lo cual le hace alcanzar velocidades realmente elevadas (de 144 kbit/s hasta 7.2 Mbit/s, según las condiciones del terreno).

UMTS ha sido un éxito total en el campo tecnológico y, en un principio, tampoco fue un triunfo excesivo en el aspecto comercial.

Se esperaba que fuera un bombazo de ventas como GSM y que las videollamas fuesen un éxito, pero realmente no ha resultado ser así ya que, según parece, muchos usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGE. De hecho hay smartphones de gama baja-media que no disponen de cámara frontal para videollamadas.

La tecnología HSDPA (High Speed Downlink Packet Access), también denominada 3.5G, 3G+ o turbo 3G, es la optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP release 5 y consiste en un nuevo canal compartido en el enlace descendente (downlink) que mejora significativamente la capacidad máxima de transferencia de información pudiéndose alcanzar tasas de bajada de hasta 14 Mbps (1,8, 3,6, 7,2 y 14,4 Mbps). Soporta tasas de throughput promedio cercanas a 1 Mbps. Actualmente, también está disponible la tecnología HSUPA, con velocidades de subida de hasta 5,8Mbps, y HSPA+ con velocidades de hasta 84 Mbps de bajada y 22 Mbps en la subida.

Es la evolución de la tercera generación (3G) de tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G), la futura integración de redes. Actualmente se está desarrollando la especificación 3.9G antes del lanzamiento de 4G.

Es totalmente compatible en sentido inverso con WCDMA y aplicaciones ricas en multimedia desarrolladas para WCDMA que funcionarán con HSDPA. La mayoría de los proveedores UMTS dan soporte a HSDPA.

Sistema universal de telecomunicaciones móviles (Universal Mobile Telecommunications System o UMTS) es una de las tecnologías usadas por los móviles de tercera generación, sucesora de GSM, debido a que la tecnología GSM propiamente dicha no podía seguir un camino evolutivo para llegar a brindar servicios considerados de tercera generación. UMTS ofrece los siguientes servicios:

Facilidad de uso y bajos costes: UMTS proporcionará servicios de uso fácil y adaptable para abordar las necesidades y preferencias de los usuarios, amplia gama de terminales para realizar un fácil acceso a los distintos servicios y bajo coste de los servicios para asegurar un mercado masivo. Como el roaming internacional o la capacidad de ofrecer diferentes formas de tarificación.

Nuevos y mejorados servicios: Los servicios de voz mantendrán una posición dominante durante varios años. Los usuarios exigirán a UMTS servicios de voz de alta calidad junto con servicios de datos e información. Las proyecciones muestran una base de abonados de servicios multimedia en fuerte crecimiento hacia el año 2010, lo que posibilita también servicios multimedia de alta calidad en áreas carentes de estas posibilidades en la red fija, como zonas de difícil acceso. Un ejemplo de esto es la posibilidad de conectarse a internet desde el terminal móvil o desde el ordenador conectado a un terminal móvil con UMTS.

Acceso rápido: La principal ventaja de UMTS sobre la segunda generación móvil (2G), es la capacidad de soportar altas velocidades de transmisión de datos de hasta 144 kbit/s sobre vehículos a gran velocidad, 384 kbit/s en espacios abiertos de extrarradios y 7.2 Mbit/s con baja movilidad (interior de edificios). Esta capacidad sumada al soporte inherente del protocolo de Internet (IP), se combinan poderosamente para prestar servicios multimedia interactivos y nuevas aplicaciones de banda ancha, tales como servicios de video telefonía y video conferencia y transmisión de audio y video en tiempo real.

HSUPA (High-Speed Uplink Packet Access o Acceso ascendente de paquetes a alta velocidad) es un protocolo de acceso de datos para redes de telefonía móvil con alta tasa de transferencia de subida (de hasta 7,2 Mbit/s).

Calificado como generación 3.75 (3.75G) o 3.5G Plus, es una evolución de HSDPA (High-Speed Downlink Packet Access, Acceso descendente de paquetes a alta velocidad), nombrado popularmente como 3.5G.

Cuarta Generación (4G): La Actualidad

La generación 4, o 4G es la evolución tecnológica que ofrece al usuario de telefonía móvil un mayor ancho de banda que permite, entre muchas otras cosas, la recepción de televisión en Alta Definición.

Hoy en día existe un sistema en EEUU de este nivel operando con efectividad solo con algunas compañías, llamado LTE. En Portugal, Vodafone también ofrece conexión LTE.

Referencias:

http://www.intomobile.com/2012/01/31/vodafone-launches-lte-portugal-offers-two-data-plans-differ-pricing-based-speed/

http://amovilcomunicacion.wordpress.com/2011/01/26/historia-del-celular/

http://es.wikipedia.org/wiki/Historia_del_tel%C3%A9fono_m%C3%B3vil

 

Las OMVs (Operadoras móviles virtuales)

Un operador móvil virtual u OMV (en inglés: Mobile Virtual Network Operator o MVNO) es una compañía de telefonía móvil que no posee una concesión de espectro de frecuencia, y por tanto carece de una red propia de radio. Para dar servicio, debe recurrir a la cobertura de red de otra empresa (o empresas) con red propia (un Operador Móvil con Red, u OMR) con la(s) que debe suscribir un acuerdo.

Los OMVs existen como figura comercial en un gran número de países de Europa –destacando el Reino Unido y los países escandinavos en cuanto a cantidad y antigüedad de OMVs existentes–, Canadá, los Estados Unidos de América, Australia, España y Chile. En principio, pueden operar en cualquiera de las tecnologías de telefonía móvil existentes, como GSM, UMTS o CDMA2000, dado que su existencia está ligada a un factor comercial más que tecnológico.

Los OMVs han contribuido en España a una competencia voraz por la captación o renovación de los contratos de los clientes en las grandes operadoras tradicionales Movistar, Vodafone, Orange y Yoigo.

Además han propiciado que haya competencia de precios entre las diferentes alternativas OMV que existen hoy en día.

 

¿Hacia dónde van los smartphones?

Móviles y tabletas que se cargan solos

Las pantallas planas de cristal líquido, presentes en multitud de dispositivos electrónicos, como los teléfonos móviles, las tabletas o los lectores de libros electrónicos, se pueden utilizar para recargarlos, señalan investigadores del Instituto de Tecnología de Massachussets (MIT), liderados por el español Amador Menéndez. “En dispositivos electrónicos como teléfonos móviles, el Ipad u otras tabletas, las pantallas dominan la superficie frontal del dispositivo y consumen aproximadamente el 90% de su energía. En la nueva tecnología que hemos desarrollado, es precisamente esta pantalla, junto con unas pinturas depositadas sobre ella e invisibles al ojo humano, la que permite la captura de la radiación solar o la luz de interiores”, explica Menéndez, quien añade: “La sociedad presta mucha atención al reciclaje de materiales, pero ya va siendo hora de reciclar también la luz”.

Referencia:

http://sociedad.elpais.com/sociedad/2012/11/13/actualidad/1352829420_773885.html

 

 

La tecnología 4G permite navegar en tu smartphone como en un ordenador a más de 100 Mbps

Además de ser más rápida que las otras redes, la técnica 4G promete cambiar la forma de vida de los individuos, ya que modifica gradualmente la manera de manipular los aparatos domésticos, como por ejemplo el televisor, los automóviles, los computadores y los teléfonos celulares normales.

Se estima proveer velocidades de acceso entre 100 Mbps en movimiento y 1 Gbps en reposo, manteniendo una calidad de servicio (QoS) de punta a punta (end-to-end) de alta seguridad para permitir servicios de cualquier clase en cualquier momento, en cualquier lugar, con el mínimo costo posible.

Referencia:

http://www.wimax2.es/tecnologia-4g-lte-tasas-de-descarga-de-100-mbps-viajando-en-un-vehiculo-a-200-kmh-descarga-una-pelicula-completa-en-unos-5-segundos-y-100-canciones-en-un-poco-mas-de-dos-segundos/

 

 

La GPU de los smartphones superará a la de Xbox 360 en 2014.

El fabricante Nvidia ha revelado a Anandtech.com que la potencia gráfica de los smartphones superará a la de Xbox 360 en 2014.

La compañía ha mostrado una gráfica en la que compara la evolución que ha sufrido la potencia del PC, las consolas (Xbox y Xbox 360) y los smartphones, empezando con el iPhone y después pasando por su gama de chips Tegra 2 y Tegra 3, usados en móviles con sistema operativo Android. En ella vemos cómo las consolas de Microsoft eran ligeramente superiores al PC tras su lanzamiento, aunque fueron superadas por éste rápidamente.

La gráfica, que podéis ver arriba, muestra un crecimiento exponencial en el rendimiento de los smartphones y contrasta con los datos de las consolas, que al ser sistemas más cerrados cuentan con una curva de crecimiento menor.

Abajo podemos ver una comparativa de GPUs de SoC contra GPUs de consolas

Referencias:

http://www.techautos.com/?s=GPU

Futuros sensores CMOS para móviles con RAW y vídeo Quad Full HD a 60 fps

La fotografía móvil sigue avanzando a un ritmo trepidante y, en este caso, Omnivision nos promete unos nuevos sensores CMOS de 16 megapíxeles y cuyas principales bazas serán las de poder capturar imágenes en formato RAW y grabar vídeo Quad FullHD (3840 × 2160) a 60 fps y en resolución 4K (4096 × 3112 píxeles) a 30 fps.

El formato de imágenes RAW (“crudo” en inglés; en el caso de las imágenes, entiéndase como “Formato de Imagen sin modificaciones”) es un formato de archivo digital de imágenes que contiene la totalidad de los datos de la imagen tal y como ha sido captada por el sensor digital de la cámara fotográfica.

Hasta su llegada todavía falta y tendremos que esperar al próximo año 2013 que es cuando se estima su presentación, pero los datos prometidos harán que merezca la pena porque son realmente impresionantes, especialmente teniendo en cuenta que hablamos de un sensor para dispositivos móviles.

Comparativa de resoluciones

OmniVision Technologies Inc. es una corporación diseñadora y desarrolladora de productos contextualizados en la imagen digital.

 

El primer móvil con Firefox OS costará sobre 100 dólares

Parece que Telefónica comienza a mostrar las primeras informaciones sobre su primer teléfono con Firefox OS y podría lanzarse antes de mayo de 2013 en Brasil con un coste menor de 100 dólares.

Mozilla, Alcatel y ZTE han confirmado que los primeros terminales con el sistema operativo del zorro llegaran al mercado el próximo año gracias al apoyo de varios operadores móviles y fabricantes de dispositivos.

 

ARM presentó el procesador gráfico GPU Mali-T658 que se destaca por tener ocho núcleos

Porque ARM ha estrenado su nuevo producto Mali T-658, que promete hasta cuatro veces más rendimiento que su antecesora y 10 veces más poder que las GPU Mali-400 actuales, presentes en el smartphone Samsung Galaxy SII y que arrasan con su competencia.

Este chip gráfico está diseñado para trabajar junto con procesadores centrales ARM Cortex-A15 y Cortex-A7, conjuntos que darán soporte a varias APIs de software para gráficos como lo son OpenGL ES, OpenCL, OpenVG e incluso DirectX 11.

Referencias:

http://www.geekets.com/2011/11/arm-mali-t658-procesador-8-nucleos/

 

El futuro se llama ARM Cortex A15

La incorporación al mercado de los nuevos chips ARM Cortex A15 traerá importantes mejoras a nivel de rendimiento y eficiencia energética. Samsung, a la cabeza de la innovación, estaría en condiciones de llevar esta tecnología a sus procesadores Samsung Exynos que, previsiblemente, montará el Samsung Galaxy S IV. Las mejoras serán notables, sobre todo en la parte de “la fuerza bruta”, pues se espera que la CPU Quad Core Exynos 5450 logre un rendimiento entre un 40 y un 60% superior al mostrado por el Samsung Exynos 4412 del Galaxy S3.

Referencias:

http://www.xatakandroid.com/moviles-android/samsung-prueba-un-dispositivo-cortex-a15-nuevo-nexus-a-la-vista

 

Barcelona hospedará un superordenador con 1.000 chips Tegra 3: Mont Blanc

Echando un ojo a lo que se avecina, parece que la tecnología ARM está llegando mucho más allá de lo que muchos podrían haber vislumbrado hace un par de años. El Centro de Supercomputación de Barcelona va a recibir un prototipo de superordenador que montará chips Tegra 3 de cuatro núcleos, nada menos que 1.000 placas modulares.

Esas placas llegan con una gráfica compatible con CUDA que también será utilizada para acelerar cálculos matemáticos y científicos. Hablamos de 4.000 núcleos ARM a 1,3 GHz junto con 12.000 CUDA Cores además de las 1.000 GPUs discretas que acompañan a los SoCs Tegra 3.

El Centro de Supercomputación de Barcelona dispone actualmente de un prototipo de servidor ARM que monta 256 chips Tegra 2, lo que le ha servido como base para pensar el siguiente paso que darán junto con NVIDIA. El proyecto con chips Tegra 3 se llama Mont Blanc y tendrá un coste de 14 millones de euros.

La ventaja clara de utilizar chips ARM es el consumo. Si bien un chip ARM está por detrás de un chip x86 en rendimiento bruto, en consumo hablamos de una ventaja enorme. De hecho varios chips ARM siguen consumiendo menos que un chip x86 enfocado a servidores. Se espera que el servidor Mont Blanc sea entre un 15 un 30% más eficiente que superordenadores equivalentes en rendimiento.

Referencias:

http://www.muycomputer.com/2011/11/14/barcelona-hospedara-un-superordenador-arm-eficiente-mont-blanc

http://www.expresionbinaria.com/supercomputadores-hibridos-procesadores-arm/

 

¿Cuál es el mejor smartphone del mundo? Duelo de gigantes: Samsung Galaxy Note II vs LG Optimus Vu vs Oppo Find 5

Imágenes: Samsung Galaxy Note II, LG Optimus Vu, y Oppo Find 5.

Las compañías de tecnología móvil están cada día más interesadas en innovar y ofrecer al cliente diferentes y diversas opciones en donde pueda elegir. Evidentemente, el fin es conseguir llenar más sus arcas, y para ello cada empresa utiliza sus estrategias. Actualmente existen ya bastantes firmas que para aumentar dichas arcas, deciden aumentar también partes de sus productos, como por ejemplo las pantallas de sus smartphone. Esto es lo que ha hecho Samsung, pionera en este aspecto, acompañada de LG y la china y cada vez más conocida Oppo.

Tabla resumen comparativa:

Referencias:

http://andro4all.com/2012/09/duelo-de-gigantes-samsung-galaxy-note-ii-vs-lg-optimus-vu-vs-oppo-find-5

 

Descargar en formato PDF: Evolución de los Smartphones Blog HDI

Volver al índice

¡Comparte!
Publicado en: Biografía, Curiosidades, Historia, SO's y APP's, Tecnologías, Vídeo Etiquetado con: , , , , , , , , , , , , , ,