MEDIOS AUDIOVISUALES


            ***  CIENCIA  &  TECNOLOGÍA  ***

CIENTIFICOS ARGENTINOS

                   Ciencia y Tecnología en Argentina


TODO CIENCIA Y TECNOLOGIA


Fuente: Revista USER N° 298


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Fuente: Revista USER N° 298


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Fuente: COMPUTER HOY


EL ALBA DE LA MEMCOMPUTACIÓN

 

Una nueva clase de componentes electrónicos, más próximos a las neuronas que a los transistores, auguran un tratamiento de la información mucho más rápido y eficiente.

 

Todos los ordenadores modernos emplean una unidad que efectúa los cálculos y otra de memoria que almacena programas y datos. Transferir la información de una a otra consume mucho tiempo y energía.

 

EN SINTESIS

Una nueva técnica, la MEMCOMPUTACIÓN, se basa en componentes electrónicos que constituyen al mismo tiempo unidades de memoria y de procesamiento. En nuestro cerebro, las neuronas funcionan de modo similar.

Aunque los elementos básicos ya existen, aún no se ha construido ningún memcomputador completo. Su desarrollo supondría un paso de gigante en la velocidad y la eficiencia energética del tratamiento de la información.

Las palabras que esta leyendo en estos momentos han sido escritas en los mejores ordenadores que ofrece la tecnología actual: equipos que malgastan una enorme cantidad de energía y que necesitan ingentes cantidades de tiempo para ejecutar importantes cálculos científicos. Se trata de un aspecto común a todos los ordenadores que existen hoy, desde los incluidos en los teléfonos inteligentes hasta las grandes supercomputadoras de millones de dólares que zumban en los centros de cálculo más avanzados del mundo.

 

Este artículo fue redactado en Word, un buen programa que seguramente usted también haya usado. Para escribir «Las palabras que está leyendo en estos momentos», nuestro ordenador tuvo que transferir una secuencia de ceros y unos (la representación en código máquina de un documento de Word) desde un área de memoria temporal hasta otra ubicación física, la unidad central de procesamiento (CPU). Después, la CPU convirtió esos datos en letras visibles en la pantalla. Para evitar que la frase se volatilizara al apagar el ordenador, los datos que la representaban hubieron de viajar de nuevo por un manojo de cables hasta un área de memoria más estable, como un disco duro.

 

Ese ir y venir de información se debe a que, hoy por hoy, los dispositivos de memoria no pueden procesar datos y los procesadores no pueden almacenarlos. Semejante división del trabajo tiene lugar incluso en los equipos más rápidos disponibles hoy en día, aquellos que, con múltiples procesadores, son capaces de ejecutar cálculos mediante computación en paralelo. El problema reside en que cada uno de sus procesadores adolece de la misma limitación.

 

Durante los últimos años, los expertos han desarrollado un método para combinar lo que antes parecía irreconciliable. Como resultado, han conseguido crear circuitos que manipulan números y, al mismo tiempo, funcionan como unidades de memoria. Ello implica reemplazar los componentes electrónicos tradicionales, como transistores, condensadores e inductores (bobinas), por otros denominados memristores, memcondensadores y meminductores. Ya existen prototipos experimentales que pronto podrán combinarse en un nuevo tipo de máquina: la memcomputadora.

 

Las memcomputadoras alcanzarían una velocidad sin precedentes gracias a sus capacidades duales. Cada parte del equipo puede contribuir a solucionar un problema, lo que supone una versión nueva y más eficiente de la actual computación en paralelo.

 

Y, puesto que la memoria del ordenador puede tanto resolver un cálculo como almacenar su solución, el proceso ahorra toda la energía que hoy se gasta en transferir los datos desde una ubicación física del equipo a otra. Esta nueva arquitectura cambiaría el modo de operar de los ordenadores de cualquier tipo, de los minúsculos chips de nuestro teléfono a los grandes superordenadores. De hecho, se trata de un diseño que imita mucho mejor el funcionamiento de nuestro cerebro, que emplea las mismas neuronas para guardar recuerdos y para procesar la información.

 

Estas nuevas máquinas podrían tardar segundos en efectuar cálculos que a los ordenadores actuales les llevarían décadas. También serían menores y consumirían mucha menos electricidad. Aún no se ha construido ningún memcomputador completo, pero los experimentos con los nuevos componentes electrónicos apuntan a un impacto enorme en el diseño de ordenadores, la sostenibilidad global, el ahorro energético y la capacidad para resolver problemas científicos de primer orden.

 

UN CEREBRO ELECTRÓNICO

Hoy se requiere una ínfima cantidad de energía y una fracción de segundo para transferir datos como nuestra frase de Word entre las partes de un equipo. Sin embargo, si tenemos en cuenta que dicha energía debe multiplicarse por el número de operaciones informáticas similares que se llevan cabo en todo el mundo, obtendremos un resultado enorme.

 

Entre 2011 y 2012, las necesidades energéticas de los centros de computación de todo el planeta crecieron en un pasmoso 58 por ciento. A ello hemos de sumar todos los aparatos domésticos que hoy incorporan alguna capacidad de computación, desde hornos y televisores hasta ordenadores portátiles. Combinados, los sectores de la información y la comunicación dan cuenta del 15 por ciento del consumo eléctrico mundial. Para 2030, el gasto energético global en electrónica de consumo igualará la demanda residencial actual de Estados Unidos y Japón juntos, con un coste anual de 200.000 millones de dólares. Semejante acaparamiento de energía no es sostenible.

 

El problema no puede solucionarse reduciendo aún más el tamaño de los transistores, el elemento básico de la electrónica digital. La Hoja de Ruta Internacional para la Tecnología de Semiconductores (una serie de documentos elaborados por expertos de la industria) prevé que, para 2016, la fabricación de transistores se topará con una barrera, ya que los dispositivos disponibles no podrán seguir miniaturizándose sin comprometer algunas de sus cualidades.

 

Ciertas investigaciones científicas también se toparán con sus propias barreras. Algunos problemas que solo pueden abordarse con grandes sistemas de cómputo, como la predicción de pautas meteorológicas globales o la previsión de enfermedades en una población mediante la exploración de enormes bases de datos genéticas, requerirán cada vez más potencia de cálculo. Los memcomputadores, al sortear la continua transferencia de datos entre la CPU y las unidades de memoria, permitirían ahorrar grandes cantidades de tiempo y energía.

 

Las memcomputadoras no son el primer sistema capaz de procesar y almacenar información al mismo tiempo. Nuestro cerebro hace exactamente lo mismo. Por esa razón, la memcomputación se inspira en ese rápido y eficiente órgano que se aloja en nuestro cráneo.

 

Según varias estimaciones, el cerebro humano es capaz de efectuar unos 10.000 billones (1016) de operaciones por segundo, algo para lo que se basta con una potencia de entre 10 y 24 vatios. Un superordenador necesitaría consumir 10 millones de veces más para soportar la misma carga de trabajo.

 

 

Además, las computadoras actuales se encuentran aún muy lejos de ejecutar algunas tareas complejas, como el reconocimiento de patrones (por ejemplo, separar el ladrido de un perro del ruido de un coche que pasa por la calle), algo que nuestro cerebro logra sin mayores problemas. A diferencia de los mejores superordenadores disponibles en la actualidad, el cerebro no lleva a cabo los cálculos en lugares distintos, sino que estos tienen lugar en las mismas neuronas y sinapsis.

 

Al disminuir la transferencia de información de un sitio a otro, se logra un menor gasto de energía y de tiempo. Un ordenador puede realizar cálculos, uno a uno, más rápido que el ser humano. Pero para ello necesita toda la fuerza bruta de los transistores.

Desde sus inicios, los ordenadores han dependido de esa se¬paración de tareas para evitar que programas y datos interfieran durante el procesamiento. Los cambios físicos que provoca en un circuito la introducción de nuevos datos (por ejemplo, las letras que escribimos en Word) modificarían y corromperían el programa o los datos. Sin embargo, esto se evitaría si los elementos del circuito pudieran «recordar» la última acción realizada incluso después de cortar el suministro de electricidad. En tal caso, los datos permanecerían intactos.

 

TRES NUEVOS COMPONENTES

Los componentes electrónicos en los que se basa la memcomputación pueden hacer exactamente eso: procesar información y almacenarla después de que se interrumpa la corriente. Uno de los nuevos elementos es el memristor.

 

Para entender su funcionamiento, imaginemos una tubería cuyo diámetro cambiase en función del sentido en que fluye el agua. Si esta corre de derecha a izquierda, la tubería se ensancha y permite un mayor caudal. Si el agua fluye en sentido opuesto, se estrecha. Una vez que el flujo se detiene, la tubería conserva el diámetro más reciente. En ese sentido, «recuerda» la cantidad de agua que fluyó a través de ella.

 

Ahora sustituyamos el agua por una corriente eléctrica y la tubería por un memristor. Del mismo modo que la tubería modificaba su diámetro, el memristor cambia su resistencia en función de la cantidad de electricidad que fluye a su través. El equivalente a una tubería más ancha ofrece una menor resistencia eléctrica, y viceversa. Si consideramos la resistencia como un número y su variación como un proceso de cálculo, vemos que un memristor puede procesar información, almacenarla y conservarla aun después de que se haya interrumpido la corriente.

 

 

La idea de memristor se debe a León O. Chua, ingeniero eléctrico de la Universidad de California en Berkeley, quien la propuso en los años setenta. Por aquella época, sin embargo, su teoría no tenía visos de resultar práctica. Los materiales empleados para construir los circuitos no retenían recuerdos de su último estado, como nuestra tubería de agua imaginaria. Pero esa situación ha ido cambiando a lo largo de las últimas décadas.

 

En 2008, Stanley Williams, ingeniero de Hewlett-Packard, y sus colaboradores fabricaron unidades de memoria que podían variar su resistencia y conservar dicha modificación. Para ello, emplearon componentes de dióxido de titanio con una anchura de unas decenas de nanómetros (milmillonésimas de metro). Según explicaron en un artículo publicado en Nature, el dispositivo conservaba un estado que quedaba determinado por el historial de corrientes que hubiesen circulado a su través. La tubería imaginaria se había hecho realidad.

Hoy tales componentes pueden fabricarse con una amplia variedad de materiales. Su diámetro apenas alcanza unos pocos nanómetros, lo que posibilita incorporarlos en casi cualquier clase de aparato. Muchos de ellos pueden fabricarse en las mismas instalaciones de semiconductores que hoy elaboran componentes electrónicos, lo que permite producirlos a escala industrial.

 

Otro componente clave en esta nueva técnica de computación es el memcondensador. Un condensador normal almacena carga eléctrica, pero su estado (su capacidad) permanece invariante con independencia de la cantidad de carga que se haya depositado en él. En los ordenadores actuales, los condensadores se usan sobre todo en las memorias dinámicas de acceso aleatorio (DRAM), que guardan programas informáticos para que el procesador acceda rápidamente a ellos cuando los necesite.

 

Un memcondensador, en cambio, no solo almacena carga eléctrica, sino que modifica su capacidad en función del historial de voltajes, lo que le confiere características de memoria y de unidad de procesamiento. Más aún, puesto que los memcondensadores almacenan carga, la energía asociada puede reciclarse durante el proceso de cómputo, lo que ayuda a reducir el consumo total del equipo. (Los memristores, por el contrario, hacen uso de toda la energía que se les suministra.)

 

Algunos tipos de memcondensadores, fabricados con materiales ferroeléctricos relativamente caros, ya se encuentran disponibles en el mercado y se usan como dispositivos de almacenamiento de datos. Sin embargo, varios laboratorios están desarrollando versiones de silicio, más barato, lo que ofrece unos costes de producción lo suficientemente bajos para incorporarlos en un ordenador.

 

 

El tercer elemento de la memcomputación es el meminductor. Se trata de un dispositivo con dos terminales y que puede almacenar energía, al igual que un memcondensador, pero que también deja pasar la corriente, como un memristor. Aunque ya existen meminductores, estos ocupan un gran volumen, puesto que se basan en abultadas bobinas magnéticas de alambre, lo que impide usarlos en ordenadores pequeños. No obstante, y al igual que ocurrió con los memristores hace unos años, los avances en tecnología de materiales podrían cambiar las reglas del juego en un futuro próximo.

 

FUENTE: Investigación y Ciencia.es N° 466

EXPERIMENTOS CON GRAFENOS PUEDEN SALVAR MILLONES DE VIDAS HUMANAS

 

MOSCÚ, 18 de enero de 2016 /PRNewswire/ -- En la Academia de Medicina Militar S.M. Kirov de Rusia se realizaron investigaciones de las propiedades de los grafenos para su uso como enterosorbentes. La investigación fue llevada a cabo bajo el liderazgo del Laboratorio Kirsan - Petrik de la transcorporación Future.

Las investigaciones fueron realizadas en animales que padecían una enfermedad renal aguda y de rápido crecimiento, provocada por la extirpación quirúrgica de ambos riñones.

 

Todas las manipulaciones quirúrgicas fueron ejecutadas en ratas anestesiadas con éter, tomando en consideración las normas de la Convención europea para la protección de animales vertebrados usados para experimentación y otros propósitos científicos [Estrasburgo, 18.03.1986].

 

Se demostró que sobre el trasfondo de la creciente intoxicación urémica, la administración oral de una sustancia grafeno duplica la tasa de supervivencia de las ratas en comparación con el grupo de animales de referencia, al cual no se le administró la sustancia.

 

Los resultados de la investigación indican que los grafenos podrían convertirse en un corrector asequible de las intoxicaciones uricémicas que surgen en caso de enfermedad renal, diabetes y otras enfermedades.

 

Ya en 1996, V. Petrik descubrió el efecto de estado estable del grafeno fuera del enrejado cristalino de grafito. El descubrimiento fue registrado por la Asociación Internacional de Autores de Descubrimientos Científicos en 2001 (Diploma No.163).

 

En 1998, por primera vez en el ámbito mundial, V. Petrik estableció una producción industrial de grafenos con el método de la destrucción del grafito en frío. Las patentes se han registrado en 43 países de todo el mundo, incluyendo a EE. UU. (US No.7,842,271 B2, fechada en 2004).

Inicialmente, los grafenos producidos por V. Petrik fueron observados a través del método de espectroscopía electrónica en el Instituto de Criminología del Servicio Federal de Seguridad de Rusia y en el Instituto de Espectroscopía de la Academia Rusa de Ciencias en 1997, y más tarde en la Universidad de California en Davis y en la Universidad de California en Irvine.

http://www.vpetrik.com/userfiles/docs/statya_engrus.pdf

 

V. Petrik investigó por primera vez el uso medicinal de los grafenos en 1997. En 1999, en el Centro de Cardiología de Rusia se obtuvieron resultados extraordinarios al utilizar grafenos para la purificación del plasma sanguíneo.

 

En 2000 se investigó la acción cicatrizante de los grafenos en caso de quemaduras y heridas sépticas, en el Instituto de Medicina Experimental -una empresa unitaria federal estatal- y en el Instituto de Investigación Dzanelidze de Medicina de Emergencia.

 

 

FUENTE Kirsan - Petrik Laboratory of the Future transnational corporation

LA SUPERCOMPUTADORA TITÁN EJECUTA UNA DE LAS SIMULACIONES MÁS COMPLEJAS DE LA HISTORIA DEL UNIVERSO

   

La supercomputadora Titán, que hace varios años fue la más potente del mundo según la lista Top500, un ranking semestral de las supercomputadoras del mundo, ha ejecutado una de las simulaciones más complejas logradas hasta ahora de la historia del universo. Titán está instalada en el Laboratorio Nacional estadounidense de Oak Ridge (ORNL) en Tennessee.

 

El proyecto lo ha dirigido un equipo encabezado por la física Katrin Heitmann, del Laboratorio Nacional estadounidense de Argonne en Illinois. La simulación modeló la evolución del universo desde 50 millones de años después del Big Bang hasta la actualidad, o sea desde su infancia temprana hasta su actual edad adulta.

 

Sabemos que a lo largo de 13.800 millones de años, la materia del universo se ha ido agrupando para formar galaxias, estrellas y planetas; pero no existe una certeza total sobre cómo lo hizo. Simulaciones como la realizada por el equipo de Heitmann ayudan a los científicos a indagar sobre misterios cosmológicos como el de la energía oscura, una forma de energía que afecta al ritmo de expansión del universo, incluyendo la distribución de galaxias, compuestas por materia ordinaria así como por materia oscura, un misterioso tipo de materia que ningún instrumento ha conseguido medir directamente hasta la fecha.

 

 

Las inspecciones intensivas del cielo con telescopios potentes están mostrando a los científicos dónde estaban las estrellas y galaxias cuando su luz fue emitida por primera vez. Y los rastreos del fondo cósmico de microondas, la luz que queda de cuando el universo tenía solo unos 300.000 años, nos muestra cómo empezó este (con una distribución muy uniforme de materia, la cual después iría agrupándose poco a poco).

 

Varias fases de la evolución del universo en la simulación llevada a cabo por la supercomputadora Titán, una de las más potentes del mundo. Al principio la materia está esparcida de manera muy uniforme, pero con el tiempo la gravedad actúa sobre la materia oscura, que empieza a agruparse, y de estas aglomeraciones se forman las galaxias. (Imagen: Katrin Heitmann et. al.)

 

La simulación rellena el vacío existente en la cronología sobre cómo pudo haberse desarrollado el universo entre la uniformidad plena primigenio y el inicio de la formación de "grumos": la gravedad actuó sobre la materia oscura, que empezó a agruparse más y más, y las galaxias se formaron en esas aglomeraciones de materia oscura.

 

La simulación implicó a medio billón de partículas, dividiendo el universo en cubos con lados de 100.000 kilómetros de largo. Esto la convierte en una de las simulaciones cosmológicas más grandes a tan alta resolución. Se ejecutó usando más del 90 por ciento del supercomputador.

 

 La cantidad de información generada es de dos petabytes y medio. Llevará varios años analizarla.

 

FUENTE:http://noticiasdelaciencia.com/not

LA MÁQUINA DE DIOS ROMPIÓ UN NUEVO RÉCORD

 

Investigando el origen del Universo

 

El Gran Colisionador de Hadrones logró colisionar núcleos de plomo a la mayor energía conseguida hasta ahora. Así, se avanza en el entendimiento de lo ocurrido en los primeros instantes del Universo.

El Gran Colisionador de Hadrones (LHC, por su sigla en inglés) (AFP)


El Gran Colisionador de Hadrones (LHC, por su sigla en inglés) logró ayer hacer colisionar núcleos de plomo a la mayor energía jamás conseguida hasta el momento, informó el diario español ABC.

TAGSGran Colisionador De Hadrones,Máquina De Dios,Origen Del Universo,Big Bang


El año pasado, el LHC había logrado una marca récord de energía en la colisión de protones, pero esta vez no lo consiguió con una partícula individual, como en aquella oportunidad, si no con un núcleo atómico complejo, como lo es el de plomo, compuesto por 208 protones y neutrones, señala ABC.


El objetivo perseguido de estos experimentos es conocer mejor las propiedades que tenía la materia instantes después de haberse producido el Big Bang, cuando el flamante Universo era escenario de interacciones entre partículas con enormes niveles de energía, niveles de energía que, hasta ahora, habían sido imposibles de alcanzar en un laboratorio.

"La energía de colisión entre dos núcleos alcanzó los 1.000 TeV (teraelectronvoltios), que es la misma que tendría un abejorro que chocara contra nuestra mejilla durante un día de verano –explicó a ABC Jens Jorgen Gaardhoje, investigador del experimento Alice del LHC–. Solo que en la colisión entre dos núcleos, esa energía está concentrada en un volumen que es aproximadamente 10-27 (10 elevado a la menos 27) veces menor. La concentración de esa energía es, por lo tanto, tremenda, y nunca se había conseguido alcanzarla bajo condiciones terrestres".

 

LA "MÁQUINA DE DIOS" DESCUBRIÓ UNA NUEVA PARTÍCULA

Ciencia.


El pentaquark podría convertirse en el segundo hallazgo más importante del Gran Colisionador de Hadrones, el acelerador de partículas más potente del mundo. Aseguran que, si se verifica el descubrimiento, marcará el inicio de toda una nueva forma de materia.

 Pentaquarks, la nueva categoría de partículas descubiertas por la Máquina de Dios. (CERN)


TAGSCiencia,Máquina De Dios,Pentaquark,Física

Un nuevo tipo de partícula subatómica, llamada pentaquark, fue detectada por primera vez. Lo anunció la Organización Europea de Investigaciones Nucleares (CERN, por sus siglas en francés). Dijo que el descubrimiento lo hizo un equipo de científicos que trabaja en el experimento LHCb, uno de los cuatro que se efectúan en el Gran Colisionador de Hadrones, más conocido como la "máquina de Dios".


La existencia de los pentaquarks fue postulada en la década de 1960 por los físicos estadounidenses Murray Gell-Mann y Georg Zweig. El primero, ganador del Premio Nobel en 1969, acuñó el término "quark'" para describir a los componentes básicos que conforman los hadrones, partículas subatómicas como el protón y el neutrón.


Hasta hace poco sólo se habían detectado hadrones con dos o tres quarks. En los últimos años, los físicos tuvieron evidencia de hadrones conformados por cuatro quarks, llamados tetraquarks. Los anuncios anteriores sobre la detección de pentaquarks, que contienen cuatro quarks y un antiquark, fueron refutados. Sin embargo, los expertos dijeron que los nuevos resultados que el CERN comunicó a la publicación especializada Physical Review Letters parecían creíbles.


El hallazgo "es muy convincente en parte debido a la claridad de su información experimental, pero también porque soy incapaz de encontrar una explicación alternativa viable'', dijo Eric Swanson, físico teórico de la Universidad de Pittsburgh. Swanson, que no participa en el experimento, considera que las pruebas de la existencia de los pentaquarks podrían dar un impulso importante a la física. "Toda partícula que conocemos, salvo unas cuantas rarezas, está conformada por quark y antiquark, o tres quarks. Esto constituye la masa del universo, de lo que estamos hechos ustedes y yo, la Tierra y el Sol'', dijo. "Si se verifica el descubrimiento marcará el inicio de toda una nueva forma de materia'', agregó.


(El Gran Colisionador de Hadrones - Foto: AP)


Guy Wilkinson, vocero del equipo del experimento LHCb, dijo que el estudio de los pentaquarks puede ayudar a los científicos a comprender mejor "cómo está constituida la materia ordinaria, los protones y neutrones de los que todos estamos hechos". "Parece una observación muy significativa. Pero, como sucede con todos los descubrimientos, deberá ser confirmado por una medición independiente", agregó el físico Anton Andronic, del Centro Helmholtz de Investigaciones de Iones Pesados en Darmstadt, Alemania, quien no participó del experimento.

 

El descubrimiento podría convertirse en el segundo más importante logrado en el Gran Colisionador de Hadrones, utilizado por científicos de todo el mundo. El colisionador fue decisivo en el descubrimiento del bosón de Higgs, una partícula subatómica sobre la que existían teorías pero cuya existencia fue confirmada recién en 2013.


El colisionador está alojado en un túnel de 27 kilómetros bajo la frontera franco-suiza, cerca de Ginebra. Recientemente se le hicieron mejoras a un costo de 150 millones de dólares para que pueda colisionar átomos con mayor fuerza, lo que permite crear condiciones similares a las de los primeros instantes del universo.

 

El CERN dijo que los intentos anteriores para demostrar la existencia de los pentaquarks fueron como la búsqueda de siluetas en la oscuridad, "mientras que el LHCb realizó la búsqueda con las luces encendidas y desde todos los ángulos".


Estos trabajos contribuyen a entender las condiciones que se daban en el Universo recién nacido, solo una milmillonésima de segundo después del Bing Bang.


RELACIONADAS

 

La "máquina de Dios" reinicia sus operaciones tras dos años de inactividad

La "máquina de Dios" halló dos partículas nunca vistas

Ciencia revolucionaria: La “máquina de Dios” halló pistas de la partícula más buscada

FUENTE: WWW.CLARIN.COM

TECNOLOGÍA & TENDENCIAS


UN INFORME DE DELL RESULTA ESCLARECEDOR SOBRE LA SITUACIÓN ACTUAL DE I0T Y EL IMPACTO QUE ESTÁ CAUSANDO EN EL ÁMBITO CORPORATIVO.

 Fuente: Revista USERS N° 293

Internet of Things y las empresas

Un informe publicado recientemente por Dell da cuenta de la situación de Internet of Things en las empresas. Si bien l o T se extiende por múltiples Industrias e involucra Información disponible en muchos dispositivos desplegados en distintas áreas, sólo el 47% de las organizaciones la ven como algo esencial o importante para su negocio. En el gráfico vemos cuál es la idea que sobre la adopción de l o T tienen las empresas.

 

Como se ve, todavía no hay una plena conciencia sobre la utilidad de la nueva tecnología. SI bien muchos de los consultados son optimistas y consideran a l o T como parte del núcleo del negocio, otros la desestiman completamente o, en el mejor de los casos, planean "darle un vistazo" en los próximo meses.

 

También podemos ver, más abajo, que la industria tradicional sorprende al ser una de las primeras en adoptar l o T con fuerza, eran con esta tecnología. Más allá de la conceptualización vaga de l o T, Interesa mucho conocer la faceta concreta de esta tecnología. Estamos hablando de los dispositivos conectados.

 

Como podemos ver, la variedad de equipos conectados es increíble y habla muy bien de la amplitud y variedad de Internet of Things. Esto va desde teléfonos inteligentes hasta electrodomésticos, pasando por máquinas herramientas y dispositivos de cadenas de montaje.

 

La conectividad también involucra a vehículos, lo que en el futuro podría representar una verdadera revolución en el transporte público, al enlazar automóviles, buses, trenes, taxis, aviones, etc. ¿Será que de esta manera tendremos un mundo agilizado por la interconexión de todos los dispositivos digitales?

CIENCIA & TECNOLOGÍA  VESTIBLE

 

Fuente: Revista Como Funciona N° 50

L

a tecnología vestible fue el tema más tuiteado en la feria 0E5 2014, por delante de la impresión en 30 y la Internet de las Casas. Los gadgets "vestibles" (del inglés "wearable") son dispositivos electrónicos o informáticos que se llevan en el cuerpo. Su finalidad es proporcionar acceso portátil, perfecto y sin tener que usar las manos, a funciones que mejoran nuestra vida cotidiana.

Hasta ahora, los más populares han sido las pulseras de fitness que registran la actividad física, la frecuencia cardíaca y la calidad del sueño, pero muchos analistas creen que está a punto de producirse una revolución impulsada por el Apple Watch.

La exitosa campaña de pre-reservas en los nueve países en los que se ha comercializado demuestra el interés que ha despertado. Creado como dispositivo complementario del iPhone, permite hacer llamadas, enviar mensajes y navegar por la web desde la muñeca con solo emparejar los dos dispositivos. También incluye un montón de sensores que supervisan el estado de nuestra salud y puede autorizar transacciones de Apple Pay.

Pero no todo son buenas noticias en este campo. Casi tan esperadas como el Apple Watch eran las Google Glass y no han tenido el resultado previsto. En cualquier caso, los gadgets vestibles vienen pegando fuerte en forma de dispositivos cada vez menos voluminosos, menos evidentes e incluso implantables.

El famoso visionario Ray Iíurzweil -que predijo de manera acertada las redes Wi-Fi y los comandos de control por voz- cree que en el plazo de cinco años llevaremos gafas que proyectarán imágenes directamente en nuestras retinas. También predice que en 2045 podremos multiplicar nuestra inteligencia por un factor de mil millones conectando de manera inalámbrica los neocórtex de nuestros cerebros con la Nube.

¡Suena francamente alucinante!

"Rumores y especulaciones han acompañado el desarrollo del Apple Watch"

¿Cómo funciona el Apple Watch?

¿Cambiará el aspecto de la tecnología vestible?

Acaba de salir a la venta en 9 países, con 38 versiones disponibles, que incluyen dos tamaños de esfera (38 y 42 mm) y múltiples variaciones de correas y metales. Los precios varían desde los 349 $ del modelo Sport básico hasta los 17.000 $ del Apple Watch Edition en oro de 18 quilates.

 

Tus movimientos

Los acelerómetros miden la aceleración, la inclinación, la fuerza y la vibración mediante componentes eléctricos que producen tensión de manera proporcional al movimiento físico de diminutas masas móviles que hay dentro del dispositivo. El Apple Watch emplea un acelerómetro para detectar toda clase de movimiento físico para supervisar los niveles de actividad y controlar nuestro estado de salud. El Taptic Engine es un vibrador de retroalimentación háptico con el que el Apple Watch puede transmitir sensaciones físicas a la muñeca.

Nos da un toquecito discreto cuando recibimos un mensaje, nos ayuda a llamar la atención de alguien con un toque a distancia e, incluso, puede enviar nuestro propio latido a otra persona para que lo controle.

 

Sensación Táctil

Tiene una autonomía de unas 18 horas con un uso normal pero la duración de la batería se puede ampliar hasta unas 72 horas si se activa la función de "reserva de energía" que desactiva la mayoría de las funciones.

 

Además de informarnos de la hora con una precisión de 50 milisegundos mediante la esfera personalizable, puede realizar otras muchas funciones si se empareja con un iPhone 5, 5C, 5S, 6 o 6 Plus: hacer y recibir llamadas telefónicas mediante el altavoz y el micrófono integrados, recibir y enviar mensajes de textos dictándolos, seleccionándolos de entre plantillas predefinidas o eligiendo un emoji, y controlar nuestro estado de salud con los sensores incorporados

Sin embargo, solo puede medir la distancia recorrida si también llevamos el teléfono con el GPS activado.

Ya se han desarrollado miles de apps que permiten acceder a redes sociales como Facebook e Instagram, pedir un taxi mediante Uber e identificar el nombre de una canción usando Shazam. También será un dispositivo muy útil para viajar, ya que se puede usar como tarjeta de embarque en el aeropuerto y como llave de la habitación del hotel.


El Watch no tiene cámara fotográfica integrada, pero se puede usar para controlar de forma remota el objetivo del iPhone.






La modelo Turligton Burns prueba el Apple Watch con el CEO de Apple  Tim Cook.

Nuestra Ubicación


Comparta esta Web Page en las principales Redes Sociales 

  *** VISITAS DIARIAS ***

contador de visitas
Flag Counter