miércoles, 21 de junio de 2017

Quantum effects lead to more powerful battery charging

The researchers, Francesco Campaioli et al., have published a paper on the fast charging of nanoscale batteries in a recent issue of Physical Review Letters.

Although a great deal of research has shown that quantum phenomena provide advantages in information processing applications, such as computing and secure communication, there have been very few demonstrations of quantum advantages in thermodynamics. In one recent study in this area, researchers showed that quantum entanglement can allow more work to be extracted from a nanoscale energy-storage device, or "quantum battery," than would be possible without entanglement. 

In the new study, the researchers build on this result to show that quantum phenomena can also enhance the charging power of quantum batteries. They also found that the process does not necessarily require entanglement, although it does require operations that have the potential to generate entangled states.

"Our work shows how entangling operationsóthat is, interactions between two or more bodiesóare necessary to obtain a quantum advantage for the charging power of many-body batteries, whereas entanglement itself does not constitute a resource," Campaioli, at Monash University in Australia, told Phys.org. "Additionally, we show that for locally coupled batteries the quantum advantage scales with the number of interacting batteries."

The quantum advantage is not without its limits, however, and the physicists derive the upper bound on how much faster a collection of batteries can be charged with the help of quantum phenomena. They show that for locally coupled batteries the quantum advantage grows with the number of interacting batteries. These bounds for the quantum advantage are based on quantum speed limits, which are used, for example, to estimate the maximum speed of quantum processes, such as calculations on a quantum computer. Here, the limit is for thermodynamic processes. 

Overall, the results may lead to methods of improving future nanoscale energy-charging processes, as well as to a better understanding of how quantum theory and thermodynamics are related.

(Phys.org)óPhysicists have shown that a quantum batteryóbasically, a quantum system such as a qubit that stores energy in its quantum statesócan theoretically be charged at a faster rate than conventional batteries. ...

(Phys.org)óOver the past several years, physicists have developed quantum shortcuts that speed up the operation of quantum systems. Surprisingly, some of these shortcuts theoretically appear to enable systems to operate ...

(Phys.org)óTheoretical physicists Robert Alicki and Mark Fannes of the University of Gdansk and the University of Leuven respectively, have uploaded a paper to the preprint server arXiv where they theorize that it should ...

(Phys.org)óA lot of attention has been given to the differences between the quantum and classical worlds. For example, quantum entanglement, superposition, and teleportation are purely quantum phenomena with no classical ...

(Phys.org) -- Scientists have taken a quantum leap forward towards future computing after discovering that 'background interference' in quantum-level measurements, may be the very thing they need to unlock the potential ...

What does the future hold for computing? Experts at the Networked Quantum Information Technologies Hub (NQIT), based at Oxford University, believe our next great technological leap lies in the development of quantum computing.

(Phys.org)óA team of researchers at Universite Paris-Diderot has uncovered the reason for wobbling of wheeled suitcases. In their paper published in Proceedings of the Royal Society A, the group explains the physics behind ...

There is a great deal of excitement around virtual reality (VR) headsets that display a computer-simulated world and augmented reality (AR) glasses that overlay computer-generated elements with the real world. Although AR ...

Fusion power has the potential to provide clean and safe energy that is free from carbon dioxide emissions. However, imitating the solar energy process is a difficult task to achieve. Two young plasma physicists at Chalmers ...

Biomedical researchers are understanding the functions of molecules within the body's cells in ever greater detail by increasing the resolution of their microscopes. However, what's lagging behind is their ability to simultaneously ...

Researchers at the U.S. Department of Energy's Lawrence Berkeley National Laboratory (Berkeley Lab) and Argonne National Laboratory have collaborated to design, build and test two devices that utilize different superconducting ...

Measurements at the Australian Centre for Neutron Scattering have helped clarify the arrangement of magnetic vortices, known as skyrmions, in manganese silicide (MnSi).


© Phys.org 2003 - 2017, Science X network

Source

lunes, 28 de marzo de 2016

ARM Scales Chips for Datacenters, HPC

ARM Ltd., the U.K. chip design and licensing vendor, is targeting datacenters and processors intended for high-performance computing in a chip process technology deal with the world’s largest chip foundry.

ARM (LSE: ARM, NASDAQ: ARMH) and Taiwan Semiconductor Manufacturing Co. (NYSE: TSM) announced a multiyear agreement this week to collaborate on leading-edge 7-nanometer FinFET process technology. (FinFET stands for fin-shaped field-effect transistor, an emerging process technology that reduces leakage current in systems-on-chip, or SoCs.)

The partners said the deal extends their existing partnership to push the latest device process technology into datacenters and next-generation networks. It also builds on previous collaboration on earlier generations of FinFET process technology used in ARM’s chip intellectual property offerings.

Chip scaling is advancing in parallel with hyper-convergence in datacenters. ARM is attempting to make inroads in datacenters dominated by x86-based infrastructure through what it claims are up to 10-fold increases in compute density for specific datacenter workloads. The deal with TSMC enables the chip vendor to design processors aimed datacenters and network infrastructure that are optimized for the Taiwan foundry’s 7-nanometer FinFET process technology.

The scaling of chip component densities translates to higher compute density across IT infrastructure while reducing power consumption, the partners claimed.

For TSMC, Hsinchu, Taiwan, collaboration with ARM allows it to migrate its chip process technology from mostly mobile devices to high performance computing as advanced scale architectures make inroads in the datacenter and other IT infrastructure.

TSMC said high-performance computing SoCs based on its latest chip processing technology would boost performance without a power penalty while reducing power consumption at the 10-nanometer FinFET process node.

ARM and TSMC have collaborated on previous generations of FinFET process technology. ARM’s Cortex-A72 processor is based on TSMC’s 16- and 10-nanometer FinFET process nodes.

ARM cores have slowly made their way into server SoCs. Late last year it announced new math libraries running on its 64-bit processors aimed at HPC servers. “The HPC community are early adopters of ARM-based servers and the introduction of optimized math routines build a foundation for enabling scientific computing on 64-bit ARM based compute platforms,” the chip designer noted in statement releasing the libraries.

ARM also announced a partnership with chip networking specialist Cavium (NASDAQ: CAVM) to develop HPC and big data analytics software running on its ARM-based processing platform.

Meanwhile, semiconductor foundries like TSMC have been steadily moving down the chip-scaling curve from 16- to 10- to 7-nanometer designs based on lower power FinFET process technology. TSMC said in January it expects to begin production at the 7-nanometer node in 2017.

 

ARM Ltd., the U.K. chip design and licensing vendor, is targeting datacenters and processors intended for high-performance computing in a chip process technology deal with the world’s largest chip foundry.

ARM (LSE: ARM, NASDAQ: ARMH) and Taiwan Semiconductor Manufacturing Co. (NYSE: TSM) announced a multiyear agreement this week to collaborate on leading-edge 7-nanometer FinFET process technology. (FinFET stands for fin-shaped field-effect transistor, an emerging process technology that reduces leakage current in systems-on-chip, or SoCs.)

The partners said the deal extends their existing partnership to push the latest device process technology into datacenters and next-generation networks. It also builds on previous collaboration on earlier generations of FinFET process technology used in ARM’s chip intellectual property offerings.

Chip scaling is advancing in parallel with hyper-convergence in datacenters. ARM is attempting to make inroads in datacenters dominated by x86-based infrastructure through what it claims are up to 10-fold increases in compute density for specific datacenter workloads. The deal with TSMC enables the chip vendor to design processors aimed datacenters and network infrastructure that are optimized for the Taiwan foundry’s 7-nanometer FinFET process technology.

The scaling of chip component densities translates to higher compute density across IT infrastructure while reducing power consumption, the partners claimed.

For TSMC, Hsinchu, Taiwan, collaboration with ARM allows it to migrate its chip process technology from mostly mobile devices to high performance computing as advanced scale architectures make inroads in the datacenter and other IT infrastructure.

TSMC said high-performance computing SoCs based on its latest chip processing technology would boost performance without a power penalty while reducing power consumption at the 10-nanometer FinFET process node.

ARM and TSMC have collaborated on previous generations of FinFET process technology. ARM’s Cortex-A72 processor is based on TSMC’s 16- and 10-nanometer FinFET process nodes.

ARM cores have slowly made their way into server SoCs. Late last year it announced new math libraries running on its 64-bit processors aimed at HPC servers. “The HPC community are early adopters of ARM-based servers and the introduction of optimized math routines build a foundation for enabling scientific computing on 64-bit ARM based compute platforms,” the chip designer noted in statement releasing the libraries.

ARM also announced a partnership with chip networking specialist Cavium (NASDAQ: CAVM) to develop HPC and big data analytics software running on its ARM-based processing platform.

Meanwhile, semiconductor foundries like TSMC have been steadily moving down the chip-scaling curve from 16- to 10- to 7-nanometer designs based on lower power FinFET process technology. TSMC said in January it expects to begin production at the 7-nanometer node in 2017.

Source

domingo, 24 de enero de 2016

Mayores bloques en Bitcoin sin los riesgos de un hard fork: Testigos Segregados (Segregated Witness)

Aunque la conferencia Scaling Bitcoin celebrada en Hong Kong no ha servido para salir de allí con una solución al debate del aumento del tamaño de los bloques, lo cierto es que el optimismo por encontrar una solución a la escalabilidad de Bitcoin va en aumento. Quizás parte de responsabilidad de ello la tenga la propuesta de Testigos Segregados (Segregated Witness, en inglés- y ya se usa el acrónimo SegWit para referirse a ello) presentada en el marco del encuentro por Pieter Wuille, cofundador de Blockstream, y que podría aumentar la capacidad de la red Bitcoin sin necesitar una bifurcación dura (hard fork) y los riesgos asociados a ello.

En su propuesta, Wuille plantea la posibilidad de variar los datos que incluyen las transacciones Bitcoin actualmente, de tal manera que el espacio que éstas ocupan en la cadena de bloques (blockchain) sea bastante más reducido (un 75% inferior) lo que, a su vez, incidiría en una mayor cantidad de transacciones incluidas en cada uno de los bloques, que actualmente tienen un tamaño de 1MB, y que pasarían a ser equivalentes a 4MB sin que sufrieran una variación. Básicamente se trataría de un aumento del tamaño de los bloques, sin cambiar el mismo.

Cómo se implementará Testigos Segregados (Segregated Witness – SegWit)

Las transacciones Bitcoin incluyen uno o varios campos de inputs que determinan de dónde vienen los fondos, y uno o más campos de outputs que indican dónde van esos fondos. Además, cada transacción incluye un campo con la firma que valida que el dueño de los fondos puede efectuar la transacción, y que no es necesario que sean vistas por todos los nodos, sino únicamente lo son para los nodos completos que hacen validaciones (mineros y carteras). Por ello puede variarse su ubicación, e introducirse en una nueva estructura de datos separada, para que los mineros y las carteras puedan corroborar así que las firmas de las transacciones son válidas, sin que ello signifique que el tamaño de las transacciones sea tan grande como lo es en la actualidad. Wuille propone “ignorarlos en los caso en que sea posible” y para ello, Testigos Segregados implementaría el código necesario para trasladar esas firmas a la coinbase de la transacción, a través de un Merkle Tree. De esta forma se conseguiría un incremento del tamaño de los bloques del 75%, es decir, siendo los bloques de 1 MB, tendrían capacidad para incluir tantas transacciones como permitirían bloques de un tamaño de 4MB.

Para entenderlo mejor pongamos un ejemplo: una transacción con un solo input y un output con Testigo Segregado ocuparía 90 bytes de datos de transacción más o menos y 80 bytes de firma. Únicamente los 90 bytes (los de los datos de transacción) son los que sería necesario incluir en el bloque, por lo que de los 170 bytes se pasa a 90 bytes.

Según datos presentados por Wuille, las firman suponen el 60% del tamaño de la cadena de bloques. Por lo que su propuesta conseguiría que el tamaño de la cadena de bloques se reduzca drásticamente: De 49 GB actuales a poco más de 20GB.

Además de lograr este incremento efectivo del tamaño de los bloques, la propuesta de Wuille también permitiría dotar al protocolo Bitcoin de otras funcionalidades:

·         Solucionar la maleabilidad de las transacciones.

·         Implementar las actualizaciones de lenguajes del script más fácilmente.

·         Permite las pruebas de fraude.

·         Eliminar las firmas de las transacciones históricas y reducir con ello el tamaño total de la cadena de bloques en un 60%.

·         Reducir los requisitos de ancho de banda para los clientes ligeros y para la sincronización inicial de la cadena de bloques.

 

 

Fuente

miércoles, 13 de agosto de 2014

WI-FI: la muerte invisible que está destruyendo a la generación más joven en todo el mundo

La Agencia de Protección Sanitaria de Gran Bretaña, en un estudio realizado en 2007 constató que “la radiación de microondas en el rango de frecuencia de WiFi causa cambios de conducta, altera las funciones cognitivas, activa la respuesta de estrés e interfiere con las ondas cerebrales”. También se mencionan los posibles riesgos para la salud de los niños que asisten a escuelas con redes inalámbricas.

Y es que no hay que olvidar que la radiofrecuencia de los teléfonos móviles e inalámbricos, de las torres de telefonía móvil y de las redes WiFi emiten radiación que de una manera u otra, afecta a las personas que estén dentro de su rango de acción.

El estudio «Interphone», promovido por la Organización Mundial de la Salud (OMS) y publicado en «International Journal of Epidemiology», pese a no ofrecer evidencias concluyentes sobre la supuesta inocuidad de los terminales, levanta la sospecha. En una revisión del mismo realizada en Junio de 2010, se aseguraba que por cada cien horas de uso de teléfono móvil, el riesgo de meningioma –tumor cerebral– aumentaba un 26 por ciento.

Fernando Pérez, vicepresidente de la Fundación para la Salud Geoambiental apunta que los pequeños de la casa son los más vulnerables, junto a las embarazadas, personas mayores y enfermos. «Todos los estudios epidemiológicos han demostrado efectos reales de las radiaciones en la salud y el desarrollo de los niños», explica Pérez.

Por supuesto, hay otros estudios que afirman que la exposición a este tipo de radiaciones es inocua. Pero si así fuera, ¿por qué en Europa están tomando medidas? Uno de los ejemplos más contundentes llega del vecino galo. En Francia, se están eliminando las redes WiFi en bibliotecas, colegios y lugares públicos, «pero en España la legislación data del año 2001, y establece unos límites máximos que son 4.000 veces superiores a los recomendados por los últimos estudios», apunta Pérez

Por otro lado, existen “informes científicos” que afirman que las redes wi-fi son totalmente inofensivas pero no hay que olvidar que la mayor parte de esos “informes” están pagados por “la alianza WiFi” una asociación que representa a la industria de WLAN, integrada por mas de 200 grandes compañías.

Los síntomas de una alta exposición a redes wifi se manifiestan mediante dolor decabeza, cansancio crónico, dificultad para dormir, palpitaciones, dólor en el oído e insomnio.

Así que lo mejor es prevenir, sólo por si acaso. Éstas son algunas medidas que pueden protegernos de las radiaciones wi-fi, tanto en la oficina como en la vivienda:

1. Desconectar la conexión cuando no se esté utilizando, especialmente durante la noche.

2. Sustituya el acceso inalámbrico, mediante cable de red, o bien un PLC que le permita usar su propia red electrica y enchufes como red local.

3. No abusar del teléfono móvil. Lo mejor es utilizarlo con la función de “altavoz” activada.

4. No utilice teléfonos inalámbricos DECT para su vivienda, los cuales emiten grandes dosis de radiación. Si no tiene más opción que utilizar un teléfono inalámbrico, mire las opciones tipo ECODECT, que al menos evitan la emisión cuando el teléfono esta descansando en la base.

5. Acudir a un médico especializado para que nos realice una descarga de la radiación que el cuerpo haya podido absorber.

Fuente

 

miércoles, 30 de julio de 2014

Tres idiomas están en peligro de extinción en España, según Google

"Me fan goyo tus güellos", "¿Cuálo ye o nueso?", "A plebiu y ya está xuta la carrera"... son sólo algunos ejemplos de oraciones en aragonés que dejaremos de oír en el futuro si no se hace algo. Otros idiomas en peligro de extinción, según Google, son el asturiano y la lengua de signos catalana.
El buscador ha presentado hoy el Proyecto de Lenguas en Peligro de Extinción, una plataforma donde se puede encontrar y compartir la información más completa y reciente sobre los idiomas cuya conservación peligra.
Google.org, ha puesto en marcha esta plataforma con el objetivo de preservar y promover la cultura a través de Internet pero se trata de un espacio colaborativo donde cualquiera podrá aportar sus conocimientos sobre las distintas lenguas para hacer de esta plataforma un lugar lo más completo posible.
Gracias a este proyecto se podrán documentar las más de 7.000 lenguas que están a punto de desaparecer para preservar la diversidad, honrar los conocimientos de nuestros mayores y enriquecer el futuro de los jóvenes.
"Documentar las más de 7.000 lenguas que están a punto de desaparecer es un paso importante para preservar la diversidad, honrar los conocimientos de nuestros mayores y enriquecer el futuro de los jóvenes. La tecnología puede colaborar en estos esfuerzos al permitir que se creen grabaciones de alta calidad de los últimos hablantes de un idioma, al conectar comunidades dispersas a través de los medios sociales de comunicación y al facilitar el aprendizaje de idiomas", aseguran desde el buscador.
El Proyecto de lenguas en peligro de extinción, con el apoyo de una nueva coalición: la Alianza para la Diversidad lingüística, ofrece a las personas interesadas en preservar las lenguas un lugar donde guardar y acceder a investigaciones sobre el tema, compartir sugerencias y establecer colaboraciones.
Un grupo diverso de colaboradores ya ha empezado a aportar contenido que abarca desde manuscritos del siglo XVIII a herramientas modernas para la enseñanza de idiomas como: vídeos, muestras de idiomas en audio y artículos para compartir conocimientos. Los miembros del Comité Asesor también han proporcionado directrices para ayudar a organizar la plataforma y satisfacer los intereses y necesidades de las comunidades lingüísticas.


domingo, 16 de febrero de 2014

¿Cuál es el mejor método para que tus empleados aprendan idiomas de verdad?

Desde que empecé a trabajar como cualquier empleado en una empresa, me ha sucedido lo que a todo el mundo: he ensayado muchas formas de aprender idiomas. Inglés, alemán y francés.

¿Funcionan todas?  ¿Es tirar el dinero? Las empresas se gastan cada año miles de euro en mejorar el nivel de idiomas de sus empleados, y en todos los niveles. El problema para el nivel ejecutivo es encontrar tiempo, o tener el hábito de estudiar. 

Veamos: 

-La academia. Asistir en tus horas libres a clases en la academia (yo asistí a International House) tiene la ventaja de que fijas una disciplina. Para los que ya saben algo de inglés, es recomendable dar clases de conversación. Pero eran pocas horas a la semana y se esfumaban los conocimientos en poco tiempo. El progreso es lento.

-La escuela oficial. Asistí a clases de alemán en Goethe Institut. Es exigente, vas subiendo de nivel y te van realizando exámenes para lograr el Zertificat Deutsche (supongo que el First, en inglés), y el ZD für dem Beruf (para inglés empresarial). El problema es sacar tiempo libre para preparar las clases. Llega un momento en que subir de nivel es muy difícil para los irregulares horarios de un alto ejecutivo.

-El profesor particular. Dos, tres, cuatro horas a la semana. Lo hice con Tandem en caso del alemán, pero como era a la hora de comer, tenía que invitar al profesor y al final él se lo pasaba mejor que yo pues yo me limitaba a escuchar. Cuando hice lo mismo con un profesor de inglés, mi profesor tenía un acento tan ortodoxo que no se parecía a nada conocido. Las conversaciones se desviaban a temas frívolos, cuando lo que uno necesita a lo mejor es un inglés de reuniones de empresa.

-La clase on line. Mi empresa me puso clases con una academia on line de la que no aproveché nada. Los libros eran bastante buenos, pero mi trabajo me quitaba la fuerza de voluntad que necesitaba. Es decir, tenía que sacar parte de mi tiempo libre para rellenar los libros, meterme en internet o llamar por móvil a un profesor disponible. Ni lo intenté.

-Los portales con juegos o videos. Son los sistemas empleados por Busuu o English Central. Son gratuitos en la mayor parte de los casos, pero hay que crear el hábito de entrar y de perfeccionar el inglés. Lo malo es que no hay una persona de carne y hueso del otro lado y el progreso es lento. 

-Las villas inglesas. Estuve un fin de semana en Villa Inglesa, cerca de Madrid. Eran jornadas de 9 de la mañana a doce de la noche. Exhaustivas. Tres alumnos, tres profesores. Se trabajaba la gramática, la conversación, la improvisación, las reuniones ejecutivas. Prohibido hablar español. Prohibido móvil. Tuve la ventaja además que era un intercambio con Diverbo: nos hacía contenidos para lainformacion.com (contenidos periodísticos), que se publicaban, y nosotros recibíamos a cambio clases de inglés en Villa Inglesa. Para los que tienen cierto nivel, es lo más recomendable. Los progresos son auténticos. Pero un fin de semana no basta. Sería ideal tener una visita cada dos meses. 

En resumen, aprender un idioma a trozos es largo y tedioso. Quien tenga el hábito y el tiempo, puede aprovechar cualquier método. Pero para el mundo ejecutivo, donde faltan las dos cosas, las inmersiones lingüísticas en fines de semana, o en semanas enteras (o un mes) suelen sorprender al aprendiz porque progresa con rapidez. Es quizá el dinero mejor empleado por la empresa, pero no es barato.

 

 

 

Fuente

sábado, 19 de octubre de 2013

Los chinos lograron transmitir internet a través de la luz

Investigadores chinos del Instituto de Física Técnica de Shanghái (este de China) han logrado transmitir a distancia información de la red internet a través de la luz, en lugar del tradicional uso de ondas de radio (wi-fi), informó la agencia oficial Xinhua.

Utilizando un diodo emisor de luz (led) de un vatio, el equipo de estudiosos, liderado por el profesor de tecnología de la información Chi Nan, consiguió que cuatro ordenadores se conectaran a internet, explicó el propio investigador.

Integrada con microprocesadores, esta pequeña bombilla puede lograr flujos de datos de hasta 150 Mb por segundo, señaló Chi al respecto de esta nueva tecnología, que también se investiga en Edimburgo (Reino Unido) desde 2011 y ya se ha empezado a denominar en círculos académicos "li-fi" (por "light", luz en inglés).

Varios ordenadores con "li-fi" se mostrarán ya en la próxima Feria Internacional de la Industria de Shanghái, a partir del 5 de noviembre.

Según Chi, también profesor de la universidad shanghainesa de Fudan, este nuevo sistema supera en eficiencia al tan extendido wifi y abaratará costos en la transmisión de internet sin hilos.

"Con los móviles se han establecido por todo el mundo millones de estaciones para mejorar la señal, pero la mayoría de la energía (un 95 por ciento del total) se consume en sistemas de refrigeración", explicó Chi para exponer la ineficacia de los actuales sistemas wi-fi.

Frente a ello, "allí donde haya una bombilla habría señal de internet", defiende el profesor de la Universidad de Fudan, quien subrayó que todavía queda mucho para popularizar el "li-fi", ya que exigiría un rediseño de muchos de los equipos emisores y receptores de telecomunicaciones.


Fuente: Soychile.cl