geeks » 29 noviembre, 2016

Daily Archives: 29 noviembre, 2016

Diseñan prototipo para estudios de diagnóstico médico


El estudiante de la maestría en ciencias de la electrónica de la Benemérita Universidad Autónoma de Puebla (BUAP), Ricardo Torres Reyes, diseñó y creó un robot que permitirá realizar una medición puntual de los campos magnéticos generados en el cerebro o corazón en estudios de diagnóstico cardiaco y neurológico en pacientes.

El sistema cartográfico semiautomático de resolución controlada, nombre de su prototipo, es parte de un proyecto multidisciplinario en el que intervienen sus asesores, los doctores Pedro Javier García Ramírez, de la Universidad Veracruzana, y Sergio Vergara Limón, de la BUAP.

Asimismo, este prototipo será complementado en un primer inicio con un sensor en tecnología MEMS (sistemas microelectromecánicos), el cual será reemplazado posteriormente por , proporcionados por el doctor Edmundo A. Gutiérrez Domínguez, del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), los cuales tienen la propiedad de detectar campos magnéticos sin necesidad de llevar a cabo algún cambio en la geometría clásica de este dispositivo semiconductor.

La contribución del estudiante de maestría Torres Reyes, explicó el doctor Vergara Limón, radica en que su prototipo de robot puede realizar el barrido del cerebro o el corazón de forma mecánica y precisa, facilitando los experimentos de medición que realizan investigadores del INAOE y la Universidad Veracruzana en coordinación con el Instituto de Fisiología de la BUAP, a través del doctor Elías Manjarrez López.

“Al inicio se probará en roedores y posteriormente en seres humanos. A este prototipo de robot se le colocará un sensor de campo magnético para hacer un barrido sobre el corazón con coordenadas de medición mucho más precisas; ahora se hace pero de forma manual, lo que resulta complicado porque los campos electromagnéticos emitidos por el corazón del roedor son muy sensibles y cualquier movimiento no previsto altera los resultados”, detalla el doctor Vergara Limón.

Otro uso potencial se puede enfocar en la espectroscopía de impedancia electroquímica utilizada en estudios de corrosión. Este estudio se tiene contemplado llevarlo a cabo con el grupo de investigación en corrosión de la Universidad Veracruzana, en su campus de la región Veracruz-Boca del Río.

Fenómenos bioeléctricos

La generación de campos eléctricos a partir de órganos es lo que se conoce como fenómeno bioeléctrico, con variaciones en tiempo y espacio, dependiendo de la magnitud y dirección de la excitación, la conformación del volumen y las propiedades eléctricas de los tejidos que se estudian. Esta variación en el campo eléctrico genera, a su vez, el campo magnético.

Por ejemplo, este fenómeno se registra en el cerebro cuando miles de neuronas se activan de manera organizada en regiones específicas de la corteza ante un estímulo. Esta activación produce un flujo eléctrico sobre la corteza que, a su vez, genera un campo magnético. Esto será lo que justamente medirá el sensor diseñado en el INAOE, pero de manera más precisa y automatizada a través del prototipo robot.

Torres Reyes indicó en entrevista que existen sistemas (estereotáxico) que realizan este estudio pero no son automatizados y tienen margen de error, en cambio su robot tiene una precisión de una micra en el eje X, Y, mientras que el otro eje solo es utilizado para acercar la herramienta.

En cuanto a su operación, una vez que tenga el sensor o sonda —proporcionado por el INAOE— se desplaza sobre la superficie estudiada a través de un barrido y la medida de las interacciones quedarán registradas en cada posición del sensor. El conjunto de información obtenida será mapeado en una gráfica que representa típicamente la morfología o imagen del objeto estudiado.

Aclaró que el prototipo de robot no analiza los resultados obtenidos con el barrido, estos tendrán que ser tratados en las investigaciones de los fisiólogos involucrados en el proyecto.

“Con este robot de tres grados de libertad se pueden realizar estudios de campos electromagnéticos en laboratorios para verificar células malignas, o bien en el área de circuitos integrados para conocer qué resonancia tienen. Su ventaja frente a otros equipos es su precisión y, sobre todo, lo económico porque todo se desarrolló en el laboratorio de robótica de la BUAP”, refirió Torres Reyes.

Todo el sistema se desarrolló en SolidWorks y una vez controlado se realizaron pruebas experimentales. Asimismo, cuenta con dos motores de transmisión directa caracterizados a diferente frecuencia y se comunica vía FPGA (Field Programmable Gate Array, dispositivo programable), lo que ayuda a facilitar su control.

Fuente: Conacyt

Published by:

Internet de las Cosas una opción para la economía mexicana


Dado que se espera un panorama económico poco halagüeño en 2017, analistas prevén que diversos sectores empresariales en el país migren su gasto o adopción de nuevas tecnologías de hardware, como centros de datos y nuevos equipos, a software y soluciones de internet de las cosas (iot), que les permitan operar con menores costos.

“En temas de iot, vemos cifras importantes y áreas de crecimiento mayores. Creemos que va a haber mayor inversión en este tipo de tecnologías para efectos de disminuir costos en otros rubros. Ninguna empresa va a estar negada a invertir en esto y arriesgarse a tener una pérdida o un extravío de un embarque de mercancías, esta tecnología la van a considerar más y aunque seguramente habrá un ajuste general (de inversiones) todavía no lo sabemos y no lo tenemos reflejado”, dijo Edgar Fierro, director general de la consultora IDC.

De acuerdo con el índice de adopción de tecnologías 2016 QuiSi, presentado por Qualcomm e IDC, en México, una de las tendencias más grandes de adopción tecnológica es el internet de las cosas; sin embargo, actualmente representa sólo el 0.41% de la inversión total de TI en el país, con inversiones valuadas a 2015 en 3,330 millones de dólares.

Aunque la perspectiva es que este tipo de inversiones crezcan en los próximos años, el promedio de inversión en iot en la región es de 1.57% de las inversiones en TI, mientras que en naciones desarrolladas como Estados Unidos, el porcentaje alcanza 28.5% y en China 26.5%, según el reporte.

Según el índice QuiSi, el rubro en el que históricamente más se gasta en tecnología en México, es hardware con 64% de la inversión; seguido de servicios, con 21% y software, con 15%.

Si bien se espera que el internet de las cosas gane cada vez más relevancia en las inversiones de tecnología en el país, Salvador Blasco, director general de Qualcomm México, advierte que el reto para que dichas adopciones tecnológicas funcionen está en la integración de estas soluciones en el ecosistema, ya sea industrial o de consumo.

“Más que la seguridad o accesibilidad, el reto del iot es la integración de la misma tecnología a los procesos de negocio o un nuevo caso de uso. La otra es que las empresas y los individuos tomen estas oportunidades y las usen como fundamentos para innovar y crear productos y servicios nuevos”, dijo Blasco.

Fierro detalló que las industrias que se moverán primero hacia estos esquemas interconectados son las firmas de manufactura y aquellas que requieren controlar flotillas, seguido del sector financiero como la banca y las aseguradoras, además de nuevas startups con modelos de negocios cada vez más flexibles.

En términos generales del estudio QuiSi 2016, cuyo objetivo es analizar la adopción tecnológica de los países en frentes como sociedad, empresas y gobierno, México sumó 16.51 puntos de 100, un ligero avance desde el registro de 15.49 puntos en 2015. El puntaje de 2016 deja a México como segundo de la región, detrás de Argentina que sumó 17.23 puntos, mientras los países con los mayores puntajes fueron Singapur, con 34.72 puntos; Suiza, con 28.21 puntos y Estados Unidos, con 27.71 puntos.

En tanto se dan estos avances, la consultora PWC, advirtió que a la par de las oportunidades de nuevos ingresos que puede traer el internet de las cosas, las empresas deben mirar con mayor cuidado sus estrategias de ciberseguridad y cómo protegen sus sistemas y sus redes que cada vez tendrán más dispositivos conectados por medio de internet.

Juan Carlos Carrillo, director de la práctica de ciberseguridad en PWC, advirtió que aunque en el país aún no existen registros públicos u oficiales de grandes ciberataques a través del internet de las cosas, la adopción de estas tecnologías requiere mayor regulación, mayor inversión y protocolos de respuesta, tanto de la iniciativa pública como privada.

En promedio, una empresa mexicana tarda seis meses en detectar si sufrió un ciberataque y el costo promedio de uno, es de 1.5 millones de dólares, según el reporte del estado de la ciberseguridad 2016 en México de PWC.

Fuente: CNN Expansión

Published by:

Desarrollan tecnología para convertir pensamientos en texto


Aunque la forma de interactuar con los ordenadores y dispositivos electrónicos ha mejorado mucho en la última época –especialmente desde que se volvieron de uso común los sistemas de reconocimiento de voz– todavía queda un hito por resolver que es la famosa conversión de pensamientos a texto. De este modo bastaría literalmente con pensar en lo que se quiere hacer para transcribir un texto y con ello ejecutar una acción más o menos compleja.

Actualmente decir eso de “Ok, Google, muéstrame la ruta a la oficina” es algo corriente y que, hasta cierto punto, funciona. Pero idealmente bastaría pensar en esa misma frase (o incluso un pensamiento equivalente) para obtener la respuesta. Ahora la revista Frontiers in Neuroscience ha publicado un artículo de dos investigadores alemanes de la Universidad de Bremen que revisan el estado de la cuestión y su posible aplicación para el reconocimiento de voz en personas con problemas en el habla, ya sea por incapacidad o deterioro. De camino examinan muchas de las tecnologías que se utilizan en esta forma de comunicación alternativa entre humanos y ordenadores.

De cerebros humanos a “cerebros” binarios

El artículo enumera varios conceptos básicos, de los cuales el primero son las interfaces cerebro-ordenador (BCI, de Brain-Computer Interface). Los sistemas habituales emplean técnicas habituales del mapeado cerebral como son la resonancia magnética funcional (fRMI) o la espectroscopia del infrarrojo cercano (fNIRS), que miden la cantidad de oxígeno en la sangre en ciertas zonas. Esta es la opción menos invasiva, el clásico gorrito que hemos visto en tantas fotos: los datos se pueden transmitir desde sensores situados en la cabeza de una personaal ordenador que los procesa, donde el software de una red neuronal artificial los registra, aprende y compara para ejecutar ciertas acciones.

La principal limitación es que el número de «estados mentales» ha sido tradicionalmente muy limitado, variando desde una opción binaria (sí/no) a tres o más estados con cierta probabilidad de acierto, por ejemplo al pensar en una zona de la pantalla, en un color o un movimiento.

Una acción compleja como es escribir una frase puede hacerse palabra por palabra y letra por letra, seleccionándolas en paneles que van mostrando opciones, al estilo de la famosa silla/ordenador del profesor Stephen Hawking, que actuaba mediante un pequeño mando. Pero a diferencia de otros sistemas que tras el entrenamiento pueden reconocer decenas de palabras simples convertir un pensamiento completo en una nueva frase correctamente escrita no es tan fácil.

En un punto intermedio están sistemas como los que de Herff y Schultz, del Laboratorio de Sistemas Cognitivos de la Universidad de Bremen. Utilizan las mismas técnicas de interfaz cerebro-ordenador y reconocimiento de voz pero con usuarios con dificultades en el habla. De este modo alguien con el habla deteriorada puede hablarle al ordenador y que éste reconozca lo que quiere decir.

Limitaciones y complicaciones

El principal problema es que las interfaces como las resonancias fRMI y otros basados en señales metabólicas (“cantidad de oxígeno en sangre”) suceden de forma demasiada lenta en comparación con la velocidad a la que hablamos (y pensamos al hablar). La fNIRS funciona aproximadamente a la misma velocidad que la fRMI pero cubre un área mayor y resulta más barata en comparación.

Los sistemas más invasivos implican la inserción de electrodos en la cabeza, y difícilmente cubren todas las áreas del cerebro: aunque den con la zona adecuada para interpretar ciertas palabras se puede perder mucha información importante. Otros métodos como la electroencefalografía son demasiado sensibles a los movimientos, lo que los hace poco prácticos para tareas como convertir pensamientos en textos. Algo parecido le sucede a los sistemas de magnetoencefalografía (MEG).

Finalmente la electrocorticografía (ECoG) también tiene suficiente velocidad, cubre un área amplia del cerebro y no se ve afectada por los movimientos – de hecho se utiliza habitualmente al realizar cirugías a pacientes con epilepsia, de modo que resulta más prometedora, aunque también es invasiva.

La conversión de pensamiento a texto

La técnica habitual que los científicos utilizan es obtener los datos de dos formas simultáneas: por un lado, los datos en bruto que proceden del cerebro; por otro los audibles a través de micrófonos. Entonces se procede a clasificar los fonos o sonidos distinguibles en la comunicación.

En el caso de los investigadores alemanes experimentaron con pacientes con dificultades en el habla, combinando los sonidos que emitían con la información procedente de su cerebro mediante ECoG. Por ejemplo: quizá para decir la palabra “coche” pronunciaban “ko-e”, que sonaba igual que “coge”, pero el resultado sería distinto al tener en cuenta la información adicional obtenida en ese mismo instante mediante ECoG.

En esta parte final de la conversión de pensamiento-a-texto también se utiliza software similar al de los autocorrectores y los teclados predictivos, eliminando algunos errores y generando finalmente palabras y frases con sentido.

De momento lo que los científicos han demostrado es que es posible combinar la información de voz deteriorada y señales obtenidas mediante ECoG con software de reconocimiento de voz para realizar lo que han denominado “conversión de señales neuronales en texto con un alto grado de fiabilidad”. El hecho de que todavía se necesite implantar electrodos en los sujetos es una gran limitación, pero quizá pueda resolverse en el futuro con otras tecnologías.

Fuente: EL PAÍS

Published by:

Reunión entre el Papa Francisco y Stephen Hawking


 

El científico británico Stephen Hawking y el Papa Francisco tuvieron hoy un encuentro en el Vaticano; días después de que el astrofísico británico asegurará que preguntarse sobre “qué había antes del Big Bang” carece de sentido, debido a que “es como cuestionarse qué hay al sur del Polo Sur”.

Poco común y cordial el encuentro entre los dos carismáticos representantes mundiales de la fe católica – Francisco – y de la razón basada en el conocimiento científico – Hawking – y, al mismo tiempo, ubicados en la antípoda de la idea de Dios.

Por ende, el Big-Bang es una teoría aceptada en el mundo académico y que trasciende en la formación de las galaxias y los planetas. Aún no hay respuesta que convenza sobre qué pasó antes de la explosión, qué provocó ese estallido y entonces cuál es la razón de la existencia sin embargo existe una lógica. “El mensaje de la ciencia es que somos hijos de una lógica y no del caos”, dijo el físico nuclear italiano Antonino Zichichi y colega de Hawking a Radio Vaticano.

El Papa Francisco y el Big-Bag

De ahí, el Big-Bang es un acto de amor de Dios, según el Papa Francisco que en octubre de 2014 en un discurso a la Plenaria de la Academia de las Ciencias no mordió la ´manzana´ de la discordia entre religión y ciencia.

Asimismo, considera que la Ciencia con sus descubrimientos no niega la existencia de Dios, al contrario, la evolución hace parte del diseño de Dios para su creación. Así, el “Big-Bang no contradice la intervención de un Creador divino”.

“Y así la creación ha proseguido su marcha por siglos y siglos, milenios y milenios hasta que se ha convertido en lo que hoy conocemos; exactamente porque Dios no es un mago sino el Creador que da el ser a todas las cosas.

El inicio del mundo no es obra del caos que debe a otro su origen, sino que se deriva directamente de un Principio supremo que crea por amor.

El Big-Bang, que hoy se sitúa en el origen del mundo, no contradice la intervención de un creador divino, al contrario, la requiere. La evolución de la naturaleza no contrasta con la noción de creación, porque la evolución presupone la creación de los seres que evolucionan”, constató Francisco.

 El milagro de la vida en Hawking

Por su parte, Stephen Hawking uno de las científico más respetados del mundo, en 2010, en el libro El gran diseño, afirma que el universo surgió de manera espontánea y que detrás está la física y sus leyes, prescindiendo de Dios para explicar el origen de la vida.

En su libro, el famoso astrofísico y cosmólogo abiertamente se define ateo y considera que la religión cree en los milagros, en contrasto con el método científico. “No hay ningún Dios”, insiste.

No obstante, Hawking representa un milagro para la ciencia. Pues, inexplicablemente sobrevive aún hoy a los 73 años después de que le diagnosticaran a los 21 años la esclerosis lateral amiotrófica (ELA), una enfermedad degenerativa que provoca una parálisis muscular.

El dictamen médico era que no duraría entre dos o tres años de vida. Hawking en cambio se ha casado, ha tenido hijos y viaja por el mundo para dar sus conferencias. Actualmente puede mover los ojos y las mejillas las que le permiten controlar un computador para comunicar a través de un sintetizador de voz. Con acento robótico insiste en que la ciencia explicará el principio de la vida.

Fuente: http://es.aleteia.org/

 

Published by: