28 febrero 2017

Consejos para que tu computadora sea mas rápida


¿Alguna vez noto que su computadora se puso lenta? Cuando pasan unos cuantos meses de la compra de nuestro equipo su rendimiento suele comenzar a descender vertiginosamente, una tendencia que se acrecienta de forma exponencial conforme van pasando el tiempo.

Pese a todo, con un buen mantenimiento del equipo, algo de tiempo, y seguir unos sencillos consejos, podemos conseguir que nuestro equipo vaya más rápido y mejore su rendimiento, veamos algunos consejos:

Desinstale programas innecesarios o que ya no utilice

Con el tiempo es normal ir acumulando varios programas, muchos de los cuales sólo hemos utilizado en una o dos ocasiones e incluso otros muchos que seguramente ni sabíamos que estaban instalados.

Aunque no estén siempre en ejecución, esos programas ralentizan el funcionamiento del disco duro además, pueden abrir procesos secundarios que consumen recursos de la memoria RAM sin aportar nada a cambio.

Por ello es conveniente revisar qué software tenemos instalado y desinstalar todos aquellos que no nos sean útiles.

ELIMINE LOS ARCHIVOS TEMPORALES DE WINDOWS

Es como una venta de garaje, luego de un par de años acumulas muchas cosas. En todo ese tiempo, habrá acumulado cientos de objetos innecesarios que en su momento fueron útiles pero que ahora ya no tienen sentido y solo ocupan campo.

Pues lo mismo sucede en el caso de nuestra computadora: Windows almacena miles de archivos temporales que en algún momento hemos necesitado pero que ya no tienen ninguna función y podemos eliminar sin ningún problema, ahorrando no sólo espacio sino también mucho tiempo que tardaría nuestro equipo en revisar todos esos datos.

DESACTIVE OPCIONES VISUALES QUE CONSUMAN MUCHOS RECURSOS

Desde Windows Vista a Windows 10, el aspecto visual de las ventanas y las animaciones que se ejecutan al cambiar de una tarea a otra son muy atractivas y se han convertido en una auténtica seña de identidad de las nuevas versiones de este sistema operativo, lamentablemente consumen más recursos y por ende, de hacen que nuestro equipo no sean todo lo veloces que deberían.

En el caso de que nuestra computadora vaya más lento que de costumbre, uno de los trucos más eficaces e inmediatos es desactivar todos estos efectos y volver al tema básico de Windows.

DESFRAGMENTE PERIÓDICAMENTE EL DISCO DURO

Es la clave más ardua pero una de las más necesarias para garantizar el correcto funcionamiento de nuestro disco duro. Y es que desfragmentar nuestro disco nos ayuda a que todos los archivos se ordenen correctamente en la superficie de la unidad, se eliminan datos inconexos y se reduce el tiempo que nuestro equipo necesitar para leer, escribir y acceder a los datos que almacenamos.

Razonamiento aproximado

En el artículo de Esquivel, Félix y Bello, publicado el año 2014 con el título “Evaluación del impacto de la capacitación con lógica difusa”, se menciona que el hombre, en la búsqueda de la precisión, ha intentado ajustar el mundo real a modelos matemáticos rígidos y estáticos. El nacimiento de la teoría de los conjuntos difusos fue en la dirección contraria, generando modelos matemáticos adaptables a los problemas del mundo real; su desarrollo se debió a la necesidad de disponer de alguna representación matemática de familias de objetos usuales que, con la teoría clásica de conjuntos o la teoría de probabilidad, no podían ser representados adecuadamente, ya que no son adecuadas para tratar la imprecisión, la incertidumbre, la no especificidad, la vaguedad, la inconsistencia y la complejidad del mundo real, permitiendo expresarlos en términos matemáticos capturando toda la incertidumbre asociada con el razonamiento y el pensamiento humano. La lógica difusa puede entenderse como una herramienta matemática cuya amplia aplicabilidad se basa en la concepción de conjuntos con fronteras no exactas que se emplean en presencia de información imperfecta, que se ocupa de los problemas relativos a la imprecisión, la incertidumbre y el razonamiento aproximado y es un marco que tolera la imprecisión y la verdad parcial bajo un enfoque no estadístico y que puede ser construida con base en el conocimiento de los expertos.

Zadeh, en el artículo publicado el año 1975 con el título “El concepto de variable lingüística y su aplicación al razonamiento aproximado”, menciona que la mayor parte de los sistemas para el manejo y tratamiento de la información se basan en una arquitectura de procesamiento digital, esquema que, aunque ha demostrado ser de gran utilidad, se encuentra limitado por su incapacidad de representar de manera eficaz la información procedente del mundo real en una forma legible para las máquinas, información que por lo general, se encuentra contaminada con imprecisiones y distorsiones. La lógica difusa, y en general la teoría de los conjuntos difusos, es un área de la inteligencia artificial que se ha enfocado en desarrollar herramientas que permiten representar y realizar operaciones con cantidades inexactas e imprecisas.

En el artículo de Yager, publicado el año 1984 con el título “Razonamiento aproximado como base de los sistemas expertos basados en reglas”, se menciona que el razonamiento es la habilidad de inferir información sobre alguna faceta desconocida de un problema a partir de la información disponible, por ejemplo, cuando un sistema falla, se intenta descubrir por qué ha fallado observando los síntomas. Zadeh, en el artículo mencionado anteriormente, introduce la teoría del razonamiento aproximado y otros muchos autores han realizado contribuciones importantes en este campo. Aunque superficialmente pueda parecer que la teoría del razonamiento aproximado y la lógica clásica se diferencian enormemente, la lógica clásica puede ser vista como un caso especial del razonamiento aproximado. En ambos sistemas, se pueden ver a las premisas como inductoras de subconjuntos de mundos posibles que las satisfacen, aunque en el caso de la teoría del razonamiento aproximado esos conjuntos sean subconjuntos difusos. La inferencia en ambos sistemas está basada en una regla de inclusión: Una hipótesis se infiere de una colección de premisas si el subconjunto de mundos posibles que satisfacen la conjunción de las premisas está contenido en el subconjunto de mundos posibles que satisfacen la hipótesis. La contribución fundamental del razonamiento aproximado es el uso que hace de las variables y la representación de las proposiciones en términos de valores de verdad lingüísticos, referidos como subconjuntos difusos, a manera de valores de esas variables. La lógica clásica sólo usa de modo implícito de idea de variable, en el sentido de valor de verdad asociado a una proposición. Sin embargo, su naturaleza binaria le permite ocultar este hecho, ya que se puede referir a una proposición que es verdadera por su denotación, y a una que es falsa simplemente por su negación, evitando así la introducción de una variable cuyo valor sea la valoración de la proposición. El uso del concepto de variable en la teoría del razonamiento aproximado conduce a tratar dominios que no están al interior del ámbito de la lógica clásica, como es el caso de los problemas que abordan los sistemas expertos difusos o los controladores difusos.

La teoría del razonamiento aproximado permite representar también cuantificadores lingüísticos situados entre el “para todo” y el “existe” clásicos. Esto facilita representar enunciados como “la mayoría de los coches lujosos son caros” o “bastantes electores votaron por la no modificación de la Constitución”. Zadeh, en el artículo mencionado, indica que un cuantificador como “la mayoría” puede ser representado como un subconjunto difuso sobre un universo de discurso. Los cuantificadores aproximados se usan para representar conocimiento en el sentido común. Una extensión interesante de la teoría del razonamiento aproximado es la posibilidad de tratar con ella conocimiento prototípico. Reiter, en el artículo publicado el año 1980 con el título “Una lógica para el razonamiento por defecto”, sugiere una aproximación a la representación de conocimiento de sentido común utilizando reglas por defecto y Yager, en el artículo mencionado, estudia a la representación en el marco de la teoría del razonamiento aproximado. De acuerdo con Reiter, una regla por defecto tal como “típicamente las aves vuelan”, puede ser interpretada de la siguiente manera: Si un objeto es un ave y el conocimiento disponible no es incompatible con que el objeto vuele, entonces se asume que el ave vuela. La lógica binaria puede ser vista como un caso especial de la teoría del razonamiento aproximado en el cual los conjuntos base tienen dos elementos, verdadero y falso, además que los grados de pertenencia se restringen a uno ó cero. La lógica posibilística puede ser vista como una extensión de ésta, en tanto que, aunque se restringen los conjuntos base de valores a dos, se permite que los grados de pertenencia sean números en el intervalo unidad. La lógica difusa extiende la lógica binaria permitiendo su formalización en términos de la teoría del razonamiento aproximado.

¿Apple TV con 4k?

Aparentemente la compañía de la manzana estaría trabajando en una versión mejorada del Apple TV que incluiría soporte 4K. De acuerdo a Bloomberg, Apple podría además añadir un par de opciones más a este dispositivo para que sea una herramienta útil en el hogar. Por ejemplo, el próximo Apple TV podría tener un mando MFi propio. De igual manera, la firma también podría lanzar un altavoz al estilo del Amazon Echo, aunque funcionando con Siri.

El medio también indicó que la siguiente generación del Apple TV tendría un micrófono integrado con un puerto de cable coaxial. El micrófono sería de gran utilidad para que los usuarios controlen el dispositivo hablando con Siri sin necesitar del control. En cuanto al cable coaxial, funcionaría para continuar la lucha entre los canales de cable y tvOS en Estados Unidos.



Con los rumores anteriores y otros movimientos de Apple, todo indicaría que la siguiente generación de Apple TV realmente será interesante. Incluso, hace poco la compañía de la manzana contrató a Timothy D. Twerdahl, director del proyecto de Amazon Fire TV, para que quedara a cargo del departamento de Apple TV. Si estos rumores son ciertos, posiblemente este ejecutivo está trabajando en la actualización del dispositivo, que llegará al mercado a finales de 2017.

Según un informe de la empresa de investigación eMarketer, la cuarta generación de Apple TV ha perdido participación de mercado, desde su lanzamiento en septiembre de 2015. De igual manera, para enero de 2016, sólo el 11,9% de los consumidores conectados a la televisión estaban usando el aparato, en comparación con el 12,5% en el mes en que fue lanzado.

Panasonic amplía su gama de auriculares para 2017

Tras la Panaconvention 2017 de Frankfurt e han dado a conocer algunas apuestas variadas de tecnología de la marca japonesa, como el televisor OLED EZ1000, o la cámara Lumix GH5. Pero hay más propuestas dentro del catálogo de Panasonic, y prueba de ello es la renovada gama de auriculares que Panasonic ha presentado para 2017, y que estarán disponibles en nuestro país durante el año.

Entre los modelos a destacar encontramos los BTS10, de corte deportivo, los HF400B de diadema, o los NJ300B y TCM360 de canal. Por último, destacamos también los de alta resolución HDE3M. Cada uno se adapta a distintos usos, tanto deportivos como de trabajo, o simplemente para caminar por la calle.

BTS10 SPORT

Esta opción está pensada para deportistas. Diseñados para sujetarse bien a las orejas gracias a su ajuste en forma de clip, pesando en total sólo 10 gramos, por lo que también son ligeros.

Tienen una autonomía de cuatro horas y 20 minutos con carga completa, y admiten una función de carga rápida para cargar la batería en 20 minutos. Se pueden adquirir en cuatro colores, blanco, negro, amarillo y azul.

HF400B

Pasamos ahora a la oferta de auriculares Bluetooth de diadema. Con estos HF400B disfrutaremos de una experiencia de audio inmersiva, con bajos profundos y agudos nítidos. La batería recargable permite un total de 20 horas de reproducción continua. Pese a su tamaño, tan sólo pesan 130 gramos, y gracias a su ajuste lateral, puede adaptarse a la cabeza cómodamente. Se pueden encontrar en un único color, el negro.

HDE3M

Estos auriculares con cable están pensados para satisfacer a usuarios exigentes que busquen conseguir una calidad de audio máxima en un producto pequeño, cómodo y fácil de guardar. Para ello, los HDE3M cuentan con controladores HD axiales, y sus altavoces se han mejorado para reducir distorsión y conseguir tanto unos bajos como unos agudos naturales y potentes.

TCM360

Por último, los TCM360 son la segunda apuesta en auriculares de canal con cable de Panasonic. Disponibles en tres colores, negro, blanco y oro rosa, tienen una estructura hermética que bloquea sonidos externos y así poder aprovechar el rango de graves perfectamente. Tienen micro y control remoto, y están diseñados para evitar enredos y ajustarse cómodamente a la oreja.

Google quiere llevar internet a todo el planeta con globos

No es ninguna novedad decir que existen muchísimas regiones del planeta que aún siguen sin poder conectarse a Internet. Google está realizando un gran esfuerzo y dedicando parte de su desarrollo para subsanar este hecho desde hace años. Para ello, está destinando medios en el denominado Proyecto Loon, consistente en una red de globos que cubren muchísimas regiones aisladas del planeta con el fin de llegar a todos los sitios posibles.

En pleno 2017 es un hecho triste que existe más de media población mundial que no puede acceder a la Red de Redes, en muchas ocasiones por temas de ubicación y complejidad debido a la zona rural en que se encuentran.

Google venía pensando en todo esto desde hace mucho tiempo. El lanzamiento oficial del denominado Proyecto Loon tuvo lugar en 2013, como parte de lo que se conocía como Google X (hoy en día llamado X a secas). Desde entonces se están enviando a muchas regiones aisladas estos globos, los cuales viajan sobre el límite con el espacio exterior.

Lo que hace Google es enviar una flota de los citados globos a puntos remotos donde internet no llega, permitiendo que la Red esté accesible en esos lugares. Mediante una serie de lanzadores automáticos, se van enviando globos con una media de 30 minutos de diferencia, controlando y analizando la velocidad del viendo y sus condiciones climáticas y meteorológicas, permitiendo que los globos lleguen con seguridad a los sitios requeridos. Ahora, el proyecto ha evolucionado aún más y se ha ido un punto más allá, con novedades importantes.

Los sistemas de navegación que controlan estos globos han superado las expectativas más optimistas de los propios ingenieros. No obstante, las infraestructuras para permitir el servicio de internet a todo el mundo en cualquier lugar son por ahora insuficientes y es cierto que el acceso universal es algo imposible por ahora. En lo que Google ha trabajado sobre todo es en conectar a las personas que están en regiones remotas o rurales inaccesibles.

En los últimos tiempos, donde se han logrado mejoras, se ha descubierto además que los vuelos de los globos podían ser controlados con más precisión, sobre océanos y continentes aunque era difícil mantenerlos fijos en un solo lugar. Ahora se ha visto que es posible que permanezcan quietos en una zona, a pesar de que haya vientos cerca.

En 2003 se dio por hecho que los globos enviados nunca podrían estar en un solo lugar. Ahora, los avances de los algoritmos en la navegación reflejan que pueden ser enviados a un punto concreto elegido y allí ser sólidos y consistentes durante un tiempo. Se vio que había globos que aguantaron hasta tres meses en el mismo lugar. Después de muchos lanzamientos, todo ha ido mejorando y se ha logrado un sistema de control de altitud mucho más preciso y eficiente. La idea para dar el próximo paso está más cercana: hacer pruebas con usuarios de la vida real y no solo entre los miembros que forman parte del equipo de desarrollo de Loon.

Los datos son demoledores: se han recorrido más de 19 millones de kilómetros en vuelos de prueba. Además, uno de los globos se mantuvo en la estratosfera hasta 190 días.

26 febrero 2017

VIVA contra la violencia en Carnaval



Con el fin de reducir los índices de violencia durante las fiestas de Carnaval, la Fundación VIVA promueve diversas iniciativas en las ciudades de La Paz, Cochabamba, Oruro, Tarija y Santa Cruz de la Sierra, enmarcadas en la campaña “Contra Toda Forma de Violencia”. Entre ellas, se destaca la entrega de 30.000 manillas de seguridad a la Fuerza Especial de Lucha Contra la Violencia (Felcv).

Las manillas llevan grabado el número de la línea gratuita 800 14 0348 para que las personas realicen denuncias de violencia, además de un espacio en blanco para colocar el nombre y teléfono de referencia en caso de extravío o accidente.

VIVA colocará pasacalles con contenido informativo para que las personas tengan presente la importancia de vivir esta fiesta cultural libre de violencia. Se entregará material impreso y se realizará la difusión de la línea gratuita 800 14 0348 en las redes sociales. Esta línea es atendida por la Felcv las 24 horas para atender denuncias.

La directora general de la Fundación VIVA, Claudia Cárdenas, destacó el compromiso de la Fundación con la seguridad ciudadana e invitó a la población a descargar la app Vivo Seguro, creada como herramienta de auxilio inmediato para quienes se comuniquen con la Felcv.

25 febrero 2017

Hay quejas por mal servicio de Tigo

En un sondeo realizado por el periódico El Día a varios usuarios de la telefónica Tigo, se constató más de una molestia por la mala atención al cliente y demoras en la solución a problemas de servicios que ofrece la empresa.

Servicios de internet y Tv cable presentan más fallas. Lorencia Cuéllar utiliza el servicio de Tv cable de Tigo Star desde hace tres meses y asegura que al menos dos veces al día, desde su conexión, la señal de cable desaparece. Pese a la insistencia de llamadas para solicitar un técnico que identifique el problema, la única instrucción que recibió para solucionar la falla fue de apagar y volver a enchufar el sistema. "Ya son tres meses y la respuesta es la misma, apáguelo y vuélvalo a enchufar, quieren justificar el problema diciendo que es por el viento cuando ni siquiera han habido fuertes vientos. Hemos decidido con mi esposo esperar dos meses más, y si las fallas continúan nos vamos a cambiar a otra empresa porque es un riesgo, tengo hijos pequeños y el temor es que al ver como nosotros enchufamos y desenchufamos el conector para que aparezca la imagen, ellos hagan lo mismo y ocurra una desgracia", dijo la usuaria.

Marcelo Vélez, otro usuario de Tigo, también comentó su mala experiencia, desde hace dos meses el paquete de internet módem que adquirió por Bs 195 al mes solo tiene una duración de diez días, cuando antes podía navegar durante el mes completo. "Son más de dos años utilizando este servicio, pero desde hace dos meses ocurren estas irregularidades sin que me den una explicación. Lo único que se limitan a decirme es que consumí todos mis megas. Solicité un extracto de consumo para hacer comprobaciones pero hasta por eso me están cobrando cuando debería ser algo gratuito", expresó molesto.

Richard Tapia, también usuario de Tigo, dijo: "Se demoran hasta tres días en reconectarme el servicio después que realizo el pago de factura retrasada. Según ellos tienen un plazo de 48 horas para reactivar el servicio pero esas son excusas".

Tigo descarta malos servicios. En contraparte, la responsable de comunicación y gestión social de Tigo, Nadia Eid, descartó un mal servicio de la empresa, aludiendo que manejan una gestión de atención al cliente con estándares internacionales, y que las denuncias por consumo en megas y créditos en llamada responden a un consumo desmedido y descontrolado de los usuarios.

¿Puede un robot sustituirte en el trabajo?

"La raíz de nuestros problemas no es que estamos en una gran recesión, o un gran estancamiento, sino más bien en las primeras etapas de una gran reestructuración. Nuestras tecnologías están avanzando, pero muchas de nuestras habilidades y organizaciones están rezagadas. Por lo tanto, es urgente que entendamos estos fenómenos, discutamos sus implicaciones y presentemos estrategias que permitan a los trabajadores humanos avanzar con las máquinas en vez de competir contra ellas".

Esta cita de los investigadores del MIT Erik Brynjolfsson y Andrew McAfee en su libro La carrera contra las máquinas (2011) puede sonar apocalíptica. Pero es que el temor del hombre a las máquinas no es nuevo: es una historia de más de 200 años que la realidad ha confirmado una y otra vez. Y no será diferente en el futuro.

Cuando se habla de robotización inmediatamente vienen a la mente imágenes como el de las películas el Hombre Bicentenario o Terminator. Pero estos no son los robots que han ido desplazando a obreros y trabajadores en muchas industrias.

Son esas máquinas con gigantescos brazos armados que ensamblan autos o equipos pesados presentes en la construcción de grandes obras de infraestructura, e incluso los precisos aparatos para producir los teléfonos celulares. Y por qué no, también son esas lavadoras con diferentes programas de lavar, o la aspiradora inteligente que identifica los tipos de superficies y actúa acorde a ellos.

Si bien la tecnología, en general, ha resultado una bendición para la humanidad, no hay que dudar que sus costos y el impacto en la vida de miles de millones han sido dramáticos. De hecho, los mismos investigadores en su libro "La segunda era de las máquinas (2014)" pronostican que debido a la tecnología, en el futuro millones quedarán sin empleo: "Las máquinas ya no solo realizan tareas repetitivas y rutinarias, sino que cada vez son más capaces de realizar cosas que antes se nos antojaban imposibles como conducir vehículos, diagnosticar enfermedades u ofrecer asesoría financiera", señala McAfee.

Máquinas vs. hombre

Según cifras del informe 2016 de la Federación Internacional de Robótica (IFR en inglés), para el año 2019 el número de robots industriales instalados en el mundo se incrementará a unos 2.6 millones de unidades, es decir, cerca de un millón de unidades más de las que había en 2015, un año récord para esa industria. Al ver el desagregado, cerca del 70 por ciento de los robots están ahora desplegados en los sectores automotriz, electrónica/eléctrico, metales y maquinaria industrial.

La Unión Europea encabeza la lista de regiones donde existe el mayor uso de robots en las industrias: el 65 por ciento de los países con una cantidad por encima del promedio de robots industriales por 10.000 trabajadores están en la zona euro. Le sigue China de cerca, y se pronostica que para 2019, el 40 por ciento del volumen del mercado mundial de la industria robótica se venderá en este país.

Pero como se mencionó antes, los robots no solo están en las industrias. También están cada vez más presentes en los hogares. Siempre según la IFR, la cantidad de robots en hogares domésticos -como por ejemplo los que limpian pisos, cortadoras de césped, limpiadores de piscinas, entre otros- se incrementará a 31 millones entre 2016 y 2019, lo que representa ventas de unos 13.000 millones de dólares en ese periodo.

Es cada vez más habitual que las máquinas puedan realizar tareas rutinarias con mayor rapidez y a un costo menor que los seres humanos, y muchas de las actividades que hoy en día se consideran no rutinarias (como la traducción, la suscripción de seguros o incluso los diagnósticos médicos) en el futuro podrían ser ejecutadas igualmente bien por las computadoras.

En un informe realizado por el jefe de economistas departamento de investigación de Unicredit, Harm Bandholz, y titulado "Las consecuencias económicas y sociales de la robotización" se destaca que aunque la evidencia sobre el impacto del uso de robots en el mercado laboral es aún incipiente "ya existen cada vez más estudios que comienzan a respaldar la idea de que estos aparatos aumentan la productividad, los salarios, e incluso la demanda total de mano de obra, pero, sobre todo, benefician a los trabajadores más calificados", a costa de aquellos que tienen calificaciones y salarios medianos y bajos.

Según datos del Banco Mundial, la proporción de empleos amenazados por la automatización alcanza el 69 por ciento en India, el 77 por ciento en China y nada menos que el 85 por ciento en Etiopía. Si bien no se menciona a América Latina, no hay que negar que esta ola también está impactando a la región.

¿Cómo hacer frente a esta realidad?

Si bien el desplazamiento del empleo y la pérdida de puestos de trabajo provocados por el cambio tecnológico son parte indisoluble del progreso económico, los expertos reconocen que los robots han reducido la necesidad de que las personas realicen tareas arduas, repetitivas o peligrosas. Asimismo, han permitido liberar recursos humanos y financieros que pueden reasignarse a sectores de mayor rentabilidad. Esto es especialmente apreciado en países que envejecen con rapidez o en aquellos donde la población disminuye, o en profesiones donde el personal capacitado escasea. La medicina a distancia y los diagnósticos automatizados, por ejemplo, permiten que los expertos médicos atiendan a muchas más personas, aún a la distancia, en zonas donde faltan doctores.

Pero el problema, como se ve ahora, es que los trabajadores en los diferentes niveles de ingreso y calificación no se benefician en la misma medida, por lo que el resultado inmediato es que la robotización está aumentando aún más la desigualdad en los ingresos.

Los expertos consideran que el acceso a la educación de calidad y el desarrollo de habilidades desde edades tempranas pueden contrarrestar el efecto de los robots en el mercado laboral.

"Tenemos que repensar nuestro sistema educativo. Dado que los robots y las máquinas son capaces de hacerse cargo de un número cada vez mayor de tareas, los seres humanos tienen que centrarse en sus ventajas comparativas, que incluyen las habilidades no cognitivas", afirma Bandholz.

Cotas invita a su museo telefónico



El Museo de Telefonía de Santa Cruz fue inaugurado por la Cooperativa de Telecomunicaciones Santa Cruz recientemente y está habilitado para su exhibición al público en el edificio Tiluchi (calle Tiluchi y av. Paraguá).


Es una muestra permanente con una exhibición cronológica de teléfonos que recorren aproximadamente 100 años de evolución tecnológica, centrales telefónicas de conmutación manual, centrales analógicas usadas el siglo pasado y con las que nació la telefonía automática en Santa Cruz, una variedad de modelos de teléfonos públicos, la colección completa de guías telefónicas de Cotas, además de fotografías y documentos


24 febrero 2017

Targeted Cyber Attack: Anatomía y Protección

El Targeted Cyber Attack (TCA) o Ataque Cibernético Dirigido es una acción que tiene como objetivo una persona o empresa con la intención de robar información o dinero por un largo período. Mientras que el objetivo de un ataque cibernético común es alcanzar el mayor público posible, el TCA dirige sus esfuerzos hacia una única víctima, buscando mantenerse anónimo mientras captura la información.
Muchas organizaciones piensan que nunca sufrirán ataques cibernéticos en su estructura, o, si estos suceden, será solo en un futuro distante. Piensan que el riesgo es propio del negocio y les parecen muy caros los costos de prevención.

En general, piensan así: “eso nunca sucederá con nosotros”, “no tenemos nada que esconder”, “somos muy pequeños para ser objeto de ataques”, “existen empresas mayores y más atrayentes” o “hemos invertido en sistemas de firewall y antivirus que nos protegerán”. Ignorar el riesgo no es la mejor decisión. Es importante para la empresa conocer las amenazas, evaluar la situación e implementar medidas preventivas, pues “peor que enfrentar una amenaza es no estar preparado para la misma”. Según CyberEdge, aseguradora para riesgos cibernéticos, las organizaciones sufren cada vez más ataques. El 89 % de las empresas nacionales relataron que fueron comprometidas por ataques el último año. Aunque las empresas brasileñas hayan sido las mayores víctimas en el período, quienes están más preocupadas con las amenazas futuras son las empresas japonesas, con 78 %.

Para protegerse, es importante conocer al enemigo y el TCA es de difícil identificación. Sus características son: invertir tiempo para permanecer “invisible” mientras obtiene el máximo de información posible, sentir aversión a la publicidad y a la exposición en medios de comunicación, tener un objetivo específico en miras e invertir tiempo en la recolección de datos y la preparación del ataque. Asimismo, cuenta con un proceso organizativo de ingeniería social; se infiltra en la red y roba la información de los servidores y banco de datos; realiza un gran volumen de transferencia de datos a lo largo del tiempo, pero en cantidades pequeñas para no ser notado; y tiene un alcance restricto, esto lleva a que no sean muy efectivos los filtros basados exclusivamente en la reputación.
Normalmente, un TCA exitoso solo es descubierto meses o años después de su inicio. Durante ese período de tiempo, el TCA obtiene millones de registros o desvía sumas de dinero sin ser notado. De esta forma, su identificación demanda conocimiento, planificación, prevención y supervisión.

Cabe resaltar que el TCA difiere del hacktivismo en su objetivo y resultado final. El TCA se preocupa en no ser notado mientras roba información y valores de sus víctimas. Ya el hacktivismo lo que quiere es denegrir la imagen y causar perjuicio a los usuarios mientras actúa.

Técnicas variadas para alcanzar el objetivo
Una variedad de técnicas y herramientas se utilizan para lograr el objetivo del ataque. De forma general, estas técnicas se pueden clasificar en directas (que exploran las vulnerabilidades de la red y del sistema) o indirectas (que utilizan diversas estrategias hasta llegar al objetivo final).
Entre los vectores indirectos, el más utilizado y eficaz es la ingeniería social, que usa la manipulación psicológica, explorando la confianza, el desconocimiento y la curiosidad en el uso de recursos tecnológicos. Otra acción indirecta bastante adoptada es el phishing e-mail, que trata de engañar al usuario con anexos y URL maliciosas. Este ataque ni siempre es de fácil detección porque, en un TCA, el invasor ya posee información de la víctima y la utiliza de forma creativa, explorando intereses personales.

Otro vector es el spear phishing, como es llamado el envío de anexos contaminados por códigos maliciosos. Es común que los usuarios abran los archivos porque los e-mails utilizan temas familiares. Para burlar el sistema de filtrado y el antivirus, en el spear phishing, los invasores sustituyen los anexos por URL de sitios web infectados –ataque conocido como “drive-by download”. De acuerdo con PhishLabs, empresa de seguridad con sede en los Estados Unidos, el 91 % de los TCA usan spear phishing e-mails.

También puede ser utilizado el advanced malware, un sofisticado código malicioso que ejecuta operaciones de forma furtiva en las redes y sistemas, fundamental para el éxito del ataque y la permanencia de modo “invisible” en el ambiente.

Ya los llamados RAT (Remote Access Toolkits) son herramientas y códigos maliciosos desarrollados para atacar vulnerabilidades en ambientes desactualizados.

El waterhole attack (ataque de abrevadero) consiste en la infección dos usuarios de Internet por medio de sitios web legítimos comprometidos con códigos maliciosos. En un TCA, el invasor identifica los sitios web normalmente accedidos, encuentra una forma de infectar estas páginas y espera hasta que las víctimas caigan en la trampa.
El TCA se aprovecha también de que muchos funcionarios poseen dispositivos superiores a los ofrecidos por la compañía y acaban usando sus propios equipos en el lugar de trabajo. El uso de dispositivos personales conlleva riesgos porque no cuentan con el mismo nivel de protección de los equipos corporativos. Conscientes de ello, los atacantes implantan códigos maliciosos que se activarán cuando estos equipos personales se usen externamente, en redes menos protegidas como las residenciales o de uso compartido.

Estrategias para una solución
No existe una solución única eficaz para la protección del ambiente con relación al TCA. Así, se debe crear una estrategia de prevención, detección, análisis y mitigación. Para prevenir el ataque, es necesario realizar entrenamientos de identificación de amenazas con los usuarios, tener una protección avanzada para e-mails con detección de malwares enviados en archivos anexos, verificación en tiempo real de URL infectadas, mantenimiento y actualización constante de los sistemas y equipos, además de configuración y pruebas continuas de las herramientas de protección utilizadas.

La fase de detección tiene como objetivo el monitoreo del ambiente y la identificación del ataque en el menor tiempo posible. Tener indicadores claros de comportamientos fuera de lo común es fundamental para la percepción temprana de un TCA. Cuando se identifica una ofensiva, el primer paso es constatar la fase en que está para tomar medidas de contención, determinando rápidamente el ambiente comprometido para contener inmediatamente la fuga.

Es necesario el trabajo de cuantificar el perjuicio causado y los datos robados para que la empresa establezca estrategias de mitigación de las pérdidas directas e indirectas relacionadas con la marca y los clientes afectados. Es importante reexaminar todo el ambiente para implementar mejoras definitivas que impidan nuevos ataques.
Para evitarlos, las soluciones de Advanced e-mail Gateway Protection con funcionalidades de DLP y Targeted Attack Protection están entre las más efectivas porque la ofensiva indirecta, por mensaje, es una de las más comunes.

Aunque poco se comente o se revele, el TCA es –en realidad– llevado a cabo por organizaciones delictivas cada vez más especializadas. Las compañías de todo el mundo han sufrido ataques dirigidos al espionaje y robo de información con el objetivo de extorsionar dinero o beneficios. El desvío directo de importes de dinero, si bien no es la meta más común, también figura entre las principales preocupaciones de una ofensiva de este tipo.

Ignorar el riesgo de ser objeto de un TCA es desconsiderar el real valor del conocimiento y de los secretos industriales que apoyan el crecimiento y el diferenciador competitivo de las empresas. De esta forma, aunque el combate sea complejo, se debe estudiar y estructurar planes que mitiguen las amenazas institucionales. Mediante análisis cuidadosos de riesgo, se puede orientar las inversiones y tomar decisiones correctas. Crear consciencia en el consejo ejecutivo de esta necesidad y definir las acciones para reducir o aceptar este riesgo también son esenciales para una buena gestión de Seguridad de la Información alineada a los objetivos de negocios.

21 febrero 2017

Inteligencia artificial, internet de las cosas y robótica lideran la tecnología




Inteligencia artificial, Internet de las cosas y robótica han dejado de ser una promesa para convertirse en una realidad de negocio y serán las protagonistas de la próxima edición del Congreso Mundial de Móviles (MWC, en sus siglas en inglés) de Barcelona, según la consultora tecnológica Accenture.

El internet de las cosas brillará en tres ámbitos: el coche, la casa conectada -especial relevancia tendrán los asistentes virtuales basados en la voz- y la industria, dijo el director de Accenture Digital, José Luis Sancho.

Al hilo de esta tendencia también se hablará en el MWC, que se celebra la próxima semana en Barcelona, de los riesgos de seguridad y privacidad y de la transparencia de los datos asociados a un mundo lleno de sensores que recolectan información.

Los robots, entendidos como dispositivos con inteligencia para realizar determinadas tareas, y la inteligencia artificial estarán muy presentes en la feria. En especial, destacó Sancho, las máquinas que aprenden por sí mismas a partir de algoritmos ("machine learning").

La oferta de servicios a través de "chatbots" -programas de conversación basados en inteligencia artificial- las transacciones seguras realizadas gracias a la tecnología "blockchain" y el uso de plataformas tecnológicas para propiciar la movilidad y la eficiencia dentro de las empresas serán otros de los temas candentes, a juicio del directivo.

Si en sus orígenes fueron las redes el tema principal del MWC y en los últimos años el foco derivó hacia los dispositivos tecnológicos, para 2017 Accenture prevé que el Congreso se convierta en el evento de referencia del mundo digital, en una "feria multisectorial" en la que conocer cómo van a evolucionar los distintos negocios en el ámbito digital.

No se trata de prototipos, sino de casos concretos de aplicación: en el Congreso podrá verse cómo la tecnología entra en los procesos de negocio de sectores tan diferentes como la banca, los viajes, las fábricas o el sector energético.

La consultora llevará al Congreso de Móviles medio centenar de proyectos, entre los que destacan el sistema de telemetría y análisis de datos en tiempo real de la moto de Jorge Lorenzo o un proyecto de mina conectada en la que todo -desde los trabajadores a las máquinas- está controlado por sensores para hacer un seguimiento de la productividad y el volumen de extracción.

Accenture también exhibirá un holograma interactivo de la ciudad de Barcelona que mostrará en tiempo real el comportamiento de la ciudad con variables como la recogida de basuras, el tráfico, las emergencias, la contaminación acústica o los parámetros ambientales.

(ISC)² y el Center for Cyber Safety and Education presentan estudio sobre la nueva generación de profesionales de Seguridad de la Información

El estudio revela que, hasta el 2022, habrá falta de hasta 1 millón 800 mil de estos especialistas en el mercado de trabajo
En convenio con (ISC)²® y con la empresa de consultoría Booz Allen Hamilton, el Center for Cyber Safety and Education™ presenta el análisis Millennials: la próxima generación de profesionales de Seguridad de la Información, parte del Global Information Security Workforce Study – GISWS (Estudio Global de la Fuerza de Trabajo en el área de Seguridad de la Información).

El estudio se realizó con más de 19 mil profesionales que se desempeñan en el área a nivel mundial y muestra que las empresas deben centrarse en la generación Millennial para atender una escasez emergente de especialistas en Seguridad de la Información. Hasta el 2022, se calcula que habrá un millón 800 mil vacantes en esta área, un aumento del 20 % con relación a las proyecciones del GISWS del 2015.
“Hace años que nuestros estudios vienen señalando la falta de mano de obra en Seguridad de la Información, pero esta es la primera vez que analizamos las respuestas de los Millennials con más profundidad. Observamos que ellos buscan factores diferentes relacionados con la satisfacción en el trabajo y la carrera. Ellos realmente son el futuro de la ciberseguridad y creemos que esta generación será la que solucione la falta de profesionales en el área”, explica David Shearer, CEO de (ISC)².

Entre los principales resultados obtenidos, los análisis demuestran que los Millennials desean un crecimiento que incluya programas de orientación y liderazgo, el pago por participación en eventos corporativos, programas de capacitación y certificaciones, y asociación a entidades profesionales remuneradas por la organización. Ellos son la generación con mayor tendencia a cambiar de empleo y están más propensos a tornarse consultores de seguridad que a asumir funciones de gerencia en una organización. Además de ello, valoran las oportunidades de desarrollo de la carrera y están más dispuestos a pagar por ellas, en caso de que la empresa no las ofrezca. Para los profesionales de esta generación, el salario no es prioridad. Sin embargo, ellos recibirán aumentos mayores en comparación a los colaboradores de otras categorías de edad.

“Los Millennials ya son y continuarán a ser fundamentales para el éxito de nuestra defensa cibernética colectiva”, explica Angela Messer, Vicepresidente Ejecutiva y Líder de Innovación Cibernética y Desarrollo de Talentos de Booz Allen. “Para atraer, retener y capacitar a esta generación, vemos claramente en el GISWS que nuestra industria debe ser innovadora no solo en sus servicios, sino también en cómo ayudar al desarrollo de los Millennials.”

El Global Information Security Workforce Study es uno de los mayores estudios de su género y tiene como objetivo ofrecer un amplio entendimiento de las escalas salariales, disparidades de competencias, necesidades de entrenamiento, prácticas de contratación corporativa, presupuestos de seguridad, desarrollo profesional y actitud corporativa en Seguridad de la Información que las organizaciones utilizan en la contratación de gerentes e profesionales del sector. El análisis completo sobre la generación Millennial está disponible en https://iamcybersafe.org/research_millennials/.

Acerca del Estudio Global de la Fuerza de Trabajo en Seguridad de la Información del Center for Cyber Safety and Education
El análisis “Millennials: la próxima generación de profesionales de Seguridad de la Información” es patrocinada por Booz Allen Hamilton y es la primera divulgación de resultados del Estudio Global de la Fuerza de Trabajo en Seguridad de la Información de una serie que será divulgada por el Centro en 2017 como parte del nuevo formato bianual del GISWS. Se anunciarán otros informes durante el año con nuevas y exclusivas informaciones acerca de la fuerza de trabajo en Seguridad de la Información. El próximo estudio, centrado en las mujeres en ciberseguridad, se divulgará en marzo.

20 febrero 2017

Sennheiser HD 4.50, auriculares cerrados plegables

La serie HD de auriculares Bluetooth del fabricante germano Sennheiser permite disfrutar de modelos de tamaño grande (cubren las orejas totalmente), cerrados (aislan del ruido ambiente) y plegables para poderlos transportar más cómodamente, y con hasta 25 horas de autonomía. Estos Sennheiser HD 4.50 BT llevan además un sistema de cancelación de ruido (a costa de reducir su autonomía e incrementar el precio) se pondrán a la venta próximamente.

Al contrario que los auriculares de menor tamaño que solamente apoyan sobre los pabellones auditivos (conocidos como supra-aurales) estos altavoces tienen copas de mayor tamaño que cubrirán totalmente nuestras orejas (de ahí su nombre: circumaurales). Las almohadillas realizadas en material de buena calidad, y con un diseño muy ergonómico, apoyarán así en nuestra cabeza y permitirán disfrutar de mayor comodidad la usarlos.

Como además estos auriculares son cerrados, y gracias al buen ajuste de las almohadillas alrededor de los oídos, ofrecen un buen nivel de aislamiento de los ruidos ambiente en nuestro alrededor. También ofrecerán aislamiento de nuestra música hacia el exterior, algo que puede ser importante si los queremos usar cuando no estemos solos.

Un buen aislamiento acústico “físico” siempre es conveniente, porque el modelo superior (HD 4.50) dispondrá del sistema de cancelación de ruidos, pero a costa de un precio superior y de recortar la vida de la batería (de 25 a 14 horas estimadas).

Como es habitual en los modelos Sennheiser, los HD 4.40 BT son compatibles con la tecnología Bluetooth de última generación, incluido aptX, el siempre muy recomendable sistema para transmitir música de forma más fiel y libre de la compresión debida a la transmisión sin ese protocolo. Merece la pena al comprar auriculares de este tamaño y categoría poderles sacar todo el partido, sin cuellos de botella.

Además de la libertad de movimientos que implican unos auriculares Bluetooth, pues permiten escuchar música sin depender de por dónde pasa el cable ni dónde está el celular. El acoplamiento con el móvil es muy fácil gracias a que cuenta con tecnología NFC (comunicación por cercanía).

La respuesta en frecuencia de los auriculares alcanza desde tan bajo como 18 Hz (aseguran un buen grave) hasta 22 kHz (no faltarán detalles en agudos), y pueden alcanzar unos considerables 113 dB de presión máxima en modo pasivo (conexión por cable a una fuente o amplificador), con una distorsión armónica inferior al 0’5 por ciento (medida a 1kHz y con presión de 100 dB). La batería incluida es de Litio Polímero.

¿Cuál es la diferencia cuando nos dicen 64 bits o 32 bits?

Elegir un procesador o un sistema operativo no es una tarea sencilla, especialmente cuando comienzan a surgir términos técnicos.

Al instalar un sistema operativo tienes la opción de usar la versión de 32 o de 64 bits. Al comprar una CPU o un smartphone, descubres que existen procesadores de 32 y 64 bits.

Los bits de un procesador fijan varias limitaciones, como la cantidad de memoria a la que puedes acceder, o la velocidad de procesamiento.

El uso de procesadores de 64 bits en los smartphones es reciente. Se estrenaron con el iPhone 5S y su procesador A7, en 2013. Los principales fabricantes como Qualcomm o Samsung también disponen de procesadores móviles de 64 bits.

¿Cuando vas a comprar un smartphone o una computadora y podemos elegir entre un procesador de 32 o 64 bits, cuál debemos escoger ?

Los procesadores de 32 bits son más baratos y consumen menos, pero también suelen ser menos potentes

Los procesadores de 32 bits sólo pueden direccionar 4 GB de memoria. No pueden usar más de 4 GB de RAM directamente y en muchos casos no pueden manejar ficheros de más de 4 GB

Los procesadores de 64 bits disponen de instrucciones específicas de 64 bits. Ejecutan los programas más rápido si el software está diseñado para usar código de 64 bits

En el entorno móvil, las CPUs de 64 bits puede manejar más eficientemente la encriptación y gestionan mejor la batería

Un procesador de 64 bits teóricamente es más potente y versátil que uno de 32 bits. Pero en la práctica sólo habrá diferencias si el software aprovecha sus ventajas. Por tanto, si hemos adquirido un procesador de 64 bits, ya sea en la computadora o el smartphone, para obtener mayor provecho debemos asegurarnos de que tanto el sistema operativo como las aplicaciones que utilizamos, son de 64 bits.

Cuando compras un smartphone ya viene con la versión de 64 bits de Android o iOS. En el caso de una computadora debe asegurarse de que instala la versión de Linux o Windows correcta. La versión en disco de Windows 10 siempre incluye los discos de 32 y 64 bits, y lo mismo ocurre con la versión de descarga. Un procesador de 64 bits puede funcionar con un sistema operativo o software de 32 bits, pero no aprovechará todas sus funciones.

Tenga en cuenta que un sistema operativo o procesador de 64 bits puede usar software de 32 bits, pero no al revés: los programas de 64 bits no funcionarán en un sistema de 32 bits.

Lenovo ThinkPad P51s, P51 y P71

El fabricante de computadoras Lenovo ha presentado tres nuevos equipos portátiles dirigidos al sector profesional. El Lenovo ThinkPad P51s, ThinkPad P51 y ThinkPad P71 son portátiles con las que podremos tener pantallas con resolución 4K, procesador gráfico Nvidia Quadro y los últimos procesadores de Intel.

LENOVO THINKPAD P51S

El ThinkPad P51s, ha sido diseñado con la portabilidad en mente. Por ello, es el equipo más pequeño y ligero de los tres. Incluye conectividad Thunderbolt para poder conectar mediante un solo cable todo tipo de dispositivos externos. Además, en su parte trasera encontramos una batería reemplazable en caliente, lo que le da una movilidad prácticamente ilimitada. El ThinkPad P51s tiene unas dimensiones de 36,58 x 25,28 x 2,02 centímetros, con un peso de 1,36 kg.

En cuanto a sus características técnicas, tenemos un procesador Intel Core i7 de séptima generación que viene acompañado de hasta 64 GB de memoria RAM DDR4 a 2.133 MHz. Del apartado gráfico se encarga una Nvidia Quadro M520M. Como almacenamiento encontramos un disco duro SSD de 1 TB y un disco duro HDD de 1 TB. En cuanto a la pantalla, podremos elegir entre resolución Full HD y resolución 4K UHD. El ThinkPad P51s ofrece también una buena conectividad, con tres puertos USB 3.0, un puerto USB Tipo-C (Thunderbolt), un puerto HDMI 1.4 y una conexión Ethernet Gigabit.

LENOVO THINKPAD P51

El ThinkPad P51 es ligeramente más grande y potente que su hermano pequeño. Tiene una potencia gráfica unas 2,5 veces superior al ThinkPad 51s. Además, puede albergar unidades SSD más grandes y memoria RAM más rápida. Eso sí, este modelo no tiene la batería extraíble que incorpora el modelo más pequeño. Las dimensiones completas del ThinkPad P51 son 37,74 x 25,23 x 2,59 centímetros, con un peso de 2,72 kg.

Para mover este equipo podremos elegir entre un procesador Xeon E3-v6 o un Intel Core i7 de séptima generación. Acompañando al procesador tendremos hasta 64 GB de memoria RAM DDR4 a 2.400 MHz. Del apartado gráfico se encarga una NVIDIA Quadro M2200M. Y el almacenamiento estará formado por un disco duro SSD de 2 TB y un disco duro HDD de 1 TB.

LENOVO THINKPAD P71

El ThinkPad P71 es el equipo más grande, más potente y más pesado de los tres. El equipo incorpora una pantalla de 17 pulgadas y la gráfica más potente que podemos encontrar hoy en día en estaciones de trabajo. Tanto es así, que el equipo está preparado para la realidad virtual. El ThinkPad P71 tiene unas dimensiones de 41,6 x 27,55 x 3,15 centímetros, con un peso de 3,44 kg.

Como procesador podemos elegir entre un Xeon E3-v6 o un Intel Core i7 de séptima generación. Acompañando a este procesador tendremos hasta 64 GB de memoria RAM DDR4 a 2.400 MHz. Del apartado gráfico se encargará una NVIDIA Quadro P5000M y, en cuanto a almacenamiento, tendremos un disco duro SSD de 2 TB, un disco duro HDD de 2 TB y la posibilidad de incluir o un lector óptico u otro disco duro de 1 TB.

En cuanto a la autonomía, el ThinkPad P71 incorpora una batería de 96 WHr. La pantalla se podrá elegir entre resolución Full HD y 4K UHD. El apartado conectividad queda cubierto por cuatro puertos USB 3.0, un puerto Thunderbolt 3, un puerto HDMI 1.4 y un puerto Ethernet Gigabit.

Segunda Parte Abogado robot

En la revista Expansión Jurídica, en el artículo publicado el año 2016 con el título “La inteligencia artificial revoluciona las firmas legales”, se menciona que todos los humanos cuentan con robots que les ayudan a llevar a cabo las labores diarias de manera más eficiente y rápida. Se trata de la película de ciencia ficción “Yo robot”, cuyo argumento, sin embargo, ya se está empezando a hacer realidad en el sector jurídico. Después de años en los que todos los gurús del management y sólo un número reducido de abogados hablaran de la necesidad de apoyar el trabajo jurídico en soluciones basadas en la inteligencia artificial, ahora se está produciendo un cambio en el modelo de negocio enfocado a ganar competitividad. Para ponerse al día, los grandes despachos de abogados internacionales se encuentran firmando acuerdos con grandes empresas, start-up y consultoras tecnológicas, que están desarrollando herramientas ad hoc para el sector jurídico. Poco a poco, se están lanzando nuevos proyectos, liderados en su mayor parte por profesionales ajenos al mundo del Derecho, que pretenden que la tecnología supere los procesos rutinarios que, hasta hora, ocupan buena parte de las horas de, sobre todo, los abogados más júnior.

En el artículo de IBM, publicado el año 2016 con el título “IBM Watson: La tecnología cognitiva que abre una nueva era de la computación”, se señala que durante los últimos años se han popularizado los dispositivos móviles inteligentes, las redes sociales y la Internet de las Cosas. Esta tecnología genera cada día dos mil quinientos millones de gigabytes de datos. Esto es la misma cantidad de información que si se repartiera ciento setenta periódicos cada día a cada mujer, hombre o niño de este planeta. Toda esta información, en todos los formatos posibles: vídeo, audio, texto en libros, en posts, en blogs, en redes sociales, en bases de datos de empresas, en sensores en la calle y otros, requiere de herramientas analíticas capaces de analizar su enorme cantidad y variedad de formatos. Esto es solo posible con la computación cognitiva, porque hasta ahora los sistemas tradicionales solo podían analizar la información estructurada y almacenada en las enormes bases de datos empresariales. Sin embargo, los sistemas cognitivos tienen nuevas capacidades que les permiten ir más allá: (1) No se programan como las computadoras actuales. (2) Entienden el lenguaje natural de las personas. (3) Son capaces de analizar imágenes médicas. (4) Son capaces de analizar la información de la Internet de las Cosas. (5) Son capaces de aprender de la información que van captando. Gardner, en el libro publicado el año 1987 con el título “La nueva ciencia de la mente: Historia de la revolución cognitiva”, señala que la ciencia cognitiva es un campo interdisciplinario, de base empírica, preocupado por el estudio de la naturaleza de la mente humana. En ese estudio también están comprometidos aspectos epistemológicos, motivo por el cual dicho autor definió la ciencia cognitiva “como un empeño contemporáneo de base empírica para responder a interrogantes epistemológicas de antigua data, en particular los vinculados a la naturaleza del conocimiento, sus elementos componentes, sus fuentes, evolución y difusión”

En el artículo de la red de la madre naturaleza, publicado el año 2012 con el título “7 supercomputadoras que cambian el mundo”, se indica que desde el nacimiento de Watson, la asombrosa máquina diseñada por IBM que logra procesar un millón de libros por segundo y que ha sido participante en el programa de preguntas de los Estados Unidos de América “Jeopardy”, la gran mayoría de quienes tienen relación con temas de Derecho e Informática han imaginado que en algún punto en un futuro no muy lejano esta máquina desplazará a los abogados y el razonamiento que estos realizan. Katz y sus colegas, en el artículo publicado el año 2014 con el título “Predicción del comportamiento de la Corte Suprema de los Estados Unidos: Un enfoque general”, se indica que, aunque Watson ha logrado predecir con un setenta por ciento de fiabilidad los fallos que se emiten en la Corte Suprema de Justicia con los datos con que se ha alimentado su sistema, difícilmente reemplazará a los juristas y su razonamiento. Lo que si será posible, y que al día de hoy ya sucede en algunos aspectos es que Watson logre ayudar a descifrar problemas legales de mayor complejidad, colabore con la necesidad de razonar problemas jurídicos, y permita conocer con mayor habilidad para la explicación de cómo es que quienes interpretan el Derecho logran crear distintas versiones unas de otras.

Zamora, en el artículo publicado el año 2015 con el título “Inteligencia Artificial y tecnologías disruptivas en la aplicación del Derecho”, señala que Ross es un sistema diseñado para facilitar labores a los operadores del Derecho exclusivamente. La diferencia es que Ross se creó con el fin de complementar a Watson en el área del Derecho; mientras que Ross podría ser el abogado al que se llama para que colabores con un problema legal exclusivamente, Watson es el amigo al que se llama para preguntarle cualquier cosa que se pueda imaginar a nivel general. Ross funciona de forma que a través de la inclusión de las bases de datos de miles de documentos legales, estatutos, legislaciones, normativa, doctrina, y jurisprudencia genera una respuesta. A la hora de dar sus respuestas, Ross incluye citas legales de los fallos, indica los artículos para una posterior lectura, e incluso emite una valoración estadística como índice de fiabilidad para que los abogados tengan mayores herramientas a la hora de preparar sus propios casos. Pero Ross no se limita únicamente a esto, al ser un sistema cognitivo computacional tiene una programación que le ayuda a aprender de acciones anteriores, lo que permite que sus dictámenes y decisiones sean modificables en el tiempo y que también tengan un nivel de precisión mayor de acuerdo al uso que se le dé y la información que este analice, permitiendo a los abogados también contar con una herramienta mucho más adaptada a la realidad actual. Asimismo Ross realiza una supervisión continua veinticuatro horas al día sobre nuevas decisiones judiciales que pueden afectar el caso que uno se encuentre llevando y que haya incluido dentro del sistema de Ross. Es entonces Ross, un sistema inteligente que logra aprender y superarse por medio de sus propias actuaciones así como de las actuaciones de terceros que se analizan en su base de datos.

Coffee Lake, la nueva generación de procesadores Intel


Llega la octava generación de procesadores de Intel tomando la posta en la carrera por los nuevos chips. Estos nuevos procesadores llevan el nombre de Coffee Lake, y adelantan su salida para plantar cara a AMD con sus atractivos Ryzen. A Intel no le interesa correr mucho en esta nueva generación de sus procesadores y ha presentado una gama Coffee Lake que, como se sabía, no supondrá una revolución de eficiencia y potencia en nuestros equipos, pero que sentará las bases para la llegada de los Cannonlake a lo largo de 2018.

A punto de concluir la séptima generación de procesadores Intel de Kaby Lake, a mediados o finales de año tendremos en la calle la octava generación en la forma de la familia Coffee Lake con los Intel i7 8000. Los procesadores Coffee Lake están basados en proceso de fabricación de 14nm, igual que los actuales, aunque ofrecen algo más del 15% de mejora de potencia respecto a sus antecesores, la misma mejora que vimos de los Skylake a los Kaby Lake. De esta manera se justifica su salida con un mayor rendimiento del procesador Coffee Lake.

En esta oportunidad se mantiene la Ley de Moore donde apostando por el mismo proceso de fabricación actual de 14nm se mejora un 15%. En otras palabras, un gama alta con un Core i7 de octava generación sería un 15% más potente que su equivalente de los actuales Kaby Lake. No será un cambio mayúsculo, pero sirve de antesala para cuando se lancen los Cannonlake en 2018 que ya apuestan por una fabricación en proceso de 10nm.

Quizás con los prometedores que aparentan ser los nuevos procesadores AMD Ryzen, Intel haya adelantado la disponibilidad de sus Coffee Lake para finales del presente año y así preparar los Cannonlake unos meses antes de lo previsto. Sea como fuere la guerra de los procesadores parece que ha entrado en una interesante batalla con el paso desde los 14nm a los futuros 10nm.

18 febrero 2017

Gorena sale a defender recomposición en Cotes



Acompañado de Wilfredo Tolaba y Jhonny Mendoza, Julio Gorena defendió ayer la legalidad de la recomposición del Consejo de Administración, cuya presidencia ahora detenta.

"Estamos ya ejerciendo la cabeza de esta nueva directiva, que fue recompuesta en base a la Ley General de Cooperativas 356 con su Decreto Supremo 1995 en el punto de la remoción del Consejo de Administración", dijo.

A su vez, Mendoza explicó que el cambio se dio porque "en estos dos últimos meses hubo un ambiente tenso de persecución hasta de amenaza no sólo al sector ejecutivo sino también a los propios consejeros por parte de Ávalos". Anunciaron que la nueva directiva debe ser reconocida por la AFCOOP y la FECOTEL, no así por una asamblea de socios.

Días atrás, Ávalos calificó de ilegal la recomposición y dijo que seguirá en la presidencia hasta que una asamblea de socios decida lo contrario.

17 febrero 2017

Internet está cambiando el funcionamiento del cerebro

Según la teoría de la evolución, el hombre está en constante cambio. Aunque muchas veces sea imperceptible, las modificaciones se van dando en función del entorno.

Con la masificación de Internet, las redes sociales, la telefonía celular, la cotidianidad se ha visto radicalmente modificada durante los últimos años. Por ejemplo, antes recordábamos con facilidad muchísimos números telefónicos, y ahora no es disparatado encontrar hasta nuestro propio número agendado en nuestro celular.

El Prof. Dr. Ricardo Allegri, jefe de Neurología Cognitiva de Fleni e investigador independiente del Conicet, explica este fenómeno: “Las nuevas tecnologías cambian paradigmas. De esta manera, las formas de procesamiento que eran habituales en generaciones anteriores se alteran; es decir, si en el pasado el procesamiento de la información era más lineal, actualmente es en paralelo, por eso una persona puede mantener al mismo tiempo varias conversaciones a través de Twitter, SMS y chat, sin inconvenientes”.

PLÁSTICO COMO EL CEREBRO

“La ortografía y escritura también se están alterando, y esto se evidencia a simple vista cuando se observa cómo escriben los más jóvenes. Esto no quiere decir que estén mermando las capacidades lingüísticas, simplemente hay un cambio comparado con el pasado”, ejemplifica la Dra. Alba Richaudeau, neuropsicóloga del Hospital Austral y del Instituto Argentino de Psicología Aplicada (Iapsa).

Por su parte, la Dra. Tracy Alloway, experta en psicología cognitiva de la Universidad de Stirling, en Escocia, realizó un estudio para analizar el impacto de las aplicaciones tecnológicas en la memoria del trabajo , es decir, los procesos cerebrales involucrados en retener información durante un período corto y cómo manipulamos esta información. Esta memoria, además de almacenar los recuerdos, nos ayuda a utilizarlos para relacionar datos y resolver problemas.

A tal fin, Alloway reunió a 104 estudiantes universitarios y a 284 adultos, de entre 18 y 30 años. A esos dos grupos los dividió en dos equipos. Por un lado, los que llevaban más de 12 meses usando Facebook y por el otro, los que contaban con menos tiempo en esa red social. Se sometió a todos los participantes a distintas pruebas vinculadas con la memoria y el lenguaje. Los resultados obtenidos indican que los del primer grupo tuvieron una mayor puntuación en todas las pruebas en comparación con los del segundo.

Además, Alloway está analizando el impacto de aplicaciones populares como YouTube y Twitter en la memoria de trabajo. Según los primeros resultados del estudio, tales aplicaciones estarían disminuyendo dicha habilidad: “Mis conclusiones indican que estas herramientas podrían estar perjudicando las capacidades del ser humano, que existe la posibilidad de que este tipo de tecnología pueda dañar nuestra memoria de trabajo ya que nos insta a realizar actividades muy breves y cortas. Con Twitter, que se basa en mensajes de 140 caracteres, utilizamos muy poca información en cada mensaje. De esta manera no estamos usando la memoria ni la capacidad del lenguaje tal como lo hacíamos en el pasado, y lo mismo sucede con el uso de los mensajes de texto. Por otro lado, cuando una persona está usando Facebook tiene que tener en cuenta la nueva información de su amigo (que sería el estado de actualización), y descartar el conocimiento previo acerca de dicha persona. De esta manera es posible que el acto de usar Facebook sirva para aumentar las capacidades cognitivas como la memoria de trabajo y el coeficiente intelectual verbal”, sostiene.

Con respecto a estas conclusiones, el médico de Fleni advierte: “Si uno evalúa las funciones cognitivas en forma aislada, puede decir que el impacto es positivo o negativo. Por ejemplo, si analizo el efecto de los buscadores de Internet puedo afirmar que alteran de alguna manera nuestro cerebro, ya que la memoria episódica (que es un sistema de memoria explícita y declarativa que se utiliza para recordar experiencias personales enmarcadas en nuestro propio contexto, como es el hecho de recordar números de teléfonos) se vuelve menos efectiva que antes, pero si lo analizo en el nivel global, sin duda se trata de un impacto positivo, porque rescato que las redes sociales como Facebook nos facilitan la memoria operativa porque nos permite interrelacionar situaciones, mientras que Twitter, por sus características de instantaneidad y linealidad, pone al cerebro en contacto con infinidad de personas que discuten una misma información”.

En este sentido, una investigación publicada en la revista Science a mediados de 2011 sugiere que cuando las personas confían en tener acceso futuro a la información tienen menor recuerdo de los datos, pero mayor de la fuente de esa información. Este estudio asegura que Internet se ha convertido en la fuente primaria de memoria externa. Al respecto, el experto de Fleni opina: “Estamos ante un problema si la actividad que antes tenía el cerebro ahora se la delegamos a los aparatos, dejando al órgano inactivo. Pero si descargo parte de mi memoria en Internet para poder usar mis capacidades para interactuar y procesar diversas informaciones, entonces el efecto es positivo. Antes teníamos una capacidad mucho más limitada para ubicar y manejar información. Ahora tenemos más acceso y mayor capacidad para procesar y relacionar mucha información. Definitivamente, no es que el cerebro deja de trabajar, sino que lo hace de otra manera”.

EFECTO GOOGLE

Los motores de búsqueda tienen un impacto fundamental en el funcionamiento de nuestro cerebro. Los expertos denominan Efecto Google al fenómeno por el cual la población ha comenzado a utilizar Internet como su banco de datos. De esta manera, las computadoras y los buscadores se han convertido en una especie de sistema de memoria externa al que puede accederse a voluntad del usuario y al que la memoria humana se está adaptando.

“Este alejamiento de la memorización en última instancia puede ayudar a la gente a mejorar su comprensión, porque la memoria es mucho más que la memorización, y el Efecto Google nos permite liberar más espacio en nuestros cerebros para orientarlo más al procesamiento de información”, asegura Alloway.

“Está claro que hoy, el Efecto Google es la forma actual de acopio de datos. Si bien puede verse como detrimento para el ejercicio de la memoria, desarrolla otras áreas como la creatividad y asociación rápida, y la posibilidad de realizar lecturas simultáneas. El acceso instantáneo a la información variada permite la comparación, la asociación de ideas, y estimula la flexibilidad cognitiva mediante la utilización de juegos y programas informáticos. El cerebro tiene muchas funciones, una es la memoria. Si bien ésta es la que parece descansar en el nuevo escenario, otras como la rapidez visual y motora, la deducción, la concentración y la atención utilizadas en Internet son propiciadas como una forma de gimnasia cerebral”, destaca la Dra. Marcela Cohen.

MENTALMENTE SOCIAL

Casi el 40% de los argentinos tiene una cuenta en Facebook, según un reciente estudio de la consultora eMarketer, que vaticina para los siguientes años existirán 17 millones de personas registradas en esta red social. Con estos datos, el país se coloca como el tercero a nivel mundial con mayor penetración y como líder en América latina.

“Hay evidencia de que los individuos que están más conectados socialmente pueden retrasar la pérdida de memoria en la edad avanzada”, dice Alloway, y explica que, por ejemplo con el uso de Facebook, la memoria de trabajo puede ser estimulada y mejorada a cualquier edad, obteniendo un impacto enorme en las capacidades cognitivas y de aprendizaje.

El investigador Ryota Kanai, del Instituto de Neurociencias Cognitivas del Colegio Universitario de Londres, lleva tiempo investigando el funcionamiento del cerebro. Junto a su equipo encontraron que existe una relación directa entre el número de amigos que una persona tiene en Facebook y el tamaño de ciertas regiones del cerebro, lo que eleva la posibilidad de que el uso de redes sociales pueda cambiar este órgano.

Para llegar a esta conclusión escanearon el cerebro de 125 estudiantes universitarios usuarios de Facebook y compararon los resultados con el tamaño de sus grupos de amigos, tanto en la red como en el mundo real. Entrevistado por La Nacion, explica: “Concluimos que cuantos más amigos tenía una persona en esta red social, mayor era su volumen de materia gris en cuatro regiones del cerebro, entre ellas la amígdala, asociada a la respuesta emocional y la memoria, así como otras zonas clave para identificar las señales que se producen durante la comunicación con otras personas”.

El espesor de la materia gris en la amígdala también se vinculó con el número de amigos que tenía la gente en el mundo real, pero el tamaño de las otras tres regiones parecía estar correlacionado sólo con las conexiones online.

“Creo que la razón por la cual se encontró dicha correlación entre el número de amigos de Facebook y lo que sucede en varias regiones del cerebro tiene que ver con el impacto de la actividad social online de las personas, que podría reflejar su nivel de sociabilidad general o de extroversión. Las redes sociales son enormemente influyentes, pero todavía conocemos muy poco sobre el impacto que tienen en nuestros cerebros”, reconoce Kanai, y agrega que a pesar de los estudios realizados, hasta ahora no es posible afirmar si tener más contactos en Facebook hace más grandes determinadas partes del cerebro, o si algunas personas están simplemente predispuestas para tener más amigos.

16 febrero 2017

Cassie, robot que camina en cualquier terreno



Agility Robotics, una división de la Universidad Estatal de Oregon (EEUU), presentó a Cassie, un particular robot bípedo que puede desplazarse sobre cualquier tipo de superficie, sorteando los accidentes geográficos del camino y similares.

El equipo de desarrolladores se centró en hacer un robot estable, resistente y capaz de aguantar situaciones adversas.

Las patas del robot Cassie tienen tres puntos de anclaje que le dan una flexibilidad muy parecida a la de la pierna humana y más estabilidad.

El robot puede ponerse de pie, en cuclillas, balancearse y caer bien sin romperse. Eso es un gran avance en comparación con los robots que se habían construido hasta ahora.

El sistema se basa en componentes que imitan a los músculos humanos, como una cadera con tres grados de libertad, la cual sirve como punto de equilibrio y articulación principal. Otro factor importante es que los tobillos cuentan con su propia motorización y son independientes, lo que hace que no siempre se requiera que las dos patas estén en contacto con la superficie, teniendo así un balance único que lo hace mantener el equilibrio en todo momento.

Sus creadores mencionan que este tipo de robots podrían tener cabida en una amplia gama de servicios, ya que servirían como base para la creación de robots de búsqueda y rescate, o como plataforma para crear prótesis o exoesqueltos, e incluso se cree que podrían servir como mensajeros entregando paquetes o comida.

Para desarrollar a Cassie, el equipo se basó en un robot bípedo previo llamado Atrias, un proyecto creado por la Universidad Estatal de Oregón. Los ingenieros que diseñaron Atrias se inspiraron en las patas de las aves para lograr que el androide pudiera caminar de forma rápida y estable, y que además pudiera resistir impactos y empujones sin caerse.

"Atrias tenía motores que funcionaban el uno contra al otro, haciéndolo ineficiente", explica Jonathan Hurst, jefe de Agility Robotics.

"Con Cassie hemos solucionado este problema y hemos añadido la dirección, los pies y un sistema de sellado, por lo que ahora puede funcionar en el exterior, bajo la lluvia y la nieve, mientras continuamos con nuestras pruebas", explicó.

El equipo también consiguió reducir el peso de Cassie aproximadamente a la mitad que su predecesor.


Pugna por presidencia de Administración en Cotes



Leonardo Ávalos afirmó ayer que sigue siendo presidente del Consejo de Administración de COTES y que sólo una asamblea de socios puede definir su permanencia o no en ese cargo.

La recomposición de la directiva se llevó a cabo en la sesión del pasado martes, cuando Julio Gorena consiguió el apoyo de los demás consejeros para alcanzar la Presidencia de Administración.

Ávalos fue posesionado en diciembre tras obtener el apoyo mayoritario de sus colegas. Poco después empezaron a surgir cuestionamientos a su gestión, atribuyéndole incluso un daño económico por algunas decisiones que asumió.

Ávalos dijo que para inculparlo se manejaron mentiras, calumnias e injurias.

Explicó que según el asesor jurídico de COTES la recomposición o remoción de la directiva no está contemplada por ninguna ley, decreto supremo, estatuto o reglamento.

"Creo que en este aspecto no es legal esa remoción porque nosotros fuimos elegidos en una elección y posesionados en una asamblea ordinaria de socios", dijo.

Los consejeros convocaron para este 23 de febrero a una asamblea, donde se pondrá en consideración este tema.

Oruro Municipio y Viva trabajarán en promoción y aspectos de prevención en el Carnaval

La Alcaldía y la empresa Nuevatel PCS con la fundación Viva, firmaron una alianza estratégica para llevar adelante un trabajo de promoción y difusión del Carnaval, que a su vez permita desarrollar tareas de prevención y seguridad evitando situaciones de riesgo, hechos delictivos, accidentes o extravío de menores de edad.

Ya son varias gestiones que el Gobierno Municipal viene trabajando en coordinación con la Fundación Viva. Para esta gestión se tiene como misión el fortalecer la promoción y difusión turística del Carnaval, además de considerar todos los elementos de información que se manifiestan en esta expresión folklórica religiosa única en el mundo.

Así también, es importante destacar tareas de responsabilidad social haciendo que el espectador, visitante, danzarines y la colectividad sean parte de la seguridad para un carnaval sin violencia, ni excesos.

"El Gobierno Municipal de Oruro va a prestar toda la colaboración necesaria, para que esto nos permita llevar adelante un plan y un proyecto de socialización de aquellas actividades de índole turístico y social, que van a estar enmarcados a través de la empresa", afirmó Fabricio Cazorla, secretario municipal de Cultura del GAMO.

A través de la empresa Nuevatel, se dará a conocer todas las actividades que hacen al Carnaval en su reconocimiento como Obra Maestra del Patrimonio Oral e Intangible de la Humanidad, no solo en cuanto al Sábado de Peregrinación, Domingo de Carnaval y el día lunes, Día del Diablo y el Moreno, sino también, las actividades preparatorias y características que se van a ir desarrollando hasta el carnaval mismo.

En cuanto al ámbito preventivo, se trabajará con material visual en temas de seguridad ciudadana, consumo excesivo de alcohol, violencia, conservación del hábitat y especies en peligro de extinción, que será realizado en coordinación con la Policía Nacional y la Dirección de Medio Ambiente.

"Hemos creado las herramientas suficientes, tenemos una línea gratuita 80014-0348 que es atendida las 24 horas por la Fuerza Especial de Lucha Contra la Violencia (Felcv), y lo importante es que la población la conozca. Tenemos una aplicación ´Vivo Seguro´ que es de descarga gratuita, y las llamadas también son gratuitas para poder comunicarse con el módulo policial más cercano en caso de algún tipo de inseguridad", indicó Claudia Cárdenas, directora ejecutiva de la Fundación Viva.

En otras acciones, se efectuará la distribución de 3.000 manillas para que los niños menores de 8 años puedan contar con información referencial de los tutores o padres de familia, en el posible caso de extravío a lo largo de la ruta del Carnaval.

Denuncian que la infidencia causaría quiebra de Tv Cable

Walter Jallasa, dimitió a la gerencia de la Cooperativa de telecomunicaciones Potosí porque, según él, no quiere ser cómplice de la quiebra del servicio de Tv Cable de Cotap por una supuesta infidencia de datos que hizo un consejero de vigilancia.

Dijo que se aleja del cargo porque un consejero develó la cantidad de socios de la cooperativa en un encuentro nacional, lo que ocasionó que Cotap sea sometido a una auditoría de parte de la señalera Discovery.

Tras culminar la auditoría, la señalera decidió ajustar el precio del servicio en 300.000 dólares la mensualidad por los siete canales que ofrece en la grilla de Tv Cable.

"Es realmente delicado porque puede llevar inclusive a la quiebra en el servicio de Tv Cable, y yo como gerente no puedo asumir esa responsabilidad porque sería cómplice", afirmó.

Lamentó que desde la gerencia administrativa no se colabore en los emprendimientos que realiza la cooperativa porque se frenan muchos trámites.

Por su parte, el dirigente del sindicato de trabajadores de Cotap, Javier Rivamontan, dijo que se declararon en estado de emergencia y no descartan asumir acciones contra el infidente.



Coteor no transmite partidos de la liga por factor económico


Según explicó el presidente del Consejo de Administración de la Cooperativa de Telecomunicaciones Oruro Ltda. (Coteor), Hjalmar Portillo, el motivo para la no transmisión de los partidos del campeonato Apertura de la Liga Profesional del Futbol Boliviano, se debe exclusivamente al tema económico, pues la empresa que oferta el servicio estaría pidiendo un costo no acorde a la realidad de Coteor.

"En el tema de transmisión de partidos de la Liga, lo que está haciendo el Consejo de Administración es buscar una estrategia para generar un costo más acorde y adecuado a las posibilidades de la cooperativa", indicó Portillo.

La empresa LQ Sport Right, sería la entidad que monopoliza el derecho de transmisión de los partidos a nivel nacional, motivo por el cual Coteor no puede buscar otra empresa que brinde este servicio.

"Los costos que presenta la empresa que se ha adjudicado los derechos de transmisión está generando una propuesta alta, desde nuestro punto de vista, y es eso que se quiere negociar", aclaró el presidente del Consejo de Administración.

Para esta gestión LQ Sport Right habría pedido alrededor de 265 mil dólares para la transmisión de los partidos del campeonato Apertura y Clausura, motivo por el cual las autoridades de la cooperativa continuarían en tratativas para la rebaja en el costo.

Coteor dejó de transmitir las tres primeras fechas del campeonato Apertura de la Liga y según explicó Hjalmar Portillo "una más todavía no se va a transmitir, hasta que haya una mejor oferta de la empresa".

Respecto a algunas cuestionantes de los socios, sobre la existencia de una deuda con la empresa, aclaró que para la transmisión de los partidos de la Liga primeramente se realiza el pago correspondiente, por lo que esa inquietud quedó desechada.

El Parlamento Europeo pide que los robots tengan un "botón de la muerte"



El Parlamento Europeo (PE) quiere que los robots del futuro en la Unión Europea (UE) estén equipados con un "botón de la muerte" que permita desconectarlos si amenazan la vida de un ser humano.

Así lo recoge una resolución aprobada este jueves (con 396 votos a favor, 123 en contra y 85 abstenciones) que reclama a la UE una legislación adaptada para un futuro en el que la inteligencia artificial tendrá un papel protagonista, y con la que se invita a la Comisión Europea (CE) a preparar una propuesta que dedique especial atención a los aspectos éticos de la robótica.

Hasta ahora la UE solo cuenta con ciertas normas orientadas a la estandarización de patrones industriales allí donde se emplea la robótica, pero carece de leyes que regulen la interacción social entre seres humanos y autómatas.

Los eurodiputados no quieren poner obstáculos a una tecnología con amplio potencial, pero exigen que su vertiginoso desarrollo vaya arropado por un marco normativo que se preocupe por "la seguridad, la privacidad, la integridad, la dignidad, la autonomía y la propiedad de los datos", señala el texto, que no tiene carácter vinculante.

Más allá de los vehículos sin conductor, para los que se propone un seguro obligatorio y un fondo suplementario para garantizar de compensación a las víctimas de accidentes, se espera que el impacto de la inteligencia artificial se note en dispositivos como drones, robots industriales, para el cuidado de las personas, juguetes o granjeros.

La resolución de 22 páginas -en la que solo se menciona una vez la palabra "militar", para incluirla entre los usos aceptados de la robótica- sugiere que se cree una agencia europea de robótica que ofrezca asesoramiento técnico y ético a las autoridades, y que se elabore "un Código de Conducta" paralelo a la legislación.

Los eurodiputados plantean también la creación a largo plazo de un "estatus jurídico específico" de "persona electrónica" con "derechos y obligaciones" que se aplique al menos a los robots más sofisticados. (16/02/2017)

15 febrero 2017

3 Millones de drones volarán en 2017

La producción de drones tendrá, este año, un incremento del 29 por ciento respecto al 2016, lo que significa que serán tres millones de unidades.

Los datos corresponden a la consultora Gartner que prevé que haya un mayor aumento. Los analistas, según abc.es, apuntan a una convergencia entre los drones de uso lúdico y los de corte profesional.

Crean robot bípedo para los encargos

En busca de mejorar la entrega a domicilio por vía terrestre, Agility Robotics, la división de robótica del Colegio de Ingeniería de la Universidad Estatal de Oregon (EEUU) creó a Cassie, un robot capaz de moverse como cualquier ser humano.

Tiene dos piernas que lo hacen muy estable y le permiten moverse con soltura por cualquier terreno, llueva o nieve. De hecho, es tan resistente que se cae sin romperse y pesa la mitad que sus predecesores.

La configuración de sus piernas recuerda al movimiento de un avestruz.

Será el perfecto repartidor a domicilio porque puede llegar a lugares inaccesibles para los vehículos con ruedas, según el director de tecnología de Agility Robotics, Jonathan Hurst.

De momento, las primeras ventas de este robot bípedo serán para otras instituciones académicas y de investigación.

Cassie, construida con una subvención de un millón de dólares de la Agencia de Proyectos Avanzados de Investigación del Departamento de Defensa de EEUU, es ya una de las innovaciones líderes en el mundo de la robótica con patas.

“Queremos cambiar la vida de las personas y mejorarlas”, manifestó.

Dijo también que este tipo de tecnología explotará en algún momento, cuando se creen vehículos automatizados y robots tan eficientes que las entregas y los envíos (a domicilio) serán casi gratuitos.


Insectos robóticos reemplazan a abejas

Uno de los proyectos relacionados con los vehículos aéreos no tripulados, los conocidos como drones, viene de Japón. Según ABC.es, es considerado uno de los más curiosos ya que el dispositivo es capaz de polinizar como si se tratase de una abeja. El Instituto Avanzado de Ciencia y Tecnología Industrial (AIST) de Japón presentó un proyecto para utilizar drones como sistemas artificiales de polinización en los cultivos. Para ello, los investigadores tomaron drones comerciales de bajo coste y los recubrieron con un gel especial que se adhiere perfectamente al material y que está pensado para atraer y transportar el polen de flor en flor como si se tratase de una abeja.

El objetivo de esta investigación es proponer una solución para resolver los problemas provocados por la reducción de la población de este insecto necesario para la reproducción vegetal y que influye en alimentos consumidos por los seres humanos. Una situación preocupante que alertó ya desde hace tiempo a organizaciones medioambientales por las graves consecuencias que podría provocar que las abejas se extinguieran. Por ahora, informó yahoo.es, se trabaja en implementar sistemas basados en Inteligencia Artificial y la geolocalización para que los drones sean capaces de moverse de manera autónoma.

Los investigadores ya experimentaron con moscas y hormigas y los resultados fueron satisfactorios para recoger polen.


Cívicos están preocupados por sueldos de consejeros de Coteor

El incremento en los salarios de los consejeros de Administración y de Vigilancia de la Cooperativa de Telecomunicaciones Oruro (Coteor), a algo más de 14 mil bolivianos, generó molestia en los socios, y preocupación del Comité Cívico de Oruro, quienes anunciaron la posibilidad de solicitar la convocatoria a una asamblea de socios de emergencia.

Pese a que días después del anuncio del incremento de sus dietas, los consejeros de la Cooperativa convocaron a una conferencia de prensa, para indicar que donarían el 25 por ciento (%) de sus dietas a la asistencia social solidaria por fallecimiento a los socios de la cooperativa, el presidente del ente cívico, Pedro Challapa, dice que esta acción es nada más que un nuevo engaño, para desviar el tema de los salarios que aún son elevados, poniendo en más crisis la economía afectada de Coteor.

"Creo que este aspecto es una jugada y un engaño a los socios de la cooperativa que es un patrimonio de los orureños, los consejeros deben entender que ellos no pueden tomar ninguna decisión sin dar a conocer antes a los socios, ellos no son los dueños de Coteor, tiene que existir un consenso mediante una asamblea de socios, estamos ante una situación difícil de la cooperativa y no vemos coherencia de los consejeros en sus primeras semanas al mando", afirmó Challapa.

El cívico anunció que después de varias reuniones con socios de Coteor, se determinó solicitar la convocatoria a una asamblea de emergencia para exigir que se nivelen los salarios con los cuales dejaron sus cargos los anteriores consejeros, explicando que la Ley de Cooperativas manifiesta en uno de sus artículos que el incremento de dietas debe ser proporcional al crecimiento y soporte económico de las cooperativas; y pese a la donación del porcentaje asignado a Coteor, el salario de los consejeros es elevado respecto a la crisis financiera que atraviesa actualmente la institución.

"Me sorprende mucho la actitud de la presidenta del Comité de Vigilancia (Sonia Saavedra), ya que antes de entrar ella había hablado de entrar a cortar las uñas, sin embargo, parece que le crecieron pezuñas, ingresando a asaltar los pocos recursos de la cooperativa, por lo que pedimos encarecidamente que depongan esta actitud", agregó el presidente del Comité Cívico.

Al respecto, días atrás, autoridades de los Consejos de Administración y Vigilancia, afirmaron que la nivelación de sus sueldos, solo obedece lo que estipula el estatuto orgánico en su artículo Nº 73: "Los Directivos percibirán un reconocimiento económico por asistencia a las reuniones o sesiones de Consejos Ordinarios, equivalente a dos salarios mínimos nacionales por sesión".

14 febrero 2017

Conozca al robot Einstein, un asistente personal



Hanson Robotics desarrolló un nuevo robot orientado a enseñar ciencia y hacer compañía con una apariencia semejante al genio Albert Einstein. Según sus creadores, su objetivo es estimular el interés por la ciencia.

Este dispositivo utiliza el procesamiento del lenguaje natural y otras capacidades de inteligencia artificial para comprender y responder a las preguntas de los niños sobre la ciencia. También puede poner retos para probar la eficiencia mental y contar algunos chistes inteligentes.

La idea de Hanson Robotics es poner a la venta a Professor Einstein, promocionado como “tu genio personal”, un pequeño robot de 35 centímetros que camina, habla y expresa sus sentimientos mediante gestos.

Pero a diferencia de esos otros asistentes personales, este Einstein es tan expresivo como el original; los ocho motores y sensores integrados en su cara le permiten hacer 50 expresiones diferentes como sonreir, fruncir el ceño y por supuesto, sacar la lengua como en aquella famosa foto de Einstein.

Está claro que Professor Einstein está dirigido a un tipo diferente de usuario; en concreto, parece un buen entretenimiento para los más pequeños de la casa. Professor Einstein viene acompañado de su propia aplicación para tablets Android o iPad, Stein-O-matic que permitirá iniciar juegos de inteligencia con el robot con varias dificultades.

Por otra parte, este asistente personal tiene algunas limitaciones; no puede aprender cosas nuevas dependiendo de lo que digamos y sólo puede obtener información de los servidores de sus creadores; aunque estos aseguran que están trabajando para abrir la plataforma a más creadores.

El usuario puede utilizar para jugar, aprender sobre ciencia, consultar problemas y hasta verificar el estado del tiempo, justo como cualquier otro asistente virtual del mercado.

Professor Einstein se puede adquirir apoyando en Kickstarter con unos 270 dólares. El saldrá a la venta en abril si el proyecto logra recaudar 100.200 dólares.


Bioimpresora 3D capaz de crear piel humana totalmente funcional

Un equipo de investigadores españoles diseñó un prototipo de bioimpresora 3D capaz de crear piel humana "totalmente funcional", apta para ser usada en investigación, probar productos cosméticos y, en un futuro, ser trasplantada a pacientes.

Los responsables de este trabajo son investigadores de la Universidad Carlos III de Madrid (UC3M), del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (Ciemat) y del Hospital General Universitario Gregorio Marañón (Madrid), en colaboración con la empresa BioDan Group, que espera en breve sacar al mercado el modelo industrial.

El antecedente de esta bioimpresora 3D hay que buscarlo en desarrollos también de este grupo, que diseñaron a principios de 2000 un sistema "in vitro" por el cual, a partir de una pequeña biopsia de un paciente, se puede generar toda su piel en tres semanas, un tratamiento que en España ya se usa en las unidades hospitalarias de grandes quemados.

Ahora, con la bioimpresora 3D se da un paso más, señaló José Luis Jorcano, profesor del departamento de Bioingeniería e Ingeniería Aerospacial de la UC3M y jefe de la unidad mixta Ciemat/UC3M de Ingeniería Biomédica, quien aseguró que entre los objetivos está la automatización del proceso, la producción a mayor escala y abaratar los costes de la creación de piel humana.

Actualmente, está en fase de aprobación por diferentes entidades regulatorias europeas para garantizar que la piel producida sea apta para su utilización en trasplantes a pacientes con quemaduras y otros problemas en la piel.

Además, estos tejidos se pueden emplear para el probar productos farmacéuticos así como cosméticos y químicos de gran consumo, donde la regulación actual exige que se teste sin animales, informó la UC3M en una nota.

La bioimpresora replica la estructura natural de la piel, con una primera capa externa, la epidermis con su estrato córneo que protege contra el medio ambiente exterior, junto a otra más profunda y gruesa, la dermis.

Esta última capa está integrada por fibroblastos que producen colágeno, la proteína que le da elasticidad y resistencia mecánica.

La clave: las biotintas

La clave para hacerlo son las biotintas; en lugar de cartuchos con tintas de colores, se utilizan jeringas con distintos componentes biológicos: células, proteínas, factores de crecimiento y andamiajes (estructuras en las que se integran las proteínas para dar forma al tejido), explicó el investigador de la UC3M.

Los componentes son los mismos que los usados en la creación de piel a mano, pero adaptados a la impresora, que tiene tres módulos: ordenador, los depósitos de las biotintas y el módulo de impresión.

"Cuando uno habla de impresoras 3D, se imagina que lo más difícil es hacer la impresora, pero esa no es la dificultad mayor. Éstas están basadas en impresoras normales, sólo hay que adaptarlas para que en lugar de imprimir en un plano lo hagan en tres dimensiones", declaró Jorcano, quien apuntó que el meollo está en las biotintas.

La deposición de estas biotintas, patentadas por el Ciemat y bajo licencia de BioDan Group, está controlada por ordenador y se realiza en una placa para ir produciendo la piel, que luego se introduce en una incubadora a 37 grados centígrados.

Proceso de producción

El proceso de producción de estos tejidos se puede realizar de dos maneras: piel autóloga, creada caso a caso a partir de células del propio paciente para usos terapéuticos como quemaduras graves, y piel alogénica, a partir de células de cualquier donante.

Esta última es la que está más avanzada y es la más indicada para testar químicos, medicamentos o cosméticos.

En ambos procesos hay que extraer, al igual que con la técnica manual, las células del paciente/donante a través de una pequeña biopsia, cultivarlas en el laboratorio y conseguir su multiplicación, en un proceso que puede durar unas dos o tres semanas.

Una vez que se han conseguido suficientes células, se mezclan con el resto de componentes biológicos para la impresión, cuestión de minutos.

La impresora trabaja en condiciones de seguridad biológica para evitar contaminación de otros agentes, por ejemplo bacterias, según Jorcano, quien añadió que el equipo está trabajando ya en cosas nuevas, como estructuras de la piel más complejas y otros tejidos que no sean piel.

"Algún día, aunque queden bastantes años, seremos capaces de hacer corazones por bioimpresoras a partir de células de pacientes", aseguró.