domingo, 2 de diciembre de 2012

Osborne 1, la primer laptop de la historia


Ver a alguien sentado en un café revisando su correo electrónico en una computadora, es algo de todo los días. Incluso ahora, hay quienes ya han cambiado su laptop, por la comodidad que ofrece una tableta.

La tremenda velocidad con la que avanza la tecnología, produce una especie de espejismo que da la sensación de haber vivido así desde hace mucho tiempo. Sin embargo, lo cierto es que hace poco más de 30 años, el mercado de las computadoras portátiles apenas comenzaba a dar sus primeros pasos, teniendo como punta de lanza a un equipo: el Osborne 1.
Si bien es cierto que ya antes se habían hecho otros esfuerzos en la computación portátil, éste fue el primer éxito comercial en ese sentido. Presentada por primera vez en 1981 durante la Feria de Computación de la Costa Oeste, la computadora fue lanzada ese mismo año por la compañía de Adam Osborne, un escritor, programador y empresario de origen británico, posteriormente nacionalizado estadounidense.
Contrastando con los productos de hoy día, la Osborne estaba equipada con una pantalla monocroma CRT de 5 pulgadas que permitía 24 líneas de 52 caracteres y hasta 128 si se desplazaba el cursor. Asimismo, tenía un procesador Zilog Z80 a 4 Mhz, 60 kilobytes de memoria RAM, no una, sino dos unidades de disco de 5¼ pulgadas, teclado separable, puerto paralelo, puerto serial y un alimentador de corriente, ya que no incluía batería interna.

En cuanto al software, Osborne 1 incluía un sistema operativo CP/M 2.2 (Control Program for Microcomputers), así como un paquete de aplicaciones integrado por SuperCalc (hojas de cálculo), Wordstar (procesador de texto), MailMerge (correo electrónico) y dBase II (base de datos), además de CBASIC (Digital Research) y MBASIC (Microsoft) como lenguajes de programación. Todo encapsulado en un armazón de 11 kilogramos (algo enorme si lo comparamos con los equipos de ahora) y que se vendía por un precio de 1,795 dólares de aquella época, un costo relativamente barato para tratarse de una computadora de estas características.
Fue así como el lanzamiento de la Osborne 1 significó un rotundo éxito, logrando vender cerca de 11 mil unidades durante los primeros 8 meses de producción, llegando a un pico de venta de 10 mil equipos al mes. Esto convertiría a Osborne Computer Company en la empresa que tuvo las mejores cifras económicas en la industria durante 1982.




Dell presenta su nuevo portafolio empresarial y de consumo



Dell está avanzando hacia la siguiente era de la computación con un portafolio completamente rediseñado de PC’s empresariales y de consumo para tomar ventaja de los avances en los nuevos sistemas operativos. Construido para mejorar la optimización de Windows 8, Dell se ha inspirado para crear diseños con capacidades táctiles que le permitan al usuario tener nuevas y mejores experiencias, disponible para una grande clientes.

NetApp se mete de lleno en los entornos de alta computación

NetApp acaba de anunciar un nuevo sistema de almacenamiento para la gestión de grandes volúmenes de datos. Lo ha denominado High-Performance Storage Rack y está diseñado específicamente para dar cobertura aentornos de alta computación HPC.

Se trata de una solución preconfigurada y lista para su uso, por lo que los procesos de instalación y gestión se reducen al mínimo, tal y como señala la compañía. De entre sus características destaca la gran escalabilidad para adaptarse a los crecientes volúmenes de información que las empresas tienen que manejar. En concreto, ofrece lo necesario en los entornos relacionados con la investigación.
Gracias a que está preconfigurado de fábrica, NetApp asegura que aquellos procesos en sistemas de almacenamiento que requieren entre seis y nueve meses hasta que son puestos en producción se pueden reducir a un máximo de tres meses.
La solución NetApp HPS se engloba dentro de la cartera de productos E-Series del fabricante relacionados con los procesos de Big Data. Como ocurre con otras modalidades, está basado en el sistema de ficherosLustre, utilizado por el 60% de las principales empresas de HPC.
Además, integra la suite de software Terascala LustreStack, que proporciona los recursos necesarios para mejorar la gestión y la analítica de los entornos HPC complejos, aportando simplicidad y optimización para manejar los datos en tiempo real.

Titán abre una nueva era en la computación


Viernes 2 de noviembre.- El Oak Ridge National Laboratory (ORNL), del Departamento de Energía (DOE) de los Estados Unidos de Norte América, ha iniciado una nueva era de supercomputación científica con Titán, un sistema capaz de realizar más de 20,000 billones de operaciones por segundo -ó 20 petaflops- por medio del uso de una familia de procesadores llamados unidades de procesamiento gráfico (GPUs), creadas originalmente para juegos en computadora.
Titán es ahora una de las computadoras más veloces en el planeta, uniéndose al selecto grupo de la IBM Sequoia BlueGene/Q, también de 20 petaflops. Titán será 10 veces más rápida que el sistema Jaguar utilizado por ORNL, al tiempo que sobrepasa limitaciones de energía y espacio inherentes a las generaciones previas de computadoras de alto rendimiento.
Titán permitirá a los científicos simular sistemas físicos más realistamente y con mucho mayor detalle”, indicó James Hack, director del Centro Nacional de Ciencias de la Computación del ONRL. “Las mejoras en fidelidad simulada acelerarán el progreso en un rango amplio de áreas de investigación, tales como energía alternativa y consumo eficiente de energía, la identificación y desarrollo de materiales útiles y novedosos y la oportunidad de proyecciones climáticas más avanzadas”.
Titán proporcionará un poder sin precedentes para la investigación en energía, cambio climático, motores eficientes, materiales, entre otras disciplinas que preparan el camino para un amplio rango de logros en ciencia y tecnología, de acuerdo al DOE. (CAMPUS MÉXICO)

El modelo de negocio basado en licencias de Microsoft no encaja en el futuro de la computación”

Silicon News ha entrevistado a Jim Zemlin, director ejecutivo de la Fundación Linux, consorcio sin ánimo de lucro encargado de fomentar el crecimiento y adopción de Linux.



Con algo de retraso pero muy sonriente Jim Zemlin llega al encuentro. Se muestra “encantado” de poder hablar de software libre, una temática que confiesa, le apasiona. El marco no podía ser más idóneo. El lobby del hotel de Barcelona donde tiene lugar la LinuxCon está a rebosar de desarrolladores venidos de todo el mundo. Y todo con un único objetivo: compartir y poner en común ideas y proyectos.

La agenda del evento está repleta de actividades interesantes para los ingenieros de software y fanáticos del código abierto deseosos de conocer las impresiones sobre la salud del software libre en boca del mismísimo padre de Linux, Linus Torvalds o de Mark Shuttleworth, fundador de Canonical y sus nunca decepcionantes afirmaciones –algo incendiarias a veces-.
Jim Zemlin se muestra más moderado y pausado, una actitud que sin embargo no le impide aseverar que modelos de negocio basados en el software propietario como el de Microsoft están condenados a morir.
La Fundación Linux de la que forma parte se sustenta gracias a las aportaciones económicas de poderosas piezas de la industria TIC: desde HP hasta IBM, pasando por Google y Nvidia. Todas ellas tienen algo en común, insiste el ejecutivo, y ese algo es Linux.
Zemlin llegó hace diez años. Es desde entonces suya la labor de gestionar la promoción, protección y adopción de Linux entre empresas y desarrolladores. También la de asegurar el carácter libre e innovador que le caracteriza.
El ejecutivo ve posible un mundo 100% open source, aunque admite que “aún queda mucho tiempo” para llegar a eso. Su visión de la computación del futuro tiene el software libre como columna vertebral. Será el modelo en el que deberán basarse las empresas en un mundo que ha pasado de cambiar el producto como elemento centralizador por los servicios.
- La Fundación Linux tiene más de 100 miembros corporativos, entre los que destacan algunas de las empresas más punteras del sector TIC. Usted que trabaja día a día con las compañías tecnológicas más grandes del mundo, cuéntenos la razón principal por la que los miembros deciden unirse a la Fundación Linux.
Una de las principales razones es que para la gran mayoría de estas empresas su negocio depende de Linux. Por ejemplo mira a Google; todos sus productos, desde  un teléfono Android hasta su motor de búsquedas, se basan en Linux.
IBM vende millones de dólares anuales en tecnología que se ejecuta en Linux. HP y la gran mayoría de su infraestructura de servidores, impresoras y dispositivos también usan Linux.
Para ellos es importante tener una organización que les permite el desarrollo de software que tiene un valor de miles de millones de dólares. Es un pequeño precio para ellos a pagar por formar parte y apoyar una oferta colaborativa de tanto valor.
- Así que dan más de lo que reciben.
(Ríe). Sí, me gustaría pensar que sí.
- ¿Cómo ve la fundación Linux el futuro de la computación?
Creo que está claro. El futuro de la computación se está moviendo desde un producto a los servicios. En el pasado, las compañías veían los PC como el producto y la gente veía las licencias de software como productos. Es el caso de Microsoft, que vende productos a través de licencias.
Estamos moviéndonos hacia un mundo donde todo es un servicio, donde el hardware no será nunca más un producto; es algo que tienes gratis cuanto te suscribes a un servicio.
- Deme un ejemplo.
Amazon pierde dinero con su Kindle. Hacen dinero gracias a los servicios. Google regala Android pero hace dinero de las búsquedas. Todos los servicios cloud están siendo construidos no con software de propietario, sino que todo se está construyendo con software libre.
En vez de comprar tu propio hardware o construir tu datacenter, la gente se suscribe.
En la medida que la electrónica de consumo y la computación en el segmento corporativo se mueven a los servicios, el open source se ha convertido en parte esencial.
- También por su versatilidad.
Exacto. Puedes modificarlo. Es importante para Google poder modificar Linux para las búsquedas o para Android. Si Google hubiera construido su motor basándose en Microsoft,  no podrían modificar esta oferta. Ni hacerlo tan rápido.
El open source de Linux está demostrando que hay una forma más rápida y mejor para innovar. En el kernel de Linux, un solo proyecto cambia hasta 8 veces por hora. Hasta 10.000 líneas de código se añaden al kernel cada día. Ningún otro desarrollador de software puede mantener este ritmo de innovación y cambio.
El software libre es además muy barato y en un mundo donde estás regalando el Kindle es importante que la construcción del software cueste lo menos posible.

Desarrollan software que convierte cualquier mesa en teclado para iPhone


Un estudiante de Computación Cognitiva de la Universidad de Londres hadesarrollado un software, por el momento no público, para convertir cualquier superficie plana en un "teclado virtual de vibración" para iPhone.
“El teclado virtual de vibración busca apaciguar la frustración que sienten losusuarios de smartphones cuando se enfrentan a la escritura de correos electrónicos extensos sobre una pantalla pequeña”, indica el joven llamado Florian Kräutli.
Usando una aplicación llamada Sensor MonitorKräutli puede tomar y medir esas vibraciones usando el acelerómetro del iPhone, un sensor que está dentro del teléfono. El software que él creó traduce esas vibraciones, que son ligeramente diferentes según su cercanía al teléfono, en texto en la pantalla.
Sin embargo, Fast Company advierte que el software requiere que uno lo entrene y que el soporte lógico de sistema informático analiza el resultado del sensor en un MacBook en red.
"Todo lo que el usuario debe hacer es probar una nueva superficie -pulsar unos puntos y permitirle al software saber qué letra se quiere escribir- y el software de él numerará y ubicará las posiciones para el resto de teclas. Un usuario puede guardar esa superficie para que el software no tenga que volver a ser calibrado", sostiene Fast Company. (Con información de CNN).


La CE y empresas privadas impulsan la computación en nube


La Comisión Europea (CE), representantes de Administraciones públicas y empresas privadas tecnológicas se reunieron hoy por primera vez en la nueva asociación creada para impulsar la computación en nube en la Unión Europea (UE).
El objetivo de la Asociación Europea de Computación en Nube (AECN) es fomentar la colaboración entre las autoridades públicas y el sector, para contribuir a la creación de un mercado único digital de la computación en nube en la Unión Europea, informó la CE.
El comité que dirige la asociación, liderado por el presidente de Estonia, Toomas Hendrik Ilves, ofrecerá su asesoramiento a la Comisión Europea para el desarrollo de la estrategia europea sobre este sistema informático, presentada a finales de septiembre.
La vicepresidenta de la Comisión Europea (CE) y responsable de la Agenda Digital, Neelie Kroes, destacó la importancia de este sistema informático, ya que proporciona unos "instrumentos más baratos, de mayor calidad y más flexibles para los ciudadanos, los empresarios y las administraciones".
Kroes subrayó en una rueda de prensa el potencial de este sector y recalcó la urgencia de actuar a nivel europeo para favorecerlo.
"Hay gente que no sabe qué es la nube, que piensa que son datos que se quedan en el cielo, pero no, es una manera de almacenarlos y usarlos", indicó, por su parte, el presidente de Estonia.
"No tenemos reglas comunes y regulación, sin ellas, (el sector) no podrá desarrollarse. Necesitamos una aproximación paneuropea", destacó Ilves, que consideró que el primer paso a tomar para desarrollar la computación en nube es sentar este marco normativo.
En esta línea, la asociación desarrollará unas condiciones exigibles en la contratación de computación en nube que utilizarán los Estados miembros y las autoridades públicas en toda la UE, para armonizar estos requisitos a nivel europeo.
En la reunión de hoy, el comité directivo de la asociación ha negociado y fijado los objetivos para 2013-2014, entre los que destaca la promoción del conocimiento del público de la computación en nube y la proposición de "soluciones prácticas para eliminar los obstáculos que entorpecen" su desarrollo.
Amazon, Ericsson, Telefónica Digital y ATOS son algunas de las empresas privadas que forman parte de este comité directivo, en el que también está presente un representante del Ministerio de Economía español, así como de los Gobiernos de Holanda y Austria.
El comité directivo de la asociación se reunirá dos o tres veces al año y podrá celebrar consultas con organismos o expertos del mundo industrial, docente o gubernamental.

Informática en el aula: revés inesperado de los "nativos digitales"


La facilidad con la que los adolescentes aprenden a usar las nuevas tecnologías en sus servicios básicos como telefonía móvil y redes sociales no los habilita automáticamente para comprender la lógica con la que funcionan los programas de las computadoras.
Con distintas perspectivas, investigadores y docentes coinciden en que es necesario que los alumnos, aun cuando sepan maniobrar la computadora, conozcan la estructura lógica con la que funciona. De esa forma, cuando vayan cambiando las aplicaciones -los programas-, ellos no quedarán fuera de juego.
En la era de los nativos digitales, como se llama a los jóvenes que nacieron rodeados de monitores, muchos tienen dificultades para aprobar la materia que en algunas escuelas sigue llamándose Computación y en otras se da como Nuevas Tecnologías, en talleres extracurriculares o no existe.
De ahí que el concepto mismo de nativo digital "esté en discusión", según dijo a LA NACION Graciela Caldeiro, del Proyecto de Educación y Nuevas Tecnologías (PENT) de la Facultad Latinoamericana de Ciencias Sociales (Flacso).
Ese concepto "supone que, por una cuestión generacional, los jóvenes tienen afinidad y facilidad intuitiva o natural para manejar tecnología y ya saben todo" lo vinculado con la PC. "Hay chicos que tienen muchas dificultades para usar las computadoras y hay que tener en cuenta las diferentes realidades, los diferentes contextos sociales y económicos", dijo Caldeiro, que, además, es docente en el Instituto de Estudios Superiores Juan B. Justo, del gobierno porteño.
"Me cuesta porque estoy acostumbrada a usar las redes sociales y cosas básicas como el Power Point, pero cuando aparece algo difícil yo, como otros compañeros, lo dejo porque creo que no voy a poder entenderlo", dijo a LA NACION Belén Petrizo, de 15 años. Si bien usa computadoras desde que tenía cinco años y su profesora de Informática es también su mamá, Belén se lleva esa materia a diciembre.
"Empezamos a notar este tipo de dificultades hace cuatro o cinco años, cuando empezó la Web 2.0 y los conocimientos colaborativos a partir de los cuales los chicos se acostumbraron a buscar todo lo que pide cualquier docente en sitios como Wikipedia", dijo Viviana Bernárdez, madre de Belén y profesora de Informática desde hace 22 años.
"No tenemos dos colegios con un mismo programa de Informática", dijo Soledad Corrales, ingeniera y coordinadora general del programa Digital Junior de la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional (UTN), que asiste a 300 escuelas secundarias de todo el país con capacitación a los profesores, material de estudio y la certificación del aprendizaje de los alumnos.
Existen contenidos mínimos comunes, pero en los hechos cada colegio define el programa porque no hay uno oficial u obligatorio para esta materia, que en algunos colegios no existe. Es el caso del colegio Godspell, de Del Viso. "No tenemos una materia para enseñar informática porque la consideramos una herramienta que debe estar integrada en el sistema educativo; todos los profesores en mayor o menor medida deben ir lentamente entrando en la informática", dijo una de las autoridades de ese establecimiento. "Los chicos tienen dificultades, pero las subsanan rápidamente", admitió.
"No hay criterio unánime. En general, las escuelas se manejan con cierta flexibilidad, porque una cosa es el nombre de la materia y otra, los contenidos", dijo Caldeiro.
La directora general de Planeamiento Educativo de la Ciudad de Buenos Aires, Mercedes Miguel, dijo que "la ciudad no tiene un diseño curricular para el nivel medio y hay planes de estudio en algunos colegios que conservan una mirada muy vieja de las nuevas tecnologías". Asoció "la dificultad que pueden tener los alumnos con la falta de motivación porque se les enseña informática de manera obsoleta y aburrida".
Miguel señaló que desde el ministerio porteño se está alentando un cambio en el paradigma de la informática y la computación en educación general básica. "Hoy debería repensarse como educación digital, es decir, a través de diversas prácticas asociadas con la cultura digital que, por supuesto, requieren determinadas tecnologías", afirmó.
Corrales sintetizó: "Lo más frecuente son los problemas para interpretar el modelo conceptual, porque se requiere pensamiento abstracto en el que no tienen entrenamiento previo". Y agregó: "Venimos de años de dejar de lado la programación, y esto es lo que se debe acercar a los chicos"

Las computadoras salen del bolsillo y se suben a la cabeza

La miniaturización de cámaras y sensores llevó a los fabricantes a presentar diversos modelos que se utilizan como anteojos para grabar video y sacar fotos como si fuerab un teléfono inteligente


Imagine una computadora que no es rectangular como una PC ni tampoco un teléfono en su bolsillo, y que no tiene pantalla táctil, ratón ni teclado. En lugar de todo eso se lleva en la cabeza y se interactúa con ella con comandos de voz.
No es una fantasía sobre cómo serán las computadoras del futuro. De hecho, las primeras computadoras para usar en la cabeza saldrán a la venta a finales de este año.

OPERADO POR GESTOS

El HC1 es un aparato de la marca Motorola Solutions, que no debe ser confundida con la que solía parte de la misma compañía, Motorola Mobility, ahora propiedad de Google.
El aparato se parece a un auricular de teléfono gigantesco, algo así como un híbrido entre un casco de ciclista y una máscara antigás. Viene en dos partes: un soporte circular que fija el aparato en tu cabeza, y la computadora en sí es una barra de metal curvada en un lado.
Tiene una pantalla en miniatura en el frente y para verla tenés que mirar ligeramente hacia abajo. Una vez que el usuario se coloca el dispositivo, puede operar la computadora usando comandos de voz; ordenándole abrir archivos, revisar correos electrónicos o acercar la imagen de una fotografía para ver sus detalles.

MANOS LIBRES

La idea es que se pueda usar en ambientes de trabajo donde la gente necesita acceder a información compleja y tener las manos libres. "Imaginen a alguien trepando un poste de teléfonos para reconectar un cable. No puede estar cargando una laptop", explica Paul Reed, director de productos de computación móviles de Motorola. "Con este aparato pueden obtener toda la información que necesitan para realizar el trabajo de forma segura".
Sus usuarios potenciales incluyen ingenieros de mantenimiento en lugares remotos, trabajadores de la construcción, arquitectos y personal retirando mercancías de una nave industrial siguiendo complejos esquemas computarizados.
La firma con sede en Reino Unido, Ikanos Consulting , ya está desarrollando una aplicación para el producto llamada Paramedic Pro. El sistema se diseñará para permitir que los trabajadores en una ambulancia vean los registros médicos y envíen videos en línea al hospital para prepararse ante la llegada del paciente.
Otra firma ha mostrado interés en el aparato, con el fin de ayudar a sus empleados a mantener el cableado eléctrico a alturas elevadas. Su personal tiene que descender desde un helicóptero para hacer el trabajo, así que es fácil imaginar lo útil que les puede resultar una computadora que deja las manos libres.
Motorola estima que venderá varios miles de estos dispositivos al año, a un costo de entre US$ 3000 y US$ 4000 por unidad.




Las computadoras pronostican un futuro cada vez mejor


La combinación correcta de informática, estadísticas y carga de datos permite acertar sobre elecciones, meteorología o epidemias.


Desde Pitágoras hasta nuestros días, las matemáticas han interpretado el mundo y su funcionamiento; y desde Blas Pascal hasta ahora, las estadísticas han revelado posibilidades insospechadas. Pero actualmente, los modelos de computación cada vez más avanzados están formulando pronósticos sorprendentes.

En las últimas semanas dos de esos pronósticos han asombrado por su precisión.
En primer término, uno de esos procesamientos de datos con toda posible variante alertó a los meteorólogos sobre un desastre que se avecinaba a partir de una acumulación de nubes en el Caribe. Casi una semana después, ese fenómeno climático se convirtió en la supertormenta Sandy.

Después, el estadígrafo y bloguero Nate Silver pronosticó correctamente en su computadora portátil los ganadores de todos los 50 estados en la elección presidencial. Incluso pronosticó un empate en la Florida con la eventual victoria del presidente Barack Obama, que equivale a pronosticar que una moneda lanzada al aire caerá de canto. Lo hizo en base a datos de las encuestas, cotejando sus porcentajes de acierto en el pasado y procesando 40.000 simulaciones computacionales a la vez. Después pronosticó que Obama tenía el 91% de probabilidades de ser reelegido.

En el caso de Sandy, había vidas en juego. Con la elección, lo que estaba en juego eran las reputaciones y el desprecio de algunos analistas por el valor de los modelos de computadoras.
Las matemáticas se impusieron gracias al creciente poderío de cálculo de las computadoras.

“En este caso se impuso la racionalidad”, afirmó el neurocientífico Sam Wang, de la Universidad de Princeton, quien desde el 2004 ha usado fórmulas matemáticas y datos de encuestas para pronosticar elecciones para el Consorcio Electoral de Princeton. Wang pronosticó un “ciento por ciento de probabilidades” de que ganara Obama, aunque no le acertó con la Florida. Pero Wang nota que superó a Silver en los pronósticos de las elecciones para senadores.

Dentro de poco, las computadoras podrían alertar a las autoridades de la salud dónde se propagará el próximo brote de intoxicación alimenticia, pronostica un laboratorio del gobierno.
Tom Mitchell, director de Aprendizaje Mecánico en la Universidad Carnegie Mellon, calificó las predicciones de modelos de computación basadas en evidencias históricas como “una de las tendencias más positivas que veremos en este siglo... Recién estamos en el comienzo”.

Hasta el deporte podría beneficiarse. Los A’s de Oakland, un equipo que tradicionalmente usa estadísticas de computadora para elegir beisbolistas, sorprendió a todos avanzando a los playoffs pese a ser uno de los equipos con menores salarios en el béisbol.

Los modelos de computación dicen al gobierno qué ocurre cuando estalla una bomba nuclear, ayudaron a Goodyear a fabricar un neumático mejor y a los productores de Pringles a determinar el mejor modo de impedir que las papitas fritas se resquebrajaran dentro del envase, dijo Bill Tang, director de programa de simulación del Laboratorio de Princeton de Física del Plasma.

Para poder formular predicciones en dichos modelos se requieren tres elementos: poderío computacional, fórmulas matemáticas diseñadas para reflejar la relación entre causa y efecto en el mundo real, y la formulación en números de las condiciones actuales que puedan usarse en fórmulas.

Los expertos alimentan la computadora con datos de las condiciones actuales en fórmulas que dicen que si ocurre X e Y, entonces producirán Z. A partir de allí, las computadoras operan esas simulaciones de las posibilidades una y otra vez, con ligeras variantes. La clave consiste en detectar lo que ocurre más frecuentemente y por qué. No es una predicción infalible, sino que desgaja el futuro en probabilidades.

“Esencialmente consiste en solucionar ecuaciones demasiado complicadas para solucionar con lápiz y papel”, resumió Andrew Weaver, experto en simulaciones climáticas en la Universidad de Victoria en Canadá

miércoles, 27 de junio de 2012

La Bioinformatica

La bioinformática, según una de sus definiciones más sencillas, es la aplicación de tecnología de computadores a la gestión y análisis de datos biológicos. Los términos bioinformática, biología computacional y, en ocasiones, biocomputación, utilizados en muchas situaciones como sinónimos,hacen referencia a campos de estudios interdisciplinarios muy vinculados, que requieren el uso o el desarrollo de diferentes técnicas que incluyen informática, matemática aplicada, estadística, ciencias de la computación,inteligencia artificial,química y bioquímica para solucionar problemas, analizar datos, o simular sistemas o mecanismos, todos ellos de índole biológica, y usualmente (pero no de forma exclusiva) en el nivel molecular. El núcleo principal de estas técnicas se encuentra en la utilización de recursos computacionales para solucionar o investigar problemas sobre escalas de tal magnitud que sobrepasan el discernimiento humano. La investigación en biología computacional se solapa a menudo con la biología de sistemas.
Los principales esfuerzos de investigación en estos campos incluyen el alineamiento de secuencias, la predicción de genes, montaje del genoma, alineamiento estructural de proteínas, predicción de estructura de proteínas, predicción de la expresión génica, interacciones proteína-proteína, y modelado de la evolución.
Una constante en proyectos de bioinformática y biología computacional es el uso de herramientas matemáticas para extraer información útil de datos producidos por técnicas biológicas de alta productividad, como la secuenciación del genoma. En particular, el montaje o ensamblado de secuencias genómicas de alta calidad desde fragmentos obtenidos tras la secuenciación del ADN a gran escala es un área de alto interés.13 14 Otros objetivos incluyen el estudio de la regulación genética para interpretar perfiles de expresión génica utilizando datos de chips de ADN o espectrometría de masas.

                          Mapa del cromosoma X del ser humano (extraído de la página web del NCBI). La      transcripción del genoma humano es uno de los mayores logros de la bioinformática.

Relacion de la computacion en otros campos

Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales.
Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, tales como la física y la lingüística. Pero es con las matemáticas con las que se considera que tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría.
Otro punto a destacar es que a pesar de su nombre, las ciencias de la computación raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase "Las ciencias de la computación están tan poco relacionadas con las computadoras como la astronomía con los telescopios." Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que evitara la relación con las computadoras.
Una primera propuesta fue la de Peter Naur, que acuñó el término datología, para reflejar el hecho de que la nueva disciplina se ocupaba fundamentalmente del tratamiento de los datos, independientemente de las herramientas de dicho tratamiento, fueran computadoras o artificios matemáticos. La primera institución científica en adoptar la denominación fue el Departamento de Datología de la Universidad de Copenage, fundado en 1969, siendo el propio Peter Naur el primer profesor de datología. Esta denominación se utiliza principalmente en los países escandinavos. Asimismo, en los primeros momentos, un gran número de términos aparecieron asociados a los practicantes de la computación. En esta lista se pueden ver los sugeridos en las revistas y comunicados de ACM : turingeniero, turologista, hombre de los diagramas de flujo(flow-charts-man), metamatemático aplicado, y epistemólogo aplicado.
Tres meses más tarde se sugirió el término contólogo, seguido de hipólogo al año siguiente. También se sugirió el término compútica para la disciplina. Informática era el término más frecuentemente usado en toda Europa.
El diseño y desarrollo de computadoras y sistemas computacionales está generalmente considerado como un campo reclamado por disciplinas ajenas a las ciencias de la computación. Por ejemplo, el estudio del hardware está usualmente considerado como parte de la ingeniería informática, mientras que el estudio de sistemas computacionales comerciales y su desarrollo es usualmente llamado tecnologías de la información (TI) o sistemas de información. Sin embargo, hay una estrecha comunicación de ideas entre las distintas disciplinas relacionadas con las computadoras. La ciencia de la computación a menudo es criticada desde otros estamentos que la consideran escasamente rigurosa y científica. Esta opinión se plasma en la expresión: "La ciencia es a las ciencias de la computación como la hidrodinámica a la fontanería", atribuida a Stan Kelly-Bootle y otros afines. La investigación en ciencias de la computación usualmente también se relaciona con otras disciplinas, como la ciencia cognitiva, la física (véase computación cuántica), la lingüística, etc.
La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputas sobre lo que realmente significa el término "ingeniería de software" y sobre cómo se define a las ciencias de la computación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de la computación. Otras por su parte, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con lo que se convertirían en disciplinas diferentes. Este punto de vista es mantenido, entre otros por (Parnas 1998). Incluso hay otros que sostienen que no podría existir una ingeniería de software.
Los aspectos académicos, políticos y de financianción en las áreas de ciencias de la computación tienden a estar drásticamente influenciados por el criterio del departamento encargado de la investigación y la educación en cada universidad, que puede estar orientado a la matemática o a la ingeniería. Los departamentos de ciencias de la computación orientados a la matemática suelen alinearse del lado de la computación científica y las aplicaciones de cálculo numérico.
El término computación científica, que no debe confundirse con ciencia de la computación, designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medios computacionales. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, biología, mecánica de fluidos, radiotransmisión,...) mas que en la propia ciencia de la computación.
Finalmente, el público en general algunas veces confunde la ciencia de la computación con áreas vocacionales que trabajan con computadoras, o piensan que trata acerca de su propia experiencia con las computadoras, lo cual típicamente envuelve actividades como los juegos, la navegación web, y el procesamiento de texto. Sin embargo, el punto central de la ciencia de la computación va más allá de entender las propiedades de los programas que se emplean para implementar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevos programas o mejorar los existentes.

La inteligencia artificial

En ciencias de la computación se denomina inteligencia artificial (IA) a las inteligencias no naturales en agentes racionales no vivos.1 2 3 John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes."4
Para explicar la definición anterior, entiéndase a un Agente inteligente que permite pensar, evaluar y actuar conforme a ciertos principios de optimización y consistencia, para satisfacer algún objetivo o finalidad. De acuerdo al concepto previo, racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina.
Con lo cual , y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento, el cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:
  • Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).
  • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
  • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
  • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
  • Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.


                      TOPIO, un robot humanoide, jugando tenis de mesa en Tokio International Robot Exhibition (IREX) 2009.