Ciencia

¿Qué Estudia la Informática?


La informática es una ciencia moderna que estudia los métodos, procesos y la técnica para procesar, transmitir o guardar datos de una manera digital. Con el gran avance de la tecnología a partir de la segunda mitad del siglo XX, esta disciplina fue ganando importancia en las actividades productivas, al mismo tiempo que aumentando su especificidad.

El desarrollo de computadoras, circuitos cerrados, robots, maquinarias, teléfonos móviles y el surgimiento de internet, hacen a la informática una de las ciencias de mayor auge en las últimas décadas.

La etimología de la palabra informática tiene varios orígenes posible. Principalmente surgió como un acrónimo de las palabras information y automatique (información automática).

En 1957 fue Karl Steinbuch, quien incluyó este término en un documento denominado Informatik: Automatische InformationsverarbeitungMientras que en 1962, el ingeniero francés Philippe Dreyfus nombró a su empresa como Société d’Informatique Appliquée. No obstante, fue el ruso Alexander Ivanovich Mikhailov el primero en utilizar este vocablo como el “estudio, organización, y diseminación de la información científica”.

Entre su vasto campo de aplicación, esta ciencia se dedica al estudio del tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales, que pueden usarse con diferentes fines.

¿Qué estudia la informática? Aplicaciones

El campo de aplicación de la informática fue ampliando su espectro con el desarrollo tecnológico en el último medio siglo, sobre todo por el impulso de las computadores e internet.

Entre sus tareas principales se encuentran el diseño, el desarrollo, la planificación de circuitos cerrados, elaboración de documentos, monitorización y el control de procesos.

También se encarga de la creación de robots industriales, así como de tareas relacionadas con el vasto campo de las telecomunicaciones y la confección de juegos, aplicaciones y herramientas para los dispositivos móviles.

Conformación de la informática

La informática es una ciencia en la que convergen conocimientos y saberes de diversas disciplinas empezando por la matemática y la física, pero también la computación, la programación y el diseño, entre otras.

Esta unión sinérgica entre diferentes ramas del conocimiento se complementa en la informática con las nociones de hardware, software, telecomunicaciones, internet y electrónica.

Historia

La historia de la informática comenzó mucho antes que la disciplina que lleva su nombre. Acompañó a la humanidad casi de sus orígenes, aunque sin ser reconocida como una ciencia.

Desde la creación del ábaco chino, registrado en el año 3000 a.C y considerado el primer dispositivo de cálculo de la humanidad, puede hablarse de informática.

Esta tabla dividida en columnas, permitía a través de los movimientos de sus unidades realizar operaciones matemáticas como la suma y la resta. Allí podría estar el punto de partida de esta ciencia.

Pero la evolución de la informática sólo acababa de comenzar con el ábaco. En el siglo XVII, Blaise Pascal, uno de los científicos franceses más reconocidos de su época, creó la máquina de calcular e impulsó un paso evolutivo más.

Este dispositivo sólo servía para adiciones y sustracciones pero fue la base para que el alemán Leibniz, casi 100 años después, en el siglo XVIII, desarrollará un aparato similar pero con multiplicaciones y divisiones.

Estas tres creaciones fueron los primeros procesos informáticos de los que se tenga registro. Hubo que esperar casi 200 años más para que esta disciplina cobrará relevancia y se convirtiera en una ciencia.

En las primeras décadas del siglo XX, el desarrollo de la electrónica fue el impulso final de la informática moderna. A partir de allí, esta rama de la ciencia comienza a solucionar problemas técnicos surgidos de las nuevas tecnologías.

En este momento se dio el cambio de los sistemas basados en engranajes y varillas a los nuevos procesos de impulsos eléctricos, catalogados por un 1 cuando pasa la corriente y por un 0 cuando no, que revolucionó esta disciplina.

El paso final se dio durante la Segunda Guerra Mundial con la confección de la primera computadora, la Mark I, que abrió un nuevo campo de desarrollo que todavía sigue en expansión.

Nociones básicas de informática

La informática, entendida como el procesamiento de información de manera automática a través de dispositivos electrónicos y sistemas computacionales, debe tener algunas capacidades para poder desarrollarse.

Son fundamentales tres operaciones centrales: la entrada, que se refiere a la captación de la información; el procesamiento de esa misma información y la salida, que es la posibilidad de trasmitir resultados.

El conjunto de estas capacidades de los dispositivos electrónicos y sistemas computacionales se conoce como algoritmo, que es el conjunto ordenado de operaciones sistemáticas para realizar un cálculo y encontrar una solución.

A través de estos procesos, la informática desarrolló diversos tipos de dispositivos que comenzaron a facilitar las tareas de la humanidad en todo tipo de actividades.

Si bien su área de aplicación no posee límites estrictos, es principalmente utilizada en los procesos industriales, la gestión de negocios, el almacenamiento de información, el control de procesos, las comunicaciones, los transportes, la medicina y la educación.

Generaciones

Dentro de la informática y la computación puede hablarse de cinco generaciones de procesadores que marcaron la historia moderna desde su surgimiento en 1940 hasta el presente.

Primera generación

La primera generación tuvo su desarrollo entre 1940 y 1952, cuando las computadores se construían y funcionaba con válvulas. Su evolución y utilidad se daba fundamentalmente en un ámbito científico-militar.

Estos dispositivos poseían circuitos mecánicos, cuyos valores eran modificados para poder ser programados de acuerdo a los fines necesarios.

Segunda generación

La segunda generación se desarrolló entre 1952 y 1964, con la aparición de los transistores que reemplazaron a las antiguas válvulas. Así surgieron los dispositivos comerciales, que gozaban de una programación previa.

Otro hecho central de esta etapa es la aparición de los primeros códigos y lenguajes de programación, Cobol y Fortran. A los que años después les siguieron otros nuevos.

Tercera generación

La tercera generación tuvo un período de desarrollo un poco más corto que la de sus antecesores, se prolongó entre 1964 y 1971 cuando aparecen los circuitos integrados.

El abaratamiento de costos en la producción de los dispositivos, el aumento en la capacidad de almacenamiento y la reducción en el tamaño físico, marcaron esta etapa.

Además, gracias al desarrollo de los lenguajes de programación, que ganaron en especificidad y aptitudes, comenzaron a florecer los primeros programas utilitarios.

Cuarta generación

La cuarta generación se produjo desde 1971 y tuvo una duración de una década, hasta 1981, con los componentes electrónicos como principales protagonistas de la evolución.

Así comenzaron a aparecer en el mundo informático los primeros microprocesadores, que incluían todos los elementos básicos de los antiguos ordenador en un sólo circuito integrado.

Quinta generación

Por último, la quinta generación comenzó en 1981 y se extiende hasta el presente, en el que la tecnología invade todos los aspectos de las sociedades modernas.

El principal desarrollo de esta fase evolutiva de la informática fueron las computadores personales (PC), que luego llevaron a un vasto grupo de tecnologías asociadas que hoy gobiernan el mundo.

Referencias

  1. Informática, información, y comunicación, Documentación Social: Revista de Estudios Sociales y de Tecnología Aplicada’, 1999.
  2. Tratamiento (Automático) de la Información, Diego Dikygs, sitio digital Nociones de Informática, 2011.
  3. Historia de la Computación, Patricio Villalva.
  4. Revista Magazine de Horizonte Informática Educativa, Buenos Aires, 1999.