miércoles, 5 de mayo de 2010

Comunicación de Datos y Redes Informáticas

La Red
Una red es un arreglo o configuración de nodos, conectados mediante canales de comunicación

Definiciones: Redes Informáticas


Una red informática es un conjunto de equipos conectados por medio de cables, señales, ondas o cualquier otro metodo de transporte de datos que comparten información, recursos y/o servicios

*Los nodos son elementos de hardware

*Los canales de comunicación son los medios que transportan datos

*Se requiere de software especializado para manejar la comunicación de datos

Funciones :
Establecer, conducir y finalizar la comunicación de datos entre dos o más nodos.
Beneficios:
*Acceso simultáneo a programas e información.

*Equipos periféricos compartidos (impresoras, escáner, etc.)

*Comunicación personal más eficiente (correo electrónico, foros, etc.)

*Procesos de respaldo más efectivos

Definiciones: Ancho de Banda



Es la capacidad de transmisión de un canal de comunicación.
La unidad de medida es bits por segundo (bps) y sus múltipl
os (Kbps, Mbps, Gbps). También se expresa frecuentemente en Bytes por segundo y sus múltiplos (KBps, MBps, GBps)
A mayor ancho de banda, mayor cantidad de información se transmite por unidad de tiempo y como consecuencia, el proceso de comunicación de datos es más rápido

Elementos de la Comunicación de Datos

°Emisor (Computadora o dispositivo).
°Receptor (Computadora o dispositivo).
°Medios o canales de comunicación.
°Dispositivos de comunicación.
°Protocolos de comunicación.
°Mensaje.

Emisor y/o Receptor
Son los computadores o dispositivos periféricos que envían y/o reciben datos. Son los nodos de la red.

Para poder comunicarse, cada nodo debe tener instalado un dispositivo NIC (Network Interface Card) compatibles entre si.

Medio o Canales de comunicación
Es el sistema por el que viajan las señales portadoras de la información que pretenden intercambiar emisor y receptor.
Pueden ser medios físicos o medios inalámbricos.



Dispositivos de comunicación
Equipos electrónicos especialmente diseñados para posibilitar, facilitar o mejorar la conexión a redes informáticas

Mensaje
Es el conjunto de datos que se envían y reciben.

En una red, el mensaje se transmite a través de paquetes.

Un paquete es una agrupación lógica de información que incluye la información de control y, generalmente, los datos del usuario. El esquema lógico de agrupación obedece a un protocolo de comunicación

Clasificación de redes informáticas


Relaciones lógicas

Cliente – Servidor: está conformada por una computadora central o servidor y un conjunto de computadoras cliente. Una parte de cada aplicación está en el servidor y la otra parte está en cada computadora cliente.
De igual a igual: todos los nodos de la red tienen relaciones equivalentes y tipos similares de software. Normalmente cada nodo tiene acceso, por lo menos, a algunos de los recursos en todos los demás nodos.

Servidor: Es una equipo que, formando parte de una red, provee servicios a otras denominadas clientes



jueves, 29 de abril de 2010

Evolución de la web..!!

¿ Qué es la Web 1.0?
La Web 1.0 es un tipo de web estática, con documentos que no se actualizaban. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta.Esta web básicamente se refiere a un sitio web que utiliza un montón de documentos en HTML (Hyper Text Markup Language) interconectos con enlaces.
¿ Qué es la Web 2.0?
La Web 2.0 es una evolución de la web 1.0. Se refiere a una nueva generación de Webs basadas en la creación de contenidos producidos y compartidos por los propios usuarios del portal.
Esta segunda generación, corresponde a comunidades basadas en la Web y de servicios residentes en ella; tales como sitios que permiten establecer o generar redes sociales, wikis y folksonomies que buscan facilitar la creatividad, la colaboración y dan la posibilidad de compartir contenidos y otros recursos entre usuario
En la Web 2.0 los consumidores de información se han convertido en “pro-consumidores”, es decir, en productores de la información que ellos mismos consumen
Aplicaciones de la Web 2.0
Aplicaciones para expresarse/crear y publicar/difundir: blog, wiki...
Aplicaciones para publicar/difundir y buscar información: podcast, YouTube, Flickr, SlideShare, Del.icio.us...
Aplicaciones para buscar/acceder a información de la que nos interesa estar siempre bien actualizados: RSS, XML, Atom, Bloglines, GoogleReader, buscadores especializados...
Redes sociales: BSCW, Ning, Second Life, Twitter...
Otras aplicaciones on-line Web 2.0: Calendarios, geolocalización, libros virtuales compartidos, noticias, ofimática on-line, plataformas de teleformación, pizarras digitales colaborativas on-line, portal personalizado...
¿ Qué es la Web 3.0?
La Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones non-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0.

lunes, 19 de abril de 2010

¿Qué significa World Wide Web, web o www?


Web o la web, la red o www de World Wide Web, es básicamente un medio de comunicación de texto, gráficos y otros objetos multimedia a través de Internet, es decir, la web es un sistema de hipertexto que utiliza Internet como su mecanismo de transporte o desde otro punto de vista, una forma gráfica de explorar Internet.
La web fué creada en 1989 en un instituto de investigación de Suiza , la web se basa en buscadores y el protocolo de transporte de hipertexto (hypertext transport protocol (http)). La mayoría de los documentos de la web se crean utilizando lenguaje HTML (hypertext markup language).

http://elfuturodelaweb.blogspot.com/

Historia del internet..!!


Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país.
Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red.
Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos.
La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos.
El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos.
El autor William Gibson hizo una revelación: el término "ciberespacio".
En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet.
El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.

La nueva formula permitía vincular información en forma lógica y através de las redes. El contenido se programaba en un lenguaje de hipertexto con "etíquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para despeglar la información. Ese interprete sería conocido como "navegador" o "browser".

En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape.

Apartir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiendose en lo que hoy todos conocemos.

Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), conversaciones en línea (IMSN MESSENGER, ICQ, YIM, AOL, jabber), transmisión de archivos (P2P, P2M, descarga directa), etc.

http://www.cad.com.mx/historia_del_internet.htm

domingo, 18 de abril de 2010

Historia del Computador..!!


Aunque la computadora personal fue creada en 1981, sus inicios se remontan a varias décadas atrás y sus antecedentes a hace más de cuatro mil años.

Esto, porque el origen de la informática no es la electrónica sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema binario, el lenguaje en que se programan las computadoras, que está basado en la combinación de números ceros y unos (0 y 1).

2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.

600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.

500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.

1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas.

La pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.

1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.

Babbage usaba cartones perforados para suministrarle datos a su máquina -había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.

La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.

1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".

Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.

1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.

1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.

1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.

1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora.

La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.

1937 - Claude Shannon demostró que la programación de las futuras computadoras era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole.

Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción de la primera computadora.

Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.

1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.

Nacen los ordenadores

En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada.

Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts.

Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma.

1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico -basado en electroimanes-.

El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto.

Posteriormente se construyeron Mark II y Mark III.

1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era más avanzada en otras universidades.

Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).

Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.

ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.

1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea.

La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.

Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann". Su EDVAC fue el modelo de las computadoras de este tipo.

1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos.

Disponía de mil palabras de memoria central y podía leer cintas magnéticas.

Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos.

1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.

Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío.

1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.

60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas.

Se trataba de los circuitos integrados o chips.

Estos permitieron una nueva disminución en el tamaño y el costo.

1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.

1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio.

Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann.

Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:

Integración simple (Integrated Circuits o IC)

Alta integración (Large Scale Integration o LSI)

Muy alta integración (Very Large Scale Integration o VLSI)

Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando superar el millón de operaciones por segundo.

1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.

1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080.

Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.

1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente.

Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic.

El resultado fue la primera computadora Apple.

Steve Jobs y Steven Wozniak, crearon la primera computadora Apple.

A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente presenta novedades.

1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicada íntegramente al "software"

Los 80's (Computadoras para todos)

Tras el éxito de la microcomputadora, en 1981 IBM lanzó al mercado el IBM PC, diseñado por doce ingenieros dirigidos por William C. Lowe.

Su principal característica es que tenía una estructura abierta; es decir, que era capaz de integrar componentes de otros fabricantes.

De hecho, su sistema operativo, el DOS 1.0, era de Microsoft, y el microprocesador, un Intel 8088.

En cinco años se vendieron más de tres millones de unidades.

Aunque el término personal computer (PC) se popularizó con esta invención de IBM, los primeros aparatos de este tipo habían sido comercializados desde 1977 por la Tandy Corporation, que le incorporó teclado y monitor, ya que el primer modelo de computadoras de escritorio, el Altair 8800 de 1974, no los tenía.

En 1980, antes del lanzamiento de IBM, las revolucionarias empresas del Silicon Valley o Valle del Silicio -recibió ese nombre porque en él se establecieron solo empresas tecnológicas- como Apple, Tandy, Osborne y Commodore, ya habían vendido 327 mil unidades.

En 1984, la compañía Apple presentó una nueva computadora, la Macintosh, sucesora de un modelo denominado Lisa.

Entre sus novedades estaba la incorporación de una herramienta nueva para controlar la computadora, el mouse o ratón.

El modelo no tuvo gran aceptación, debido a su alto costo.

En 1985, Microsoft -compañía fundada por Bill Gates y Paul Allen en 1975- presentó el software Windows 1.1

Ese mismo año aparecen los primeros CD-ROM para computadoras.

Las computadoras personales surgieron gracias a la Muy Alta Integración de sus procesos (VLSI) desarrollada durante los ochentas, y que permitió concentrar miles de componentes electrónicos en una plaquita de silicio (el chip) de alrededor de un centímetro cuadrado.

Esto ha permitido reducir los tamaños de estas máquinas hasta hacerlas portátiles (Notebooks) y ampliar su velocidad por sobre el billón de operaciones por segundo, como es el caso de los supercomputadoras.

Los 90's - Nuevas tecnologías

Durante los noventa comenzó a masificarse el uso de las computadoras, al disminuir su tamaño y también su costo, debido a la producción en serie y a la competencia entre las fabricantes IBM, Apple y Microsoft.

Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez en más hogares.

http://mail.umc.edu.ve/umc/opsu/contenidos/historia_computador.htm




Create your own video slideshow at animoto.com.


.


¿Informática o Computación?, el dilema..


Informática y computación, dos vocablos que hasta hace muy poco tiempo eran aceptados como sinónimos en el lenguaje cotidiano, deben afrontar hoy, en virtud de los últimos progresos científicos y tecnológicos, una discriminación más precisa en sus significados.

Hoy computación es un concepto necesariamente subordinado a Informática. No puede haber computación, si primero no está presente la informática, porque la computación está basada en las ciencias informáticas; sin embargo lo contrario no es cierto, ya que no es necesaria la presencias de destrezas desarrolladas sobre máquinas de computación para aplicar la informática (basta nuestro cerebro, la máquina biológica más sofisticada).

Computación: cuenta, operación matemática. Conjunto de disciplinas científico matemáticas aplicadas al cómputo o cálculo, en todas sus posibilidades, a partir de información de cantidades, o dimensiones ponderadas mediante números; que luego de operados algorítmicamente, es posible obtener un resultado.

Informática: ciencia que estudia el tratamiento automático de la información sintáctica por medios mecanizados. La palabra informática es un acrónimo de información automática.

Observamos que en ambos casos está subyacente el concepto de información, que en principio puede ser aseverado como aquello que se capta a través de los sentidos; y que luego de su interpretación, permite tomar de decisiones, frente a un hecho.

Profundizando un poco más en estos conceptos, podemos dar una definición más objetiva para la información: elemento tangible o intangible que permite reducir la incertidumbre (o entropía) acerca de algún suceso, hecho o situación; lo que a su vez, facilita la toma de una decisión, en función del logro de un objetivo predeterminado.

Y teniendo en cuenta el concepto de dato: todo hecho, noción, cantidad o instrucción, representado bajo una forma convencional (simbología) apropiada para su tratamiento, comunicación o conservación, mediante dispositivos automáticos; es posible deducir que la información es un conjunto de datos significativos o relevantes que describen hechos o entidades; finalmente podemos responder la pregunta:

¿Qué es informática?

Con el advenimiento y el acceso popular de las computadoras a las grandes masas sociales, a fines de los años cincuenta, una gran cantidad de palabras nuevas era necesario acuñar para la intercomunicación humana de los nuevos conceptos con el que venía acompañado el fenómeno del tratamiento automatizado de datos.

La palabra informática no es castiza, es un neologismo acuñado en Francia en el año 1962, y reconocido por la Real Academia Francesa el 20 de abril de 1966. El carácter automático de la información (como se deduce del nombre), no está dado por la condición material de ser un objeto mecánico, eléctrico, químico o electrónico. Sino más bien por la existencia de reglas que determinan su comportamiento de autómata. Ello justifica, en principio, de que no es necesaria la presencia de una computadora.




http://www.ucla.edu.ve/dac/Departamentos/coordinaciones/informaticai/documentos/Inform%C3%A1tica%20o%20computaci%C3%B3n.htm

martes, 23 de marzo de 2010

Bienvenidos..!!

Hemos creado este blog personal donde publicaremos periodicamente noticias, articulos o comentarios que son de interés con respecto a diversos temas. El objetivo es contar con un sistema que permita crear nuevos contenidos, compartirlos y utilizarlos con fines educativos.