¿QUÉ ES INTERNET?
http://www.rcp.net.pe/contenidos/recursos/

¿QUÉ ES INTERNET?


No parece que la gente tenga una idea clara de lo que es Internet. El motivo de esta duda quizá sea el hecho de que no hay una definición que pueda resumir Internet; hay varios puntos de vista para entenderlo. Por un lado, Internet podría ser concebido en relación con sus protocolos comunes, como una colección de circuitos y rutinas, como un conjunto de recursos compartidos o incluso como una disposición a intercomunicarse; es decir, como una mega red, una red de redes de computadores. Sin embargo, otro enfoque, que parece más adecuado, es pensar en las redes como el medio a través del cual se envía y acumula información. Desde este punto de vista, Internet puede ser interpretado como la información y los servicios que circulan por esta red. En pocas palabras, un sistema distribuido de información, una red global de redes de ordenadores (cada red está compuesta por docenas de miles de ordenadores).

En conclusión, Internet es tanto un conjunto de comunidades como un conjunto de tecnologías, y su éxito se puede atribuir a la satisfacción de las necesidades básicas de la comunidad y a la utilización de ésta de un modo efectivo para impulsar la infraestructura. Es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores, independientemente de su localización geográfica.


El número total de usuarios de la Internet asciende hoy en día a varios millones, y su crecimiento es exponencial. Este alto nivel de conectividad ha creado un grado de comunicación, colaboración, acceso a la información e intercambio de recursos sin precedentes en la Historia de la Humanidad.

arriba

¿QUIÉN INVENTÓ INTERNET Y PARA QUÉ LO CREÓ?


Hacia 1967, la Guerra Fría estaba en su máximo apogeo y la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de Estados Unidos
DARPA (Defense Advanced Research Project Agency) , asignó a la ARPA (Advanced Research Project Agency) el desarrollar un sistema de interconexión o red que protegiera los sistemas de logística e información en todas los centros y ciudades importantes en caso de caos nuclear. Las redes de comunicación de ese tiempo estaban diseñadas de modo que cada nodo de la red dependía del nodo anterior. Si se destruía un nodo toda la red quedaba inutilizada.

Este proyecto constaba de dos objetivos: el Militar y el de Investigaciones. El objetivo militar era el de mantener en curso toda la información del gobierno mientras Estados Unidos estuviera en guerra, por ser éste un sistema descentralizado para resistir ataques, operable al 100% desde cualquier punto de la red y con capacidades de funcionamiento, aun sobre la pérdida de una parte física de la red.

El objetivo de investigación debía tener las siguientes funciones: ser un vehículo de investigación para compartir información en lugar de duplicarla, minimizar tiempos de desarrollo y motivar la cooperación entre instituciones localizadas en diferentes sectores. El resultado era una red totalmente robusta.

Internet nace, por lo tanto, a fines de la década de los 60, como un proyecto de diseñar un sistema de comunicaciones distribuido, en el cual los paquetes de información pudieran seguir rutas alternas, de manera que si una línea estaba fuera de servicio, la información podía llegar a su destino utilizando otra ruta. Esta red se llamaría "catenet" y su propósito sería posibilitar las comunicaciones entre las autoridades en caso de un ataque nuclear.

La opción más viable y segura para construirla fue el partir de la idea de una red descentralizada con vías de acceso redundantes, es decir, que no sólo existiera un único servidor y varias terminales con una sola vía de acceso, sino que todos los equipos interconectados fueran servidores y todos estuvieran conectados con los que más cerca se encontraran. Esto, aparte de hacer una telaraña de conexiones y servidores, garantizaba que al "caerse" o desaparecer un equipo o una línea de conexión, siguieran funcionando todos los demás. Prácticamente la red se desharía cuando desapareciera la última conexión entre dos servidores. Estas ideas o principios son aplicables incluso en nuestros tiempos.

arriba

¿EN QUÉ AÑO FUE INVENTADO INTERNET?

Ya ese mismo año, 1967, se tenía el primer prototipo en papel de una pequeña red descentralizada estructurada conceptualmente como lo entendemos hoy en día. Pero fue en 1969 cuando empezó a funcionar, a través de cuatro súper computadoras conectadas, todas ellas en universidades importantes en Estados Unidos: UCLA, UCSB, Stanford y University of Utah.

Esta red se llamó
ARPANET, y nació en 1969 con el objetivo de desarrollar protocolos de comunicación que permitiesen la comunicación entre las redes conectadas (a través de radio y satélite, y por otros medios). El ARPANET era una red experimental diseñada para apoyar la investigación militar; en concreto, investigaban sobre cómo construir redes que pudiesen resistir desastres parciales (como ataques de misiles) y seguir funcionando. En este modelo, la comunicación siempre sucedía entre un ordenador emisor y un receptor. Los ordenadores comunicados -no la red en sí- tenían la responsabilidad de asegurar que la comunicación se realizara. La filosofía era que cada ordenador de la red pudiera comunicarse con cualquier otro. Esta red comunicaba los ordenadores del Pentágono con los de las numerosas universidades que en aquellos momentos trabajaban para él.

La ARPANET original evolucionó hacia Internet, el cual se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, por radio y otros tipos de red. Internet, como ahora la conocemos, encierra una idea técnica clave: la de arquitectura abierta de trabajo en red. Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red, sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes, y nombre del cual proviene el calificativo "Internet:). Hasta ese momento, había sólo un método para "federar" redes: era el tradicional método de conmutación de circuitos, por medio del cual las redes se interconectaban a este nivel, pasándose bits individuales sincrónicamente a lo largo de una porción de circuito que unía un par de sedes finales.

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo a su entorno específico y los requerimientos de los usuarios de una determinada red. Por lo general, no existen restricciones en cuanto a los tipos de red que pueden ser incorporadas ni tampoco influye su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida por
Robert E. Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió, por derecho propio, en un programa separado. Desde entonces, éste fue llamado Internetting. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo, extremo a extremo seguro, que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar pérdidas intermitentes, como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio, porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP ( protocolo host a host inicial para ARPANET, llamado Network Control Protocol -- Protocolo de Control de Red).

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requería ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo, y presumiblemente cualquier aplicación soportada, sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los hosts.

Así, había que desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

Estas investigaciones dieron como resultado el protocolo
TCP/IP (Transmission Control Protocol/Internet Protocol), un sistema de comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet. Durante el desarrollo de este protocolo se incrementó notablemente el número de redes locales de agencias gubernamentales y de universidades que participaban en el proyecto, dando origen así a la red de redes mas grande del mundo.

Posteriormente, las funciones militares se separaron y se permitió el acceso a la red a todo aquel que lo requiriera, sin importar de qué país provenía la solicitud siempre y cuando fuera para fines académicos o de investigación (y por supuesto, que pagara sus propios gastos de conexión). Los usuarios pronto encontraron que la información que había en la red era por demás útil y que si cada quien aportaba algo se enriquecería aún más el acervo de información existente.

Pronto esta red se transformó en una oficina postal de alta velocidad, al convertirse el correo electrónico (e-mail) en el medio de comunicación preferido en estas universidades, con el objeto de compartir y colaborar en proyectos de investigación..


Por lo tanto, Internet fue diseñado con el propósito de comunicar a las autoridades militares en un Estados Unidos devastado por un ataque nuclear; fue concebido originalmente como una estación de comando pos-apocalíptica. Sin embargo, ahora es un medio de expresión, un masivo medio de información, e incluso de intercambio transcultural.

 
En 1970, se instalaron tres nodos adicionales en distintas universidades, conformando así a ARPANET, con siete nodos conocidos como IMP (Interface Message Processor), y trabajando sobre el protocolo NCP (Network Control Protocol) y Host to Host Protocol.

 En 1971 ARPANET se extiende a 23 sitios (hosts), conectando a los centros de investigación de universidades y de gobierno en los Estados Unidos. En 1973 se internacionaliza, al conectar dos centros en Inglaterra y en Noruega.

Alrededor de 1975, DARPA declara el proyecto como un éxito y le pasa su administración al Departamento de Comunicaciones de Defensa de Norteamérica.

A finales de la década de los setentas, ARPANET se estaba acercando a su máximo soporte, con 256 máquinas conectadas. El protocolo NCP no podía satisfacer ya el tráfico de la red, y era tangible que se necesitaba un sucesor de este protocolo.

A comienzos de 1980, los protocolos IP y TCP (que juntos forman
TCP/IP- Transmission Control Protocol/Internet Protocol ) ya eran una realidad, y para 1983 fueron adoptados por ARPANET. Esta red se componía de cientos de computadoras pertenecientes a universidades, centros de investigación militar y algunas compañías, conectadas entre sí. El servicio más popular entonces era el e-mail (electronic mail), que permitía una fácil y rápida comunicación entre diferentes personas conectadas a ARPANET. El sistema operativo que más se utilizaba era UNIX, y en especial una versión de UNIX desarrollada por la universidad de California en Berkeley llamada BSD UNIX. Hay que recordar que para ese tiempo las computadoras eran enormes y no eran accesibles al público en general (mainframes). 

Hacia 1981, ARPANET tenía 213 nodos y creciendo a un ritmo de un nodo cada 20 días. En 1982, se logró concebir e implementar el diseño final de un nuevo protocolo, denominado IP (Internet Protocol). IP fue uno de los cuatro protocolos que fueron desarrollados, pero todos trabajaban sobre éste. Los otros protocolos fueron el
User Datagram Protocol (UDP), el Transmission Control Protocol (TCP) y el Internet Control Message Protocol (ICMP).

La libre diseminación del sistema operativo Unix de ATT dió lugar a
USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales".

Gran parte de las conecciones originales de BITNET estaban enlazadas con computadoras mainframes en centros de cómputo de universidades. La situación pronto cambió, a medida que estas implementaciones de los protocolos fueron disponibles para otro tipo de máquinas. Desde el principio, BITNET ha sido multidisciplinario en su naturaleza, contando con usuarios de todas las áreas académicas. Asimismo, ha proporcionado a éstos una serie de servicios únicos, tal como el LISTSERV ( servicio de listas de distribución de archivos). Hoy en día, BITNET y el resto de redes similares a lo largo de todo el mundo ( EARN en Europa, por ejemplo ) poseen varios miles de sites. En años recientes, BITNET ha establecido un patrón que utiliza los protocolos TCP/IP con las aplicaciones RSCS que van a través del TCP.

Es así como se empieza a visualizar esta colección de redes (networks) como una gran red, y en 1983 se interconectaron las tres redes, ARPANET, CSNET y MILNET, dando origen a la red de redes, INTERNETWORK, término que luego se abreviaría a INTERNET. La esencia de la operación fueron los protocolos TCP/IP, los cuales fueron la clave que permitiría comunicarse con ordenadores de diferentes entornos con UNIX, MS-DOS o MacOS.

Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; razón de las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNET, y la SNA de
IBM . Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran, explícitamente, que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".

A mediados de los ochentas se crea el protocolo TCP/IP (Transfer Control Protocol/Internet Protocol) que permite tener un lenguaje común para todos los computadores conectados.

Pronto surgieron otras redes independientes como la CSNET (Computer Science Nerwork) y la MILNET , y ambas utilizaron los protocolos TCP/IP para interconectar sus equipos. La primera f
ue fundada inicialmente por la NSF ( National Science Foundation ) con el objetivo de conectar computadoras de grupos de investigación científica en universidades, industrias y gobiernos; mientras que la segunda era una red militar del departamento de defensa de los Estados Unidos.

arriba

¿POR QUÉ SE LLAMA INTERNET?

En 1983 se interconectaron las redes ARPANET, CSNET y MILNET, lo que dió origen al Proyecto Internetting, nombre que luego se abrevió, siendo desde entonces conocido como Internet. El sistema de protocolos que se desarrolló durante el curso de este esfuerzo de investigación se dió a conocer como el conjunto de protocolos TCP/IP , al desarrollarse previamente los dos primeros: El Protocolo de Control de Transmisión (TCP) y el Protocolo Internet (IP).

¿DESDE CUÁNDO FUNCIONA INTERNET?


La Internet fue operativo por primera vez en el año 1983, cuando ARPANET se separó en dos redes distintas, MILTNET Y CSNET, cuya suma formaba la Internet. A cada una se le dió un número de red, y se instalaron pasarelas que permitieran el envío de paquetes de información entre ellas. Cuando la ARPANET se separó para formar Internet, La Agencia de Comunicaciones de Defensa de los Estados Unidos (DCA) obligó al uso de TCP/IP a todos los usuarios de ARPANET, forzándoles a esto al modificar el software de intercambio de paquetes. Estos usuarios comenzaron a utilizar los Protocolos TCP/IP e interactuar con el entorno Internet. Esto significaba que más redes y pasarelas se podían añadir a Internet sin ningún efecto negativo sobre la red existente.

Al mismo tiempo que la Internet comenzaba a existir, redes de área local de Ethernet (LAN: Local Area Networks) se iban desarrollando. Esta tecnología fue madurando lentamente, hasta que las estaciones de trabajo de sobremesa fueron accesibles en 1983. La mayoría de éstas llegaban con el sistema
UNIX, desarollado por la Universidad de Berkeley, que incluía software de red IP. Esto creó una nueva necesidad: en lugar de conectarse a un sólo ordenador central por zona, las organizaciones deseaban conectar la ARPANET a toda su red local. Esto permitiría a todos los ordenadores de ese LAN acceder a las ventajas de ARPANET.

Simultáneamente, otras organizaciones comenzaron la construcción de sus propias redes utilizando los mismos Protocolos que ARPANET (IP y sus derivados). Se volvió evidente que si estas redes podían actuar conjuntamente, los usuarios de una red podría comunicarse con el de otro, y todo el mundo saldría beneficiado. Una de las más importantes dentro de estas nuevas redes era la
NSFNET , a cargo de la Fundación Nacional de Ciencia (NSF-National Science Foundation ) una agencia del gobierno de los Estados Unidos. A finales de los años 80 creó cinco centros de supercomputadores. Hasta este momento, los ordenadores más rápidos sólo estaban disponibles para la investigación de armamento y para unos pocos investigadoress de grandes corporaciones. Al crear centros de supercomputación, la NSF hizo que estos recursos estuviesen disponibles para cualquier investigación escolar. Se crearon sólo cinco centros porque eran demasiado caros, así que tenían que ser compartidos. Esta situación desencadenó un problema de comunicaciones: necesitaban un modo de conectar todos sus centros entre sí, y permitir a los clientes de estos centros el acceder a ellos. En un principio, la NSF intentó utilizar la ARPANET para estas comunicaciones, pero esta estrategia falló por culpa de la burocracia y problemas de personal.

En respuesta a todo ello, la NSF decidió construir su propia red, basada en la tecnología IP de ARPANET. Conectaba a los centros con líneas telefónicas de 56.000 bits por segundo de velocidad (56k bps). Esto apenas permite enviar dos páginas de texto por segundo; es lento para los estándares actuales, pero era razonablemente rápido a mediados de los 80. Era obvio, sin embargo, que si intentaban conectar cada universidad a un centro de supercomputadores se arruinarían (estas líneas telefónicas se pagan por millas). En su lugar, decidieron crear redes regionales. En cada zona del país, las escuelas estarían conectadas a su vecino más cercano. Cada cadena se conectó a un centro de supercomputadores y los centros se conectaron entre sí. Con esta configuración, cualquier ordenador podía comunicarse con cualquier otro acelerando la comunicación a través de sus vecinos.

Esta solución fue exitosa, y como cualquier solución exitosa, llegó un momento en que dejó de funcionar. Compartir supercomputadores permitía también a los sitios conectados compartir gran cantidad de información no relacionada con los centros. Repentinamente, estas escuelas tenían todo un mundo de datos y colaboraciones a su alcance. El tráfico de la red se incrementó hasta que, finalmente, las computadoras que controlaban la red y las líneas de teléfono que les conectaban fueron saturadas.

Hacia 1985 las redes locales en computadoras personales ya estaban madurando y esto ayudó a completar la idea de Internet. Ya se podía tener redes y sub-redes,las permitían conectar redes de área ancha (Wide Area Networks) con redes locales (Local Area Networks).

En 1986 surge
"The Supercomputer Centers Program" iniciado por "The National Science Foundation (NSF)", el propósito de este programa era hacer que los recursos de súper cómputo pudiesen llegar a una gama más amplia de usuarios . Establecieron cinco centros de súper cómputo en diferentes áreas de los Estados Unidos y construyeron una red que los uniera a todos. La NSF basó sus protocolos de comunicación en los protocolos de Internet y se originó lo que se conoció como NSFNET, que fue el corazón de Internet hasta 1995. Para esta entonces los principales servicios de Internet que se utilizaban eran el e-mail, ftp, telnet y gopher.

En esta misma época,
IBM introdujo los computadores personales y comenzó la revolución de la computación personal. Al mismo tiempo se introdujeron los computadores poderosos de tamaño pequeño listos para redes (como Sun) que permitieron que muchas compañías ingresaran a Internet y se comunicaran entre sí.

En 1986 la NSF (National Science Foundation ) inició, en Estados Unidos, el desarrollo de la red NSFNET para poder facilitar el acceso de toda la comunidad científica americana a cinco grandes centros de supercomputerización. Esta red privada se convirtió en la espina dorsal de Internet. Actualmente
, gracias a los 45 Megabites que utiliza por segundo , el NSFNET continúa el pedido de 12 mil millones de paquetes por mes entre las redes que conecta.

Ante el carácter abierto de esta red, surgieron muchas conexiones, principalmente por parte de las universidades. La
NASA ( National Aeronautics and Space Administration ) y el Departamento de Energía de Estados Unidos contribuyeron en ampliar la capacidad de Internet al crear la NSINET y la ESNET respactivamente. En Europa, la NORDUNET, entre otros, proporsionan conectividad a más de cien mil computadoras en una amplio número de redes. Las redes comerciales en los Estados Unidos y en Europa están empezando a ofrecer soporte y acceso a Internet con el propósito de competir con todos los interesados.

Después de que las funciones militares de la red se separaron en una subred de Internet, la tarea de coordinar el desarrollo de la red recayó sobre varios grupos. Uno de ellos, la National Science Foundation, fue el que promovió en gran medida el uso de la red, ya que se encargo de conectar cinco centros de supercómputo que podían ser contactados desde cualquier nodo de la red. Eso funcionó bien al principio, pero pronto fueron superadas las cargas de tráfico previstas. Ante esta situación, se dió la concesión a
Merit Network Inc., en unión con IBM y MCI, para que administrara y actualizara la red. La vieja red fue reemplazada por líneas telefónicas más veloces (unas veinte veces más), con ordenadores más rápidos para controlarla. Se mejoraron así las líneas de comunicación, dando un servicio mucho más rápido; sin embargo, este proceso de mejora y ampliación de velocidad y capacidad aún continúa, debido a la creciente demanda de los servicios que se encuentran en la red. Ese mismo año, igualmente, BITNET y CSNET formaron la CREN ( Corporation for Research and Educational Networking ).

En 1989 un equipo de investigación en Suiza pertenecientes al CERN (Centro Europeo de Investigación de Partículas), desarrolló una serie de protocolos para transferir hipertexto vía Internet. A principios de 1990, un grupo de personas pertenecientes al "National Center for Supercomputing Applications (NCSA)" mejoraron esos nuevos protocolos y desarrollaron el NCSA Mosaic, el primer browser que hacia el uso de Internet algo fácil. Fue entonces cuando comenzó el boom del World Wide Web que atrajo a miles de personas hacia Internet. 

En 1991, el servicio de CSNET fue descontinuado, habiendo, sin embargo, cumplido con una importante labor dentro de los inicios en la provisión de servicios académicos en la red. Un aspecto esencial de CREN es que sus costos operacionales son completamente cubiertos por los miembros de su organización.

La gestión de Internet se reforzará al año siguiente, en 1992, con la creación de la
Internet Society (ISOC). Este órgano de opinión internacional sin ánimo de lucro integrará todas las organizaciones y empresas implicadas en construir la red. Su objetivo será consensuar las acciones de extensión de Internet.

Aparte de la NSFnet, la NASA y el Departamento de Energía han contribuido a la ampliación y afianzamiento de la red en los EE-UU., en forma de la NSInet y la ESnet, respectivamente. En Europa, apoyos internacionales como la NORDUnet y otros proporcionan conexiones a decenas de miles de ordenadores en un gran número de redes. Proveedores comerciales de red en los EE.UU. y Europa comienzan a ofrecer acceso y mayores apoyos a Internet de un modo competente.

arriba

INTERNET, ¿TIENE DUEÑO?


Una característica importante de la red Internet es su descentralización, nadie gobierna Internet, cada red conectada conserva su independencia . Sin embargo, para que semejante sistema funcione es necesario la existencia de una serie de procedimientos y mecanismos de coordinación.

La conexión a Internet se realiza por medio del proveedor de servicio de acceso a Internet. Los proveedores llegan a acuerdos de interconexión entre ellos. Existen proveedores con su propia infraestructura de red de distintos tamaños y ámbitos geográficos, y esto implica cierta jerarquía de redes en cuyo vértice están las redes troncales o los denominaods "backbones", que son:

1) Redes de agencias federales de USA:
NSFnet, NSInet, ESnet, MILnet FIX ("Federal Internet Exchange")

2) Redes de proveedores comerciales:
ALTERnet, PSInet,. CIX ("Comercial Internet Exchange")

3) Redes internacionales:
EUnet, Ebone,... GIX("Global Internet Exchange")

Las grandes redes troncales conectan con las redes regionales o redes académicas nacionales :
-
AARnet (Australia)
-
JAnet (Reino Unido)
-
SWITCH (Suiza)
-
RedIRIS (España)

Estas redes intermedias dan servicio a organizaciones finales (universidades o grandes empresas).

Debido a la forma de funcionamiento de Internet, se hace necesario el administrar una serie de recursos comunes distribuidos en todo el mundo. Se ha creado para esto una especie de servicio público denominado NIC ("Network Information Center"), el cual se encarga de la asignación de direcciones IP y de los registros de nombres de dominio (URL) . ˜*s

- A nivel mundial:
InterNIC
- En Europa:
RIPE NCC

Internet Society


El marco institucional que orienta y coordina la Internet es la
Internet Society ( ISOC ), organización voluntaria cuyo propósito es promover el intercambio de información a través de la tecnología Internet. Fue creado en 1992, y está formado por miembros voluntarios: individuos, corporaciones, organizaciones sin fines de lucro y agencias gubernamentales. Su principal propósito es mantener y extender el desarrollo de Internet, tanto del intercambio global de información y de las funciones de cooperación dentro del mismo, como de sus tecnologías y aplicaciones para lograr estos objetivos.

Puede decirse que esta sociedad es como un consejo de ancianos que tiene la responsabilidad de la administración técnica y dirección de Internet. Pero no es el único grupo que puede tomar decisiones importantes, existen otros tres grupos que tienen un rol significativo:


El Internet Architecture Board (IAB), encargado de determinar las necesidades técnicas a medio y largo plazo, y de la toma de decisiones sobre la orientación tecnológica de la Internet . También aprueba las recomendaciones y estándares de Internet, recogidos en una serie de documentos RFCs ("Request For Comments") disponibles en la red.

Este grupo es responsable, por lo tanto, de cómo se deben asignar
las direcciones y otros recursos en la red, aunque no son ellos quienes se encargan de hacer estas asignaciones.

Precisamente para eso existe otra organización llamada
NIC (Network Information Center), administrada por el departamento de defensa de los Estados Unidos.

La IAB ( Internet Activities Board ), creada en 1983 con el propósito de guiar la evolución del Protocolo TCP/IP y de proveer información sobre la manera de investigar en la comunidad de Internet.
Durante el curso de su existencia, el IAB ha sido reorganizado varias veces. Actualmente, posee dos componentes principales:

IETF ("Internet Engineering Task Force") y el IRTF (Internet Research Task Force), auténticos brazos tecnológicos de Internet, sirven de foros de discusión y trabajo sobre los diversos aspectos técnicos y de investigación. Su principal cualidad es la de estar abiertos a todo aquel que tenga algo que aportar y ganas de trabajar. Los usuarios de Internet expresan sus opiniones sobre cómo se deben de implementar soluciones para problemas operacionales y cómo deben cooperar las redes para lograrlo. Este organismo es el responsable de la futura evolución de los protocolos de TCP/IP, de su estandarización con la concurrencia del IAB, y de la integración de otros protocolos para el funcionamiento de Internet ( por ejemplo, los protocolos del Open Systems Interconnection)

Internet Research Task Force. Continúa ordenando y explorando conceptos avanzados en el establecimiento de una red bajo dirección del Internet Activities Board y con el apoyo de varias agencias de gobierno.

IESG ("Internet Engineering Steering Group") e IRSG ("Internet Research Steering Group"), coordinan los trabajos del IETF y del IRTF, respectivamente.

IANA ("Internet Assigned Number Authority"), responsable último de los diversos recursos asignables de Internet.

EL CCIRN, Coordinating Committee for Intercontinental Networks, organismo que coordina las redes intercontinentales, y que en 1996 fue organizado por el FNC, Federal Networking Council de los Estados Unidos, y el organismo europeo RARO, Reseaux Associees vierte el la Recherche Europeenne , desempeña un papel muy importante en la coordinación de los planes para el establecimiento de redes de investigación patrocinadas por los gobiernos. Los esfuerzos del CCIRN han sido un estímulo para que muchas corporaciones en todo el mundo se animen a unirse a Internet.

Asimismo, ha sido creada una secretaría encargada del funcionamiento del día-a-día del Internet Activities Board y del Internet Engineering Task Force. Los miembros del IETF ( Internet Engineering Task Force) se reúnen tres veces al año en pleno junto con sus 50 grupos de trabajo aproximadamente, además de mantenerse en contacto constantemente.

Otras dos funciones son críticas para la operación IAB: la publicación de documentos que describen Internet y mantener un archivo de las necesidades de los usuarios, para la creación de futuros protocolos. A lo largo del desarrollo de Internet, sus protocolos y otros aspectos de su funcionamiento han sido archivados en una serie de documentos llamados Requests for Comment (RFCs). Estos fueron inicialmente utilizados para documentar los primeros protocolos, desarrollados por
DARPA, el ARPANET, que comenzó en 1969, y que se ha convertido en el principal archivo de información sobre Internet.

El archivo de identificados es provisto por la
IANA ( Internet Assigned Numbers Authority ), quien ha delegado parte de su responsabilidad a un Internet Registry , el cual actúa como una central que almacena información de Internet y que proporciona alojamiento central a las redes y sistemas autónomos de usuarios. La IR (Internet Registry) se encarga asimismo de proveer mantenimiento central al DNS (Domain Name Syatem ), base de datos que apunta a la distribución subsidiada de servidores de DNS distribuidos a lo largo de Internet. Esta base de datos tiene como función enlazar a un host/cliente y a el nombre de una network/red, con sus direcciones en Internet. Esta es la razón por la cual este organismo cumple una función crítica en la oparatividad a gran escala de los protocolos TCP/IP, incluído el servicio de e-mail.

Hay un gran número de NICs ( Network Information Centers) localizados a lo largo de todo Internet para servir a sus usuarios con documentación, guía, consejo y asistencia. A medida que Internet continúa creciendo internacionalmente, la necesidad de una mayor calidad en las funciones del NIC aumenta. A pesar de que la comunidad inicial de usuarios de Internet provenía del área de las ciencias de la computación y de la ingeniería, sus usuarios hoy en día abarcan una amplísima gama de disciplinas en las ciencias, las artes, los negocios, las letras, y los campos de orden militar y de administración de gobierno.

arriba

¿CÓMO FUNCIONA INTERNET?

Desde su aparición, Internet ha funcionado gracias a la colaboración entre distintas partes, llamadas partidos de cooperación. Ciertas funciones claves han sido críticas para su operatividad, siendo la más importante entre ellas la especificación de protocolos de comunicación, por medio de los cuales operan los componentes del sistema. Estos fueron originalmente desarrollados en el programa de investigación DARPA, pero en los últimos años este trabajo ha abarcado un espectro de influencias mucho mayor. Actualmente, además de los protocolos TCP/IP, existen nuevos, tales como: El conjunto de protocolos Open System Interconnection (OSI) , promulgados por la International Standards Organization (ISO) , que tratan de definir de un modo más amplio cómo ciertas aplicaciones deben ser realizadas: mensajería electrónica, conexiones online y transferencia de ficheros.

El apoyo "regional" en Internet es proporcionado por varios consorcios de redes/
networks y el apoyo "local" está a cargo de las instituciones de investigación y de educación. Gran parte de la ayuda que la comunidad de Internet recibe proviene del gobierno federal y estatal de los Estados Unidos, puesto que el Internet era originalmente parte de un programa de investigación federal-financiado, que posteriormente se ha convertido en una parte esencial de la infraestructura de la investigación de dicho país. Tanto lo relacionado con el dominio público como las implementaciones comerciales de los cien protocolos del TCP/IP estuvieron disponibles a partir de fines de los ochentas. Es precisamente en esa época cuando la población de usuarios de Internet y de componentes de la red se amplió internacionalmente y comenzó a incluir recursos de corte comercial. De hecho, gran parte del sistema hoy en día se compone de redes privadas que brindan facilidades a nivel mundial en el plano educacional, de instituciones de investigación , de negocios y gubernamentales
; la industria, asimismo, ha aportado una considarable contribución, dando origen a una nueva etapa en el desarrollo de la red.

Por otro lado, en Europa y en otras partes del mundo, el apoyo proviene de esfuerzos de cooperatividad internacional y de organizaciones de investigación locales. Durante el curso de su evolución, particularmente después de 1989, el sistema de Internet empezó a integrar soportes a otras áreas de los protocolos en cuanto al establecimiento de la red se refiere. A principios de 1990, los protocolos de OSI también se pusieron en práctica, y hacia fines del año siguiente, Internet había crecido hasta incluir alrededor de 5,000 redes en más de 36 países, sirviendo a un número mayor a de 700,000 computadoras host/ cliente, utilizadas por más de 400,000 personas.

Actualmente el énfasis en el sistema está en el trabajo de integración multiprotocolar, y en particular , en la integración de los protocolos del OSI (Open Systems Interconnection ) a su configuración.

Desde finales de los años 80, la red Internet ha crecido exponencialmente a nivel de número de redes conectadas, como de ordenadores y de tráfico. Además, cada vez hay más países con conectividad total a Internet y el tipo de usuario de la red es más diverso. El porcentaje de usuarios del ámbito comercial y empresarial crece rápidamente.

En 1992 Internet conectaba más de un millón de "hosts" (ordenadores "madre" que daban acceso a los usuarios finales) y enlazaba más de 10.000 redes de 50 países. En 1994, el número de "hosts" conectados era de tres millones y se habían llegado a integrar 25.000 redes de 146 países.
Hoy día se calcula que el número de usuarios de Internet asciende a cien millones de personas en todo el mundo.

arriba

¿EXISTE OTRO TIPO DE INTERNET?


Sin duda alguna la Internet es la red mas extensa del planeta pero no es la única red WAN. A continuación presentamos algunas redes de área extensa y su relación con Internet.

Servicios de información comercial.

Hay muchos subscriptores de servicios de información tales como Compuserve,
America OnLine, Prodigy, Genie, Delphi, etc. Estos
servicios proveen de acceso a grupos de discusión, noticias de última hora, reservas de avión e información sobre viajes.

En un principio estos servicios estuvieron bastante cerrados a la idea de conectarse a Internet, pero la presión actual hizo que muchas de ellas empezaran a abrirse. Algunos , como Compuserve o America OnLine tomaron la iniciativa y tienen pasarelas para proveer correo electrónico y acceso a Internet. Delphi provee correo electrónico Internet y otros servicios de la red como ftp y Gopher.

Proveedores comerciales de bases de datos especializadas

Entre estos se encuentran:

Servicio Nexis/Lexis (Mead Data Central)
servicio información
Dow Jones
Motores de búsqueda como
Yahoo, Altavista, etc.

Estos proveedores tiene normalmente sus bases de datos indexadas de manera que la búsqueda sobre un tema o la búsqueda de una palabra se haga mucho mas rápida. En general los accesos a estas bases de datos pueden tener tarifas elevadas o algunas pueden ser totalmente gratuitas.

Bitnet

Bitnet ("Because it's Time Network) es una red internacional que engloba a una gran cantidad de Universidades y otros centros educativos en USA. Esta red utiliza el protocolo NJE que esta muy extendido en las comunicaciones de mainframes de IBM. Debido al decrecimiento de las ventas de IBM en los grandes mainframes, el número de hosts Bitnet está disminuyendo mientras que la Internet crece de forma espectacular.

Redes Públicas o comerciales de datos

A medida que crece Internet, esta vá englobando a otras redes de conmutación de paquetes que ya existen en otros paises como son :
Datapac (Canadá)
Datapak (Suecia)
Iberpac (España)

Grandes redes corporativas

Existen grandes empresas que poseen sus propias redes para proveer de comunicaciones de datos tanto a nivel nacional como internacional. A menudo estas redes privadas tiene pasarelas a Internet. Por ejemplo,
IBM tiene una red interna denominada "VNET" que puede intercambiar correo electrónico con Internet.

Fidonet

A mediados de los años ochentas, en Estados Unidos y en Europa, los computadores y modems se hicieron muy asequibles económicamente. Ello permitió a mucha gente empezar a acceder por su línea telefónica a las denominadas BBSs (Bulletin Board Systems) que son bancos de información electrónica. Miles de BBSs aparecieron en USA y en otras partes del planeta.

Fidonet es la red que las engloba a todas ellas permitiendo el intercambio de correo electrónico entre una BBS y otra. No es una red distinta de Internet, ya que en muchos casos utiliza los caminos de la propia Internet para encauzar su información.

UUCP

Esta red tiene sus orígenes en el
Sistema Operativo Unix y en el protocolo "Unix to Unix copy". El principal uso de esta red está en el correo electrónico y en los grupos de discusión o grupos de noticias. Al igual que Fidonet, permite el acceso vía teléfono. En la actualidad constituye todavía un mecanismo eficiente y económico de enlazar ordenadores, aunque no es aconsejable para transacciones seguras.

NREN

La red Nacional de Investigación y Educación en USA no es realmente una red sino un programa o proyecto con el objetivo de usar las comunicaciones por red Internet en temas de investigación y educación.


Host
(suele traducirse al castellano por anfitrión).
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los hosts/anfitriones de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.

En Internet se llama host a cualquier ordenador conectado a la red y que dispone de un número IP y un nombre definido, es decir, cualquier ordenador que puede enviar o recibir información a otro ordenador.

Otros términos que se utilizan con frecuencia son ordenador local y ordenador remoto. El primero se refiere por lo general al ordenador que el usuario está usando en primera instancia, a través del cual se establece una conexión con otro ordenador al que se solicita un servicio, éste último es el ordenador remoto.


Los protocolos y servicios de soporte de Internet


La red Internet se basa en la utilización de los protocolos TCP/IP que son las normas que posibilitan la interconexión de ordenadores de diferentes fabricantes utilizando todo tipo de tecnología (Ethernet, líneas telefónicas conmutadas o
dedicadas, X25, RDSI…).

Esta familia está formada por más de cien normas o protocolos que no dependen de ningún fabricante y son estándar. Los dos protocolos más importantes son IP (Internet Protocol)
y TCP (Transmision Control Protocol).

-El Protocolo IP (Internet Protocol)
:
un protocolo de comunicación básico que dió origen al nombre de la Red. Define una red de conmutación de paquetes donde la información que se quiere transmitir está fragmentada en paquetes. Cada paquete se envía a la dirección del ordenador destino y viaja independientemente del resto. La característica principal de los paquetes IP es que pueden utilizar cualquier medio y tecnología de transporte. Los equipos que conectan las diferentes redes y deciden por dónde es mejor enviar un paquete según el destino son los routers o direccionadores.

-El Protocolo TCP
: se encarga de subsanar las deficiencias en la llegada de los
paquetes de información a su destino, para conseguir un servicio de transporte fiable. Este mecanismo de funcionamiento requiere que todos los ordenadores conectados tengan direcciones distintas.


Las direcciones TCP/IP


Una dirección Internet identifica un ordenador. Cada ordenador conectado a la red tiene una dirección asociada (dirección Internet). Estas direcciones son números de 32 bits que normalmente se escriben como a.b.c.d donde a,b,c,d son números menores de 255.

Una parte de la dirección identifica la red entre todas las redes conectadas a Internet y la que utilizan los routers para encaminar los paquetes. La otra parte de la dirección identifica el ordenador dentro de los conectados en la misma red. Las aplicaciones dentro de un ordenador se identifican mediante un número contenido en la cabecera de los paquetes
TCP/IP, llamado puerto.

Aunque podamos utilizar estas direcciones Internet numéricas para acceder a los
servicios y ordenadores, normalmente utilizamos nombres que son más fáciles de
recordar. Esto es posible mediante la utilización del servicio de nombres de Internet o
DNS (Domain Name System) que traduce los nombres a direcciones numéricas.

El DNS
: es una base de datos distribuida de forma jerárquica por toda la red y que es consultada por las aplicaciones para traducir los nombres a direcciones numéricas. Esta jerarquía permite distribuir la responsabilidad de garantizar que no existen nombres repetidos dentro del mismo nivel o dominio, ya que el administrador de cada nivel es responsable del registro de nombres dentro de su nivel y garantiza que éstos sean únicos. Es un servicio indispensable para nuestro uso en la vida diaria de Internet

Así, permite que una dirección IP, como la 167.114.36.123, sea más fácil de recordar, a través de los llamados nombres de dominio, como upnet.com.mx. Se pueden utilizar indistintamente los nombres o las direcciones IP en todas las aplicaciones de Internet.


Las terminaciones o dominios principales dentro del sistema de nombres de dominio original del DNS incluía:
- .com, para empresas comerciales.
- .edu, para universidades y centros educativos.
- .gov, para instituciones de gobierno.
- .mil, para instituciones militares.
- .org, para otro tipo de organizaciones.
- .net, para proveedores e instituciones de soporte para la Red.

En seguida, se tuvieron que agregar más dominios regionalizados por país, el dominio .pe para Perú, .uk para el Reino Unido, etc.

A cada dominio de éstos se les permite administrar su funcionamiento, siguiendo básicamente el esquema de los Estados Unidos. Con alguna adecuación, se han creado los dominios .com.pe, .net.pe, .gob.pe, .edu.pe, y .org.pe, para el caso específico del Perú. Otros países definen sus propias reglas: en lugar de .com, utilizan .co, por ejemplo.

El UDP (User Datagram Protocol)
: es un protocolo del mismo nivel que el TCP y sirve para transmitir datos entre aplicaciones que hacen uso de Internet. Algunos sistemas de e-mail y el protocolo SNMP se basan en este protocolo.

El ICMP (Internet Control Message Protocol): es un protocolo auxiliar de IP, para detectar y anunciar problemas en la red.

El IGMP (Internet Group Management Protocol): otro protocolo auxiliar de IP para administrar un grupo de servidores en la red.

El SNMP (Simple Network Monitoring Protocol)
: sirve para monitorear a los servidores, ruteadores y demás aparatos conectados en una red.

El LCP ( Link Control Protocol ):
es el Protocolo de Control de Enlace, y se encarga de verificar los links ( uniones/enlaces ) y garantizar su correcto funcionamiento.

arriba

APLICACIONES Y USOS DE LA RED INTERNET

Correo Electrónico:

Es el servicio más utilizado y más común en las redes. Permite transmitir texto y archivos de una manera sencilla, como un correo normal, sólo que más rápido que un telegrama (suponiendo que la red esté funcionando de manera adecuada). El correo electrónico permite el intercambio rápido de mensajes entre personas o grupos de personas del sistema de comunicación. Para enviar un mensaje electrónico sólo basta estar conectado a Internet y tener un programa de correo electrónico, que se puede conseguir gratuitamente en la red. Igualmente, será necesario que la persona a quien se envía el mensaje esté conectada y que conozcamos su dirección electrónica. Como en el correo convencional, todos tenemos una dirección electrónica personal donde recibir la correspondencia y, además, también tienen la opción de inscribirse a periódicos y revistas
electrónicas. El correo electrónico también se utiliza para transferir todo tipo de ficheros que pueden contener bases de datos, gráficos o software comprimido que es posible enviar de forma sencilla sólo conociendo la dirección del destinatario.



Cada usuario de Internet está identificado con una dirección electrónica que consta de dos partes. Por ejemplo:

fluna@rcp.net.pe.


La primera parte ( flauna ) es el nombre de usuario, que generalmente consta de tres a veintisiete caracteres y puede estar separado por puntos. A continuación, se coloca el signo @ (denominado popularmente arroba).
La segunda parte ( rcp.net.pe ) es el nombre de un dominio o de una computadora en Internet : el nombre del ordenador, el lugar donde se encuentra la
máquina (empresa o institución) y el país.

En algunos casos los sistemas de correo electrónico no soportan los acentos y las 'ñ's, por lo que es recomendable no utilizarlos.

Actualmente se utiliza el protocolo
SMTP (Simple Mail Transfer Protocol) para transmitir E-mail. Este protocolo permite mandar correo electrónico desde y hacia redes que no están conectadas directamente a Internet. Los sistemas de correo electrónico abren posibilidades inimaginables con los sistemas anteriores, entre ellos las listas de correo que permiten el intercambio de correspondencia entre un grupo cerrado de personas, lo que propicia el debate ágil sobre los temas de interés del grupo.

A partir del envío de la información, se transfiere de nodo a nodo de la red, buscando el camino óptimo para llegar al destino. El tiempo que tarda un mensaje en llegar varía en función del tráfico de la red y de las conexiones entre los
ordenadores. En unos segundos, un mensaje puede haber viajado de Barcelona a Berkeley (California).

Cuando nuestro mensaje llega a su destino, queda almacenado en el ordenador receptor hasta que su usuario se conecte de nuevo. Cuando lo hace, recibe el aviso que tiene correo y puede leer sus mensajes en el ordenador.

Internet no es la única red accesible mediante correo electrónico; existen otras conectadas a ésta mediante pasarelas. También podemos enviar mensajes electrónicos a los usuarios de estas redes.


Ventajas más importantes respecto al correo postal y al teléfono:
- más velocidad (un mensaje puede llegar a cualquier punto del mundo en horas, minutos o incluso segundos)
- coste más económico.
- se pueden consultar bases de datos, bibliotecas…
- se pueden transferir ficheros y programas.
- el destinatario puede responder cuando le interesa.


Telnet y Rlogin :

Este es otro de los primeros servicios de Internet. Sirve para establecer una sesión en una computadora remota, prácticamente como si estuviera en una red local.
Inicialmente se utilizaba el protocolo Rlogin; sin embargo, el protocolo Telnet es más nuevo y más confiable que el anterior.

Telnet es el protocolo o servicio que permite iniciar sesiones de trabajo en máquinas remotas conectadas a la Internet . El Telnet permite el teletrabajo, ya que permite, a través de un terminal lejano al puesto de trabajo, acceder a toda la información , recursos informáticos y aplicaciones de la máquina situada en el centro de trabajo, tal y como si se estuviera frente a ella . El Telnet permite también acceder a bancos de datos emulando un terminal que estuviera directamente enlazado al ordenador central. Obviamente para ingresar al sistema remoto se debe conocer un nombre de usuario y su respectivo password. En algunos sistemas hay cuentas para huéspedes o usuarios anónimos con las que se puede contar con parte de los recursos de la computadora remota. Cada sistema tiene sus propias aplicaciones que permiten usar ciertos recursos.


El Telnet es también el servicio mas utilizado para ofrecer acceso a bancos de datos, aunque empieza a ser sustituido por servicios más avanzados, tales como gopher y WWW. Sin embargo es muy común todavía en el acceso OPAC a Bibliotecas.

Uno de los protocolos más utiles es el FTP (File Transfer Protocol), Protocolo de Transferencia de Archivos, que sirve para transmitir archivos de todo tipo a través de la Red. Generalmente hay servidores llamados de FTP anónimo, de donde se puede ´´bajar´´ ( transferir a tu computadora ) archivos públicos. En este tipo de sistemas, el nombre de usuario que se utiliza es anónimo (anonymous) y la contraseña ( password ) es la dirección del correo electrónico. Hay otros sistemas en los que es necesario un nombre de usuario y su respectivo password.

Generalmente en todos los sistemas está permido bajar archivos públicos y en algunos también ´´subir´´ ( transferir archivos de la computadora en la que se está trabajando a la computadora remota) archivos propios.

Para utilizar el FTP anónimo desde un navegador, únicamente para bajar archivos, se antepone ftp:// al nombre del servidor al que se quiera conectar.

El WWW (World Wide Web)

Sin duda, el gran paso para hacer popular el uso de Internet fue la creación del World Wide Web. Fue desarrollado inicialmente en Suiza en el
CERN, dirigido por Tim Berners-Lee. Es un sistema de información que integra todos los recursos accesibles por Internet en páginas de información y se basa en otro protocolo, llamado HTTP, que permite hacer ligas de un documento, publicado en Internet, a otro, haciendo la búsqueda de información bastante amigable.

El WWW , o la telaraña de ancho mundial, es un sistema de información multimedia que permite la creación de documentos hipertexto, de libros electrónicos con aplicaciones como revistas informativas, documentos de referencia y consulta, formación o soporte técnico, etc.; es decir, desarrollar aplicaciones interactivas con soporte de entrada de datos en formularios. Esto permite desarrollar aplicaciones de tipo interactivo sobre cualquier navegador (browser).

Se le llama Web ( Telaraña ) por las conexiones ( o enlaces ) que se hacen entre los documentos que existen en ella, así se va formando una telaraña de ligas entre los documentos publicados en Internet. El WWW permite acceder remotamente a documentos electrónicos organizados en forma de hipertexto que incorporan imágenes y sonido.

Tras su aparición surge el desarrollo de los ya mundialmente famosos navegadores
Mosaic , Netscape Navigator e Internet Explorer de Microsoft, que permiten usar los diferentes recursos de la red sin tener que aprender comandos crípticos de UNIX. El primer navegador creado fue el MOSAIC,desarrollado en la NCSA (National Center for Supercomputing Applications), cuando su expansión y uso comenzó a crecer de forma exponencial. Este fue desarrollado con el propósito de facilitar la comunicación y adiestramiento de los colaboradores, científicos y estudiantes dispersos geográficamente por todo el mundo, para que participan en sus proyectos. Gracias a ello este sistema de información empezó a difundirse a nivel mundial. En el navegador una palabra, una frase, e incluso una imagen pueden formar parte de un enlace hipertexto. De esta forma es posible organizar esquemas de acceso a la información basados en íconos. Los navegadores permiten integrar sistemas anteriores de distribución de documentos basados en el intercambio de ficheros (FTP, e-mail) o Gopher, y se han convertido en una herramienta universal de acceso a Internet. En la actualidad los navegadores más comunes son el Explorer de Microsoft y el Navigator de Netscape.

Con el WWW se pretende crear también una interfaz uniforme que homogenice la búsqueda y el acceso a todos los servicios de información disponibles, generándole así al usuario la visión de un sistema de información universal. Este sistema de información distribuido, permite que, desde un interface de usuario totalmente intuitivo, la información sea buscada y mostrada de forma fácil sin necesidad de ser, o depender de, un experto informático. Es un sistema innovador que permite seguir hechos, ideas y texto de un enlace de hypertexto a otro y a su vez permite escuchar sonidos y ver graficas que lo hacen incomparable.


Así, sólo leyendo, buscando y guardando información, el usuario ¨salta¨ (de una forma transparente para él) entre diferentes documentos que pueden estar almacenados en máquinas distintas (distribución de la información). Una vez encontrada la información, si interesa se podría guardar el enlace o guardar el documento y/o imprimirlo.

Estos objetivos se consiguen mezclando los conceptos de hipertexto/hipermedia, una búsqueda indexada y una serie de diferentes protocolos de red. La organización de la información contenida en el conjunto de los servidores WWW, llamado Web, W3, se realiza mediante documentos, en los cuales existen palabras resaltadas que pueden apuntar tanto a otras partes del mismo documento, como a otros documentos. Estos documentos pueden estar físicamente en el mismo ordenador (enlace local) o en un ordenador remoto (enlace remoto). Otra parte de la organización del espacio WWW la cubren los índices. Los índices están implementados como documentos especiales que pueden ser consultados por palabras clave en vez de ser leídos. La consulta empieza desde una pagina principal (el documento más general) y a partir de ahí podemos ir moviéndonos por el entrecruzado.


El servicio WWW presenta tres ventajas fundamentales:
- se puede combinar texto y gráficos.
- los hiperenlaces permiten cargar páginas de cualquier otro servidor conectado a Internet, al margen de la ubicación geográfica del mismo.
- la creación de páginas WWW es bastante sencilla mediante el lenguaje HTML.

arriba

¿CÓMO TRABAJA EL HIPERTEXTO?


Una página WWW puede incluir tres tipos de información: texto, gráficos e hipertexto. Un hipertexto es texto resaltado que el usuario puede activar para cargar otra página WWW. La diferencia entre un documento hipertexto y un documento normal consiste en que el hipertexto contiene, además de la
información, una serie de enlaces o conexiones con otros documentos relacionados, de manera que el lector puede pasar de un tema a otro y volver al documento original en el momento en que le interese.


Los documentos hipertexto reflejan nuestra forma de trabajar con documentos o libros . Hojeamos el índice, encontramos elementos que nos interesan, vamos a las páginas donde se desarrollan, si no era lo que esperábamos encontrar, volvemos al índice y repetimos el proceso. Un documento hipertexto incluye enlaces a otros documentos donde se desarrollan con mas detalle, conceptos, ideas, noticias que se apuntan en el documento.

La información documental se codifica utilizando el estándar de marca de documentos SGML. Los documentos se pueden producir por medio de procesadores de texto como Microsoft Word o WordPerfect que se traducen automáticamente a HTML (Hyper-Text Markup Languaje), lenguaje de marca de Hipertexto.

HTML

HTML, HyperText Markup Language, es un lenguaje simple utilizado para crear documentos de hipertexto para WWW. No es un lenguaje de descripción de página como Postcript; HTML no permite definir de forma estricta la apariencia de una página, aunque una utilización algo desviada hace que se utilice en ocaciones como un lenguaje de presentación. Además, la presentación de la página es muy dependiente del browser (o programa navegador) utilizado: el mismo documento no produce el mismo resultado en la pantalla si se visualiza con un browser en modo línea, Mosaic o Netscape, es decir, HTML se limita a describir la estructura y el contenido de un documento, y no el formato de la página y su apariencia.

Una de las claves del éxito de WWW, aparte de lo atractivo de su presentación es sin duda, su organización y coherencia. Todos los documentos WWW comparten un mismo aspecto y una única interfaz, lo que facilita enormemente su manejo por parte de cualquier persona. Esto es posible porque el lenguaje HTML, en que están escritos los documentos, no sólo permite establecer hiperenlaces entre diferentes documentos, sino que es un "lenguaje de descripción de página" independiente de la plataforma en que se utilice. Es decir un documento HTML contiene toda la información necesaria sobre su aspecto y su interacción con el usuario, y es luego el browser que utilicemos el responsable de asegurar que el documento tenga un aspecto coherente, independientemente del tipo de estación de trabajo desde donde estemos efectuando la consulta.

Su simplicidad es tal que no es necesario utilizar un editor particular. Su gran permisividad exige rigor y atención en la estructura de documentos con el fin de que éstos se visualicen correctamente al margen del contexto y del browser utilizado.

Por tanto, HTML es un lenguaje muy sencillo que nos permite preparar documentos Web insertando en el texto de los mismos una serie de marcas (tags) que controlan los diferentes aspectos de la presentación y comportamiento de sus elementos.

Para escribir HTML lo único que se necesita es un editor de texto ASCII, como EDIT del MS-DOS o el Bloc de notas de Windows. Las marcas o tags que controlan el comportamiento del documento son fragmentos de texto encerrados entre los signos "mayor que" y "menor que" (<marca>). Existen diferentes tipos de marcas: algunas controlan simplemente la presentación del texto del documento; otras, la forma en que se incluirán en él imágenes; otras, finalmente, los hiperenlaces con documentos o con diferentes partes del mismo.

Existe una serie de programas que ayudan en la elaboración de documentos HTML, como HTMLED (shareware) o HTML Assistant, ambos para Windows, pero no son imprescindibles para escribir el código. Lo que sí es necesario es un programa cliente WWW, tal como Mosaic, o Netscape, para probar el documento a medida que se va desarrollando.

Las marcas funcionan muchas veces por parejas, una para indicar el inicio de enlace o formato, y otra para señalar el final. La marca de inicio consiste en una letra o una palabra (por ejemplo, estas son marcas de inicio: <B>, <TITLE>). La marca de final es la misma letra o palabra precedida por la barra inclinada o "slash" (es decir,</B>, </TITLE>). Existen, no obstante, algunas marcas que no requieren su pareja de cierre, como <BR> (que fuerza un salto de línea). Es importante señalar que las marcas, en general pueden estar indistintamente en mayúsculas o en minúsculas.

SGML

SGML es un acrónimo de Standard Generalized Markup Language o Lenguaje Normal Generalizado de Marcación. Este es una norma
ISO ( International Standards Organization) derivada de un anterior GML de IBM. SGML permite que la estructura de un documento pueda ser definida en base a la relación lógica de sus partes. Esta estructura puede ser validada por una Definición de Tipo de Documento (DTD - Document Type Definition). La norma SGML define la sintaxis del documento y la sintaxis y semántica de DTD.

Un documento SGML es marcado de modo que dice nada respecto a su representación en la pantalla o en papel. Un programa de presentación debe unir el documento con la información de estilo a fin de producir una copia impresa en pantalla o en papel.

La sintaxis de SGML es suficiente para sus necesidades, pero pocos pueden decir que es particularmente bella. El lenguaje muestra que se originó en sistemas donde el texto era el contenido principal y el marcado era la excepción.

arriba

¿QUÉ SIGNIFICA NAVEGAR POR INTERNET?


Navegar por Internet significa estar en un ambiente gráfico que permite al usuario ubicar, traer información y acceder a los Servicios Internet que se encuentran distribuidos en Servidores de todo el mundo, a través de documentos de Hipertexto. Gráficamente podemos ver a esta forma de búsqueda como una "tela de araña" que nos lleva "navegando" en busca de la información o la dirección solicitada.

Existen en el mercado una gran cantidad de navegadores por Internet, uno de los cuales es:

Microsoft Explorer

Es una aplicación que permite moverse en el ambiente de hipertexto y acceder a distintas "direcciones" de Internet, facilitando la obtención de información y/o el acceso a los servicios de Internet. Una de las principales ventajas es que Internet Center SSD distribuye para usted
Microsoft Explorer en castellano, lo cual facilita su uso y permite consultar eficazmente su ayuda.

Estas direcciones son llamadas URLs (Universal Resource Locator). Un ejemplo de URL es:

http://www.rcp.net.pe

Navegar con Dirección (URL) Conocida

Se puede obtener información en forma directa sabiendo la dirección específica de la página que se desea ver, escribiendo dicha dirección en la ventana Dirección y luego presionando la tecla Enter.

O bien clickeando en la opción de menú Archivo, luego Abrir:

Aparecerá una nueva ventana donde debe escribir la dirección y hacer click en Aceptar:

Navegar Sin Dirección (URL) Conocida

Para buscar información de un tema específico cuando no se tiene la dirección, se pueden utilizar distintos motores de búsqueda. Estos motores de búsqueda contienen campos en los que se ingresa "el texto clave" que se quiere buscar y se obtiene como resultado una página que contiene sitios con información del tipo buscado. Presionando con el mouse sobre los textos resaltados, "saltará" a la página donde se encuentra lo seleccionado.

Los motores de búsqueda son gratuitos y de uso público. La calidad de la búsqueda depende de la precisión con la que se haga la misma. Es importante tener en cuenta: la corrección ortográfica, la elección de palabras clave, el motor de búsqueda, el tamaño de las bases de datos de dichos buscadores y sus índices.

Dado que la mayoría de estos buscadores se encuentran en EE.UU., tendrá mayor éxito si ingresa las palabras claves en inglés.


El GOPHER. Distribución electrónica de documentos

El Gopher de Internet (o simplemente Gopher), es un servicio de distribución de documentos e información que permite a los usuarios explorar, buscar y recuperar información residente en bancos de datos de forma fácil y potente. El acceso a la información es configurable por el usuario a través de índice o estructuras de menú, siendo posible el acceso directo a la información de consulta frecuente. Es uno de los primeros sistemas de información a nivel mundial que se basa en menús muy fáciles de utilizar y que permiten ir de una computadora a otra en Internet de manera transparente (sin notarlo ). De ahí el nombre de Gopher, pues es un sistema que se interconecta de un lado a otro como si fueran túneles.

Cuando el usuario ojea a través del Gopher, la información aparece como una serie de menús anidados, donde cada elemento de menú es una frase explicativa del contenido de la información. El otro método de acceso a través de índice permite introducir consultas por palabra clave.

En Gopher el acceso es transparente al tipo de información: texto, imágenes, ficheros, sonido, etc .Este servicio se encarga de gestionar la recuperación y visualización de la información en sus distintas formas.


Gopher puede combinar información de distintos servidores de datos de forma transparente al usuario. Esto lo hace particularmente indicado para aplicaciones de ventanilla única o múltiples servidores de información interelacionados. En este sistema hay gran cantidad de información, mayormente técnica. Cada vez más la información se está pasando al formato de WWW, ya que en el sistema Gopher sólo se presenta la información en forma de texto, y los navegadores usados para el WWW permiten usar el protocolo y los servidores de éste. Basta únicamente con anteponer los caracteres gopher:// al nombre del servidor.

Servicio de noticias

Los servicios de noticias (Netnews o Usenet News), también conocidos como tableros de anuncios o foros de debate , son sistemas de distribución de mensajes de un usuario a muchos . Un mensaje dirigido al grupo de noticias se distribuye entre todos los usuarios suscritos al grupo, y sirve de mecanismo para la discusión de todo tipo de temas, desde los más técnicos y especializados hasta temas de actualidad general.

Una Lista de Correo es una dirección electrónica a la que puede suscribirse cualquiera que disponga de correo electrónico. Cualquiera de los suscriptores de la lista puede enviar mensajes a dicha dirección, y cualquiera de los mensajes
que recibe la lista es automáticamente reenviado al resto de los suscriptores de la misma.

Cualquier materia que se proponga, puede tener respuesta en una lista electrónica. Existen diferentes tipos de listas, algunas de las cuales sólo proporcionan información y otras son de libre acceso. Las primeras únicamente envían
mensajes a los suscriptores, sea una persona o un grupo reducido. A las de libre acceso, en cambio, todos los suscriptores pueden enviar mails a los miembros de la lista.

Otros servidores mantienen direcciones de correo de listas de distribución, es decir, cuando un usuario envía un mensaje a la lista, el servidor envía una copia a cada uno de los usuarios suscritos a ella.

Para recibir información sobre los servidores de listas basta que conozcamos la dirección electrónica de uno de ellos, ya que ese nos puede facilitar información de cómo podemos utilizarlo y la dirección de otros servidores.


Por ejemplo, si se manda un email a la dirección LISTSERV@listserv.rediris.es, escribiendo help en el cuerpo del mensaje, recibiremos a los pocos minutos un email con una lista abreviada de las órdenes que puede entender el LISTSERV.

Los grupos de noticias o News es el sistema más sencillo para localizar colectivos y personas relacionadas con nuestros intereses. Son grupos de debate o trabajo en grupo organizados temáticamente.

Es algo similar a las listas, pero con la diferencia de que los mensajes no son depositados en el propio buzón de correo, sino en un tablón público disponible para ser leído en cualquier momento.

Mediante el programa correspondiente, una persona puede expresarse libremente sobre cuestiones relacionadas con el grupo. También hay grupos donde el moderador filtra la información.

Existen entre 4000 y 5000 grupos temáticos, algunos de los cuales son mantenidos por empresas privadas a las cuales se les paga una cuota para recibir esas noticias.


Hay diferentes "lectores de News" que nos permiten visualizar los últimos artículos enviados.


Transferencia de ficheros (FTP)

El File Transfer Protocol es una herramienta que le permite captar desde su ordenador ficheros procedentes de cualquier usuario o servidor del mundo. La oferta de los servidores de FTP es muy variada. Vía Internet, puede incorporar a su PC software gratuito, documentos técnicos, bibliotecas gráficas, aplicaciones
informáticas….

El término FTP (File Transfer Protocol) se refiere a la aplicación diseñada para la transferencia de ficheros entre dos ordenadores. Estos ficheros pueden ser documentos, textos, imágenes, sonidos, programas, etc.

Si bien la transferencia de ficheros entre dos ordenadores es el mismo proceso en todos los casos, podemos clasificar esta operación en dos tipos, dependiendo de que sea necesario o no, autorización para entrar en el ordenador remoto:

Usted trabaja en dos ordenadores diferentes conectados a una red. Es decir, posee una cuenta en ambos y la correspondiente contraseña (password) si fuera necesaria. En ese caso, utilizaría FTP para transferir ficheros de un ordenador a otro.

Usted dispone de un ordenador conectado a Internet y desea obtener ficheros de acceso público que están disponibles en miles de anfitriones (host) de Internet. En este caso no será necesario la contraseña y esta operación se la conoce como FTP
anónimo (anonymous FTP).

Anonymous FTP


FTP (File Transfer Protocol), es el nombre del protocolo que permite a un usuario de un sistema acceder y transferir a otro sistema de la red. Normalmente es también el nombre de la aplicación que nos permite realizar FTP. Podemos realizar FTP, desde una aplicación de FTP o también desde nuestro navegador de intenet. Puede encontrar clientes FTP en nuestro área shareware.

Si accede a nuestro área shareware podrá encontrar varias aplicaciones Internet, además de clientes e información de FTP. Para realizar una sesión FTP desde un cliente FTP, deberá especificar la dirección del host que sea público. Si por
el contrario, intenta acceder a un host público, tendrá que especificar como login la palabra "anonymous", y como password se suele poner la dirección Internet. Al iniciar una sesión FTP nos aparecerá una ventana con nuestro árbol de directorios de la máquina remota a la que nos hemos conectado y movernos dentro de ellos
.
 


Archie
: es un sistema de información para buscar archivos que estén disponibles en servidores públicos dentro de Internet. En lugar de buscar en cada sitio de FTP anónimo de Internet, los servidores archie contienen índices de los archivos que hay en dichos sitios. Se pueden hacer búsquedas de información de cualquier tema, simplemente especificando el nombre de lo que queremos buscar.

Existen tres métodos de utilización de Archie. El primero es la utilización de un cliente de Archie. Estos clientes no sólo permiten realizar la búsqueda en una base de datos remota sino que también nos permiten obtener el fichero directamente, sin necesidad de utilizar una aplicación de FTP externa.

Cliente Archie para Windows: ftp://oak.oakland.edu/SimTel/win3/winsock/wsarchie.zip

El segundo método es la utilización de un cliente de Archie remoto, accesible vía Telnet. El principal inconveniente de este método es la imposibilidad de obtener el fichero directamente (será preciso utilizar una aplicación externa de FTP
para poder obtenerlo).

Para utilizar Archie a través de Telnet el primer paso a realizar es conectar con el servidor remoto. La regla general indica que siempre se deberá utilizar el servidor más próximo a la localización en la que uno se encuentre.

Al realizar la conección por Telnet a un servidor Archie, éste preguntará por el login. Así, se deberá escribir ‘archie’ y no se solicitará password.

Los comandos más usados dentro de Archie son los siguientes:

-about, nos da información acerca de Archie.

-bye, salir de archie.

-exit, salir de archie.

-list ,lista de todos los sistemas conocidos en la base de datos archie.

-prog, para realizar la búsqueda del tema que queremos (utiliza comodines).

-site, lista los archivos contenidos en un sistema.

El otro método es utilizando un servidor de Web que realiza la búsqueda en una base de datos Archie. La ventaja de este método consiste, en primer lugar, en el interface de usuario, ya que se utilizan formularios estándar de Web, que facilita
notablemente la selección de las diferentes opciones y, lo más importante, una vez localizada la información se puede descargar el fichero concreto que se buscaba directamente en nuestro ordenador simplemente realizando un clic con el
Mouse sobre el resultado de la búsqueda.

Listado de servidores Archie:
http://archie.emnet.co.uk/

Veronica
: es un sistema para buscar información por tema en el sistema de Gopher. La búsqueda se basa en analizar los títulos de los menús del Gopher. Los resultados se presentan también en forma de menús de Gopher.

WAIS : es otra clase de sistema para buscar información en el gopher, sólo que en lugar de buscar únicamente en el título de los menús del gopher, se busca en el cuerpo de los documentos que se encuentran en los servidores que corren este servicio.

IRC- Chat:

Internet Relay Chat (Charla Interactiva Internet), es el protocolo mundial para conversaciones simultáneas, que permite comunicarse por escrito entre sí a través del ordenador y con varias personas en tiempo real. Son pláticas en línea con gente de todo el mundo, acerca de diferentes temas.

Hay dos sistemas principales, dalnet y undernet, que conectan a una gran cantidad de servidores alrededor del mundo, a través de los cuales se tiene acceso a los canales de IRC. Los canales funcionan como una banda civil, utilizando como analogía a la radio, donde todo mundo opina y se puede comunicar con todos los demás usuarios. Las nuevas versiones del software para utilizar el IRC, permiten hacer pláticas privadas con otros usuarios y transmitir y recibir archivos en línea.
Para poder realizar IRC se deberá instalar en el ordenador del usuario el soft apropiado, además de disponer de la dirección de un host que acepte


Utilizando IRC uno elige el modo de la comunicación que desea emplear, sin importar la aplicación (sea charla, voz, tarjeta del mensaje, la comunicación de los datos, la transferencia de fichero o juegos) ICQ conseguirá su mensaje entero y en tiempo real. Este sistema utiliza una variedad de aplicaciones Internet populares y sirve como plataforma universal de la cual uno pueda lanzar a cualquier par a la aplicación del par (tal como Microsoft NetMeeting o Netscape CoolTalk).

Puede también ser utilizado en un modo del múltiple-utilizador, gracias a lo cual un determinado grupo puede conducir conferencias apenas ' cuelgue hacia fuera ' en línea. El programa se ejecuta en el fondo, tomando memoria mínima y los recursos netos. Mientras que usted trabaja con otras aplicaciones, ICQ le alerta cuando hay una conexión, permitiendo que uno trabaje de forma eficiente mientras que paralelamente mantiene una amplia gama de funciones en Internet. Entre las funciones disponibles se encuentran: charla, mensaje, E-mail, y transferencia del URL y de fichero.


INTRANET


Se llama así a las redes tipo Internet pero que son de uso interno, por ejemplo, la red corporativa de una empresa que utilizara protocolo TCP/IP y servicios similares como WWW.

Finger

Finger es un programa que se encuentra en muchos ordenadores del sistema, que nos facilita la búsqueda de información sobre los usuarios de la red. Para realizar Finger se deberá conectar con un host del sistema que tenga este servicio, luego aparecerá una casilla donde introduciremos los datos del usuario que se quiere ubicar utilizando el siguiente formato:

usuario@host.

Cuando se está utilizando Finger no hace falta introducir el nombre exacto al realizar la búsqueda, pero sí es imprescindible el host del usuario. Si sólo se especifica el nombre del host, Finger nos devolverá una lista con todos los usuarios. El tipo de información que devuelve Finger depende de lo que esté disponible, normalmente incluye el nombre del usuario, el del login, oficina, dirección y teléfono. Desafortunadamente, Finger no está disponible en todos los host, así que no se puede confiar en él para obtener todas las respuestas.

arriba

ASPECTOS IMPORTANTES Y POSITIVOS DE INTERNET

El aspecto más importante del esfuerzo de creación de una red por la NSF(National Science Foundation) es que permitió a cualquiera acceder a la red. Hasta ese momento, el accesso a Internet sólo era posible para investigadores informáticos, empleados del gobierno y similares. La NSF promovió el acceso educacional universal creando conexiones en los campus sólo si éstos tenían planeado a su vez extender el uso de Internet a su alrededor, de tal modo que cualquier estudiante universitario podía ser un usuario de Internet.

El enorme crecimiento de Internet se debe en parte a que es una red basada en fondos gubernamentales de cada país que forma parte de Internet lo que proporciona un servicio prácticamente gratuito. A principios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos comerciales en Internet, dando así origen a una nueva etapa en el desarrollo de la red.


La demanda sigue creciendo. Ahora que la mayoría de facultades y escuelas universitarias están conectadas, se está intentando que se conecten las escuelas de enseñanza primaria y secundaria. Los licenciados saben qué ventajas tiene la Intenet, y tratan de conectar a las empresas en las que trabajan. Por ello, el crecimiento se ha acelerado hasta niveles insospechados en los últimos años.

Por otro lado,
la constitución de redes comienza a incluir aplicaciones comerciales. De hecho, el grueso del sistema hoy en día está formado por accesos privados en instituciones de investigación y educativas, empresas y en organizaciones gubernamentales a lo largo y ancho del planeta.


Aplicaciones de Internet en las empresas

Internet es una extraordinaria herramienta que va a cambiar el curso del mundo de los negocios. Algunos dicen que: "la empresa que no esté en Internet en cinco años estará fuera de negocio". Las facilidades que esta herramienta informativa dentro de esta área son muchas

Creación de nuevos clientes

Encontrar nuevos clientes no es siempre tarea fácil. Incluye cuidadosos análisis de mercado, marketing, etc... Internet esta constituida por millones de usuarios cuya formación es múltiple. Se pueden encontrar nuevos clientes de este grupo gigantesco siempre y cuando se suponga la presencia de uno mismo en la red.

Análisis de productos

Muchos usuarios hacen análisis de productos, comparaciones y estudios técnicos sobre los mismos por medio de Internet. A menudo, se puede encontrar por lo menos una persona que esté familiarizada con el producto en el que uno está interesado. Se puede conseguir los manuales de ese producto ahorrando tiempo y dinero.

Análisis de mercado

Debido al gran número de personas conectadas a Internet, resulta muy fácil y ventajoso realizar un análisis de mercado para un nuevo producto o idea de servicio. Con poco esfuerzo este nuevo producto o idea llega a un gran número de gente. Una vez hecho este análisis, se puede examinar el nivel de aceptación que tienen los usuarios que hayan recibido el producto. Este es el motivo por el cual es cada vez mayor el número de empresas que basan sus investigaciones en los recursos que encuentran en Internet.

Marketing-publicidad

Son muchas las razones por las cuales podemos considerar a Internet como una poderosa herramienta de marketing.

La comercialización y publicidad de un determinado producto o servicio se pueden hacer a una misma vez al coste de una fracción de lo que serían los métodos tradicionales.

Otra ventaja es que, mientras la aparición publicitaria en los medios de difusión, como la televisión, ha quedado limitada a grandes empresas que pueden cubrir los gastos, sin embargo en Internet cualquier empresa puede aparecer profesionalmente al igual que lo hacen las grandes empresas como
IBM, MICROSOFT, etc., y lo que es más sorprendente, por unos precios que incluso cualquier particular se puede permitir.

Lo mejor de todo es que una empresa o particular puede comercializar sus productos y servicios a través de Internet y recibir un beneficio instantáneo por sus esfuerzos de comercialización, cosa que no había sido antes posible, especialmente a tan bajo costo.

Los expertos han señalado que el éxito o el fracaso de las empresas en el futuro dependerá de la cantidad de información que el futuro cliente tenga sobre ellos, y la información, claro está, depende de la publicidad y Internet.

El sentido de la publicidad está cambiando desde que existe Internet, ya que en internet, la publicidad que uno ve y visita, es la que él mismo está interesado.
Una vez interesado, uno mismo puede, la mayoría de las veces, realizar sus compras, pedidos, o informar instantáneamente al ofertante de sus intenciones de compra, con o sin un costo muy bajo.

Consejos y ayuda de expertos

Hay un gran número de excelentes expertos en Internet que hacen presencia de manera ampliamente conocida y que son fácilmente accesibles. Muchas veces se puede conseguir un consejo o ayuda de uno de estos expertos de forma gratuita, antes que tener que pagar una fuerte suma de dinero a servicios de consultoría de empresas, revistas o periódicos.

Ofertas y demandas de empleo

Internet tiene largas listas de ofertas y demandas de empleo que se actualizan en los grupos de noticias
(Usenet Groups) constantemente . Estas ofertas y/o demandas informan de forma actualizada la disponibilidad de cada nueva profesión.

Acceso rápido a la información

Acceder a la información sobre Internet es mucho mas rápido en muchas ocasiones que las transmisiones vía fax o servicios de mensajería. Se puede acceder a la información en cualquier país del mundo y hacer conexiones interactivas con ordenadores remotos situados en cualquier lugar del mundo.

Diseminación de la información a gran escala

Pueden colocarse documentos en ordenadores de Internet y hacerlos instantáneamente accesibles a millones de usuarios. Los documentos hipertexto proveen un método efectivo para presentar la información a suscriptores o al público en general . La creación de documentos Web y el registro de estos documentos en servidores de hipertexto o Web (hay muchísimos en Internet), mejora la disponibilidad de los documentos a un gran número de clientes, en lugar de tener que hacer esta operación por medio de una circular a varios periódicos.

Comunicaciones rápidas

El correo electrónico se ha consolidado como la forma mas efectiva de comunicación en Internet y puede ser preferible a las comunicaciones telefónicas en muchísimos casos:
- no interrumpe su trabajo (el teléfono sí)
- remitente y destinatario trabajan independientemente del horario (el teléfono no)
- la información se puede reprocesar (en el teléfono las palabras se las lleva el viento en muchas ocasiones)

Coste efectivo en la transferencia de documentos

La transferencia de documentos a través de Internet tarda poco tiempo, con lo que se ahorra dinero que de otra manera se tendría que gastar en correo normal o servicio de mensajería, los cuales pueden sufrir retrasos, perdidas o daños. Si un documento que se intenta transferir en Internet se pierde o no llega a su destino, siempre se puede reenviarlo.

Comunicaciones pares

Investigadores y ejecutivos de empresas han apuntado el hecho de que muchas de sus comunicaciones en Internet están en la misma línea entre sus campos de investigación y sus campos de trabajo. Las comunicaciones pares permiten a la gente compartir sus ideas, problemas y soluciones entre ellos mismos. A menudo la gente encuentra que otros están en su mismo campo profesional y que ya se han enfrentado a los mismos problemas, y esta dispuesta a ofrecer consejos y soluciones.

Nuevas oportunidades de negocio

Muchas personas emprendedoras continuamente buscan nuevas e innovadoras ideas que sean comercialmente viables. Los usuarios de Internet están constantemente ayudando a dar soluciones a estas ideas no sólo por los motivos de tradición investigadora de la Internet, sino por la atmósfera de cooperación que envuelve a esta red.

arriba

 

VENTAJAS QUE PROPORCIONA INTERNET

Internet ofrece, entre otras, las siguientes ventajas:

-Permanencia en contacto con amigos, parientes y colegas alrededor del mundo, a una fracción del costo de una llamada telefónica o correo aéreo.
-Discusión sobre cualquier tema con personas de todos los países, culturas y utlizando el idioma que desee.
-Exploración global de los millares de bibliotecas y bases de datos de información existentes.
-Acceso a millares de documentos, diarios, reservas y programas.
-Servicio de Noticias de cualquier tipo y de todo el mundo.
-Juegos en vivo y en tiempo real; permite jugar con docenas de personas
de inmediato.

Conectarse a la Red hoy toma, en un sentido, algo de aventura. Se necesita la predisposición para aprender y una capacidad de tomar un hábito profundo cada vez superior en poco tiempo. Visitar la Red, hoy día, es como viajar al extranjero.

La Red realmente tiene una tradición rica de ayudar a recién llegados. Hasta muy recientemente, había pocas guías escritas para la gente ordinaria, y la Red creció en su mayor parte mediante una tradición oral, en la cual los expertos ayudaban a los recien iniciados.