viernes, 5 de noviembre de 2010

Webcam

CONCEPTO: Una cámara web (en inglés webcam) es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o a otra u otras computadoras de forma privada.

Las cámaras web necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas las cámaras web se las denomina cámaras de red.

Historia:
En el Departamento de Informática de la Universidad de Cambridge la cafetera estaba situada en un sótano. Si alguien quería un café tenia que bajar desde su despacho y, si lo había, servirse una taza. Si no lo había tenía que hacerlo. Las normas decían que el que se termina la cafetera debe rellenarla, pero siempre hay listos que no cumplen con las normas.

En 1991, Quentin Stafford-Fraser y Paul Jardetzky, que compartían despacho, hartos de bajar tres plantas y encontrarse la cafetera vacía decidieron pasar al contraataque. Diseñaron un protocolo cliente-servidor que conectándolo a una cámara, trasmitía una imagen de la cafetera a una resolución de 128 x 128 pixels. Así, desde la pantalla de su ordenador sabían cuando era el momento propicio para bajar a por un café, y de paso sabían quienes eran los que se acababan la cafetera y no la volvían a llenar. El protocolo se llamó XCoffee y tras unos meses de depuración se decidieron a comercializarlo. En 1992 salió a la venta la primera cámara web llamada XCam.

La cámara finalmente fue desconectada el 22 de agosto de 2001.

La camara digital



Partes de la camara digital:




Concepto: Una cámara digital es una cámara fotográfica que, en vez de capturar y almacenar fotografías en películas fotográficas como las cámaras fotográficas convencionales, lo hace digitalmente mediante un dispositivo electrónico, o en cinta magnética usando un formato analógico como muchas cámaras de video.

Historia
Los conceptos de digitalizar imágenes en escáneres y convertir señales de video a digital anteceden al concepto de tomar cuadros fijos digitalizando así señales de una matriz de elementos sensores discretos. Eugene F. Lally del Jet Propulsion Laboratory publicó la primera descripción de cómo producir fotos fijas en un dominio digital usando un fotosensor en mosaico.2 El propósito era proporcionar información de navegación a los astronautas a bordo durante misiones espaciales. La matriz en mosaico registraba periódicamente fotos fijas de las localizaciones de estrellas y planetas durante el tránsito y cuando se acercaba a un planeta, proporcionaba información adicional de distancias para el orbitaje y como guía para el aterrizaje. El concepto incluyó elementos de diseño que presagiaban la primera cámara fotográfica digital.
Texas Instruments diseñó una cámara fotográfica análoga sin película en 1972, pero no se sabe si fue finalmente construida. La primera cámara digital registrada fue desarrollada por la empresa Kodak, que encargó la construcción de un prototipo al ingeniero Steven J. Sasson en 1975. Esta cámara usaba los entonces nuevos sensores CCD desarrollados por Fairchild Semiconductor en 1973. Su trabajo dio como fruto una cámara de aproximadamente 4 kg. y que hacía fotos en blanco y negro con una resolución de 0,01 megapíxeles. Utilizó los novedosos chips de estado sólido del CCD. La cámara fotográfica registraba las imágenes en una cinta de cassette y tardó 23 segundos en capturar su primera imagen, en diciembre de 1975. Este prototipo de cámara fotográfica era un ejercicio técnico, no previsto para la producción.

El teclado

partes externas:




Concepto: Es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquina de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras.

Historia:
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia.

Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés y portugués.

Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.

El monitor



Partes internas:















Concepto:El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora.
Historia:
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.


CLASIFICACION:
Monitores analógicos :
Los monitores CRT usan las señales de vídeo analógico roja, verde y azul en intensidades variables para generar colores en el espacio de color RGB. Éstos han usado prácticamente de forma exclusiva escaneo progresivo desde mediados de la década de los 80.


Combinación digital y analógica:
Los primeros conectores de monitor externos y digitales popularizados, como el DVI-I y los varios conectores breakout basados en él, incluían las señales analógicas compatibles con VGA y las señales digitales compatibles con los nuevos monitores de pantalla plana en el mismo conector.
Monitores digitales:
Los nuevos conectores que se han creado tienen sólo señal de vídeo digital. Varios de ellos, como los HDMI y DisplayPort, también ofrecen audio integrado y conexiones de datos.
Las señales digitales de DVI-I son compatibles con HDMI, actualmente se usan para señales de vídeo de alta definición.

EL MOUSE

PARTES INTERNAS:

PARTES EXTERNAS:

Concepto: Es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Este dispositivo a demostrado ser útil en la informática para las personas.


HISTORIA: Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Todo fue un proyecto diseñado para la mejor comunicación del hombre y el computador .
En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos.
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari ST, y la conocida Apple Lisa.

Clasificación:
Por mecanismo

Mecánicos:
Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta.
Ópticos:
Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar.
Láser:
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos.

Trackball:
El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes.

Por conexión

Por cable:
Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio.

Inalámbrico:
En este caso el dispositivo carece de un cable que lo comunique con la computadora (ordenador), en su lugar utiliza algún tipo de tecnología inalámbrica.