Powered By Blogger

Páginas

lunes, 22 de febrero de 2010

VIRUS DE COMPUTADORA



Los virus, son una de las armas más letales, que existen hoy en día contra las computadoras. Estas pequeñas piezas de códigos, pueden llegar a ocasionar graves daños en la computadora. Como por ejemplo, borrar archivos, dañar el sector de arranque, y en los casos más extremos incluso dejar nuestra computadora inutilizable. Por lo mismo, es que se han ido formando o creando, diversos tipos de software, los cuales intentan proteger a la computadora, de los ataques de los virus; esto lo veremos en detalle en otro artículo.
Estos virus, a pesar de su similitud con los que infectan a los seres humanos, son creados por personas, y no surgen de manera espontánea por error. Y ¿porque alguien haría algo así? Por varios motivos. Algunos programadores lo hacen por ocio o para probarse a si mismos. Otros creadores de estas amenazas buscan ocasionar directamente daños o algún beneficio comercial. Podemos decir que son desarrollados de manera exprofesa, para que causen daño, en la mayor cantidad de computadoras posible.

LOS INTEGRANTES DE ESTE BLOG


SECCION "C"
URDANETA YALIRIS #10
URREA JOSE #31
DAVILA LUCIA#01
MOSQUERA BRENDA #09
BRACHO LUIS#36
CHACON MARIA #20
LABRADOR ADRIAN#30
SOTO EDUALIZ#15

domingo, 21 de febrero de 2010

OPENOFFICE

OpenOffice.org es una suite ofimática de software libre y código abierto de distribución gratuita que incluye herramientas como procesador de textos, hoja de cálculo, presentaciones, herramientas para el dibujo vectorial y base de datos. Está disponible para muchas plataformas como Microsoft Windows y sistemas de tipo Unix como GNU/Linux, BSD, Solaris y Mac OS X. OpenOffice está pensado para ser altamente compatible con Microsoft Office, con quien compite. Soporta el estándar ISO OpenDocument con lo que es fácil el intercambio de documentos con muchos otros programas, y puede ser utilizado sin costo alguno. En marzo de 2009, OpenOffice soporta más de 80 idiomas.[1]
OpenOffice.org posee como base inicial a StarOffice, una suite ofimática desarrollada por StarDivision y adquirida por Sun Microsystems en agosto de 1999. El código fuente de la suite fue liberado en julio de 2000. Actualmente proporciona una alternativa abierta, gratuita y alta calidad comparable con la suite de Microsoft Office. El código fuente de la aplicación está disponible bajo la licencia LGPL.
El proyecto y el programa son denominados "OpenOffice" de forma informal, aunque "OpenOffice.org" es el nombre oficial completo ya que la denominación openoffice es una
marca registrada en posesión de otra empresa. El nombre oficial completo se abrevia como OOo.

SOFTWARE LIBRE




NANOTECNOLOGÍA

La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman (Breve cronología - historia de la nanotecnología).
La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (
nanomedicina), etc..
Esta nuevas estructuras con precisión atómica, tales como
nanotubos de carbón, o pequeños instrumentos para el interior del cuerpo humano pueden introducirnos en una nueva era, tal como señala Charles Vest (ex-presidente del MIT). Los avances nanotecnológicos protagonizarían de esta forma la sociedad del conocimiento con multitud de desarrollos con una gran repercusión en su instrumentación empresarial y social.
La
nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la"nanotecnología molecular", esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation" introdujo las promesas y peligros de la manipulación molecular. Actualmente preside el Foresight Institute.
El padre de la "nanociencia", es considerado Richard Feynman, premio Nóbel de Física, quién en 1959 propuso fabricar productos en base a un reordenamiento de átomos y moléculas. En 1959, el gran físico escribió un artículo que analizaba cómo los ordenadores trabajando con átomos individuales podrían consumir poquísima energía y conseguir velocidades asombrosas.
Existe un gran consenso en que la nanotecnología nos llevará a una segunda revolución industrial en el siglo XXI tal como
anunció hace unos años, Charles Vest (ex-presidente del MIT).
Supondrá numerosos avances para muchas industrias y nuevos materiales con propiedades extraordinarias (desarrollar materiales más fuertes que el acero pero con solamente diez por ciento el peso), nuevas aplicaciones informáticas con componentes increíblemente más rápidos o sensores moleculares capaces de detectar y destruir células cancerígenas en las partes más dedlicadas del cuerpo humano como el cerebro, entre otras muchas aplicaciones.
Podemos decir que muchos progresos de la nanociencia estarán entre los grandes
avances tecnológicos que cambiarán el mundo.

computacion cuántica

En la computación cuántica, a diferencia de la computación actual donde cada bit puede estar en un estado discreto y alternativo a la vez, la unidad fundamental de almacenamiento es el bit cuántico, donde cada bit cuántico puede tener múltiples estados simultáneamente en un instante determinado, así reduciendo el tiempo de ejecución de algunos algoritmos de miles de años a segundos.
La computación cuántica está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la tele transportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Una arquitectura cuántica, muy aceptada entre los investigadores y orientada a ser compatible con las actuales arquitecturas, cuenta con memoria y una unidad de procesamiento aritmético/lógico, y con elementos cuánticos como la tele transportadora de código y el planificador dinámico. Su avance teórico ha sido muy exitoso, aún así, su realización depende de la futura implementación de una computadora cuántica, sin embargo ya se está desarrollando tecnología comercial basada en esta teoría.
En este trabajo se desarrollan los fundamentos y los elementos básicos que conforman la computación cuántica. También se presenta una arquitectura cuántica muy aceptada entre los investigadores que desde un principio han orientado sus investigaciones hacia lograr una arquitectura compatible con las actuales, de ahí que esta tiene muchas semejanza con las arquitecturas existentes, con elementos propios de la computación cuántica.
La comunidad científica dedicada a investigar tópicos en el ámbito de la computación cuántica, ha logrado enormes avances teóricos, al demostrar que es posible reducir drásticamente los recursos computacionales requeridos en la ejecución de algoritmos. Algunos de esos algoritmos requieren un inmenso poder de cómputo aún en las computadoras más avanzadas de la actualidad. Algunos algoritmos matemáticos como la búsqueda de los factores de números primos, algoritmos de manejo de información como la búsqueda en bases de datos no ordenadas; han sido teóricamente desarrollados con mucho éxito, utilizando los fundamentos de la computación cuántica.
La teoría de la computación cuántica esta basada en las interacciones del mundo atómico y en futuras implementaciones de las computadoras cuánticas. Estas aún están en los laboratorios de investigación pero ya se tienen resultados alentadores, como el desarrollo de la computadora cuántica de cinco qubits desarrollado por Steffen.


3.1 FUNDAMENTOS DE LA COMPUTACION CUANTICA


Este, definitivamente es uno de los métodos que se deberían desarrollar más (a mi punto de vista), pues son de los que ofrecen una gama de prestaciones enormes; imaginarse que los dispositivos de almacenamiento más avanzados hasta ahora se duplicaran, suena bastante interesante, pues los qubits pueden representar cuatro números a la vez, siendo que la lógica binaria sólo permite un 1 ó un 0 para un solo bit. Esto definitivamente implica una duplicación, por así decirlo de la capacidad de procesamiento no sólo de las memorias o dispositivos de almacenamiento secundario; sino además en todos los demás componentes de un sistema informático como pueden ser: microprocesadores, tarjetas de video, de sonido, etc.
Además, lógicamente estos descubrimientos aumentarían notablemente la velocidad de los micros y de todos sus demás componentes.
Bueno, empezaré entonces con la explicación del principio de la computación cuántica. En la computación tradicional, un bit es la mínima unidad de información pero, para representarlo, se utiliza la ausencia o la presencia de miles de millones de electrones en un diminuto transistor de silicio.
La computación cuántica pretende utilizar un principio básico de la mecánica cuántica por el cual todas las partículas subatómicas (protones, neutrones, electrones, etc.) tienen una propiedad asociada llamada spin. El spin se asocia con el movimiento de rotación de la partícula alrededor de un eje. Esta rotación puede ser realizada en un sentido, o el opuesto. Si por ejemplo tomamos como bit al spin de un protón, podemos usar una dirección como 1 y otra como 0. Estos bits, tomados a partir del spin de las partículas han recibido el nombre de qubits.
Sin embargo, en mecánica cuántica el estado de una partícula se determina a través de la asignación de una probabilidad, no podemos hablar de un estado 1 ó 0 claramente determinado. Esta aparente ambigüedad tiene una ventaja que convierte a la computación cuántica en un desarrollo revolucionario: La lógica de un bit es uno u otro , mientras que un qubit (nombre dado al bit cuántico) entraña el concepto ambos a la vez. Si tomamos por ejemplo dos bits, sus estados posibles son cuatro: 00, 01, 10, 11. Son necesario cuatro pares de bits para representar la misma información que un solo par de qubits con comportamiento ambiguo.
Los qubits pueden representar en este caso cuatro números a la vez, cuatro respuestas posibles a la vez. Procesamiento paralelo real, la Meca de la computación. Sus aplicaciones principales entran en el campo de la criptografía y teoría de numero, y en el análisis de gigantescos volúmenes de información.
No todos los problemas pueden ser resueltos por este tipo de lógica. Sin embargo, una computadora cuántica podría resolver los que sí pueden, a una velocidad varias veces superior a la de los microprocesadores conocidos hasta hoy, esta también se considera una tecnología hipotética, pues aún sólo se ha quedado en la investigación sin llegar a desarrollar un sistema completo utilizando esta lógica, pero aún así, si se logra implantar algún día será definitivamente demasiado cara debido a las características necesarias para su buen funcionamiento.
Señalan en la Universidaed de Michigan que se esta a punto de entrar a la nueva era de la computación puesto que se elevará la velocidad en el procesamineto de la información de manera sorprendente ¿cómo, bueno indican que mediante la utilización de Circuitos que combinan la mecánica cuántica con los principios de la computación.
Señalan los investigadores que los nuevos ordenadores realizaran los cálculos más complejos en mucho menor tiempo. En un artículo publicado en Physical Review Letters, se realiza una propuesta de un circuito realizable de forma experimental contemplando de esta manera una forma de implementar una computación cuántica escalable.
Se cree que esta tecnología proporcionará sistemas en los que participarán muchos qubits, lo que hará posible construir un ordenador cuántico. Bajo esta linease ha escrito en la Universidad de Michigan el artículo titulado "Scalable quantum computing with Josephson charge qubits". La información se procesará mediante átomos individuales o partículas subatómicas llamadas qubits. Pero la tarea no resulta nada sencilla puesto que para poder utilizar esta tecnología será estrictamente necesario manipular preparar, y medir el frágil estado cuántico de un sistema. Asimismo dentro de las mayores dificultades que se presentan son que es necesario manejar muchos qubits, y controlar la conectividad entre ellos.
La computación cuántica esta basada en las propiedades de la interacción cuántica entre las partículas subatómicas, como la superposición simultanea de dos estados en una sola partícula subatómica. La superposición cuántica, propiedad fundamental de la interacción cuántica, es ampliamente aprovechada para el desarrollo teórico de los algoritmos cuánticos, logrando una capacidad de procesamiento exponencial.
La superposición cuántica permite mantener simultáneamente múltiples estados en un bit cuántico, es decir "0" y "1" a la vez; a diferencia del bit – elemento fundamental en la computación actual – que únicamente es capaz de mantener un estado discreto, alternativo, a la vez, el "0" o "1" lógico. La computación cuántica, aprovecha la superposición cuántica, para lograr el paralelismo cuántico y el paralelismo cuántico masivo.
Cualquier interacción con el mundo subatómico, producirá un cambio en este, es decir, cualquier medición o lectura traerá indefectiblemente un cambio. Este fenómeno cuántico es aprovechado en la tele transportación cuántica para la transmisión de qubits, y asimismo es utilizada como mecanismo de seguridad en la criptografía cuántica.


3.2 ELEMENTOS BASICOS DE LA COMPUTACION CUANTICA


3.2.1 El bit cuántico "qubit"


El elemento básico de la computación cuántica es el bit cuántico o qubit (quantum bit por sus siglas en inglés), un qubit representa ambos estados simultáneamente, un "0" y un "1" lógico, dos estados ortogonales de una sub partícula atómica, como es representada en la figura 1. El estado de un qubit se puede escribir como { ½ 0ñ , ½ 1ñ } , describiendo su múltiple estado simultaneo.
Un vector de dos qubits, representa simultáneamente, los estados 00, 01, 10 y 11; un vector de tres qubits, representa simultáneamente, los estados 000, 001, 010, 011, 100, 101, 110, y 111; y así sucesivamente. Es decir un vector de n qubits, representa a la vez 2n estados.
Figura 1. Representación de cuatro estados diferentes de un qubit. [Steffen01]
Cualquier sistema cuántico con dos estados discretos distintos puede servir como qubit, un espín de electrón que apunta arriba o abajo, o un espín de fotón con polarización horizontal o vertical. En la figura 1 se tiene una representación pictórica de cuatro diferentes estados basado en el espín de un núcleo atómico, por lo que puede ser usado como un qubit. Un qubit no puede ser clonado, no puede ser copiado, y no puede ser enviado de un lugar a otro.
3.2.2 Compuertas cuánticas
Las compuertas lógicas son operaciones unarias sobre qubits. La compuerta puede ser escrita como P(q )=½ 0ñ á 0½ + exp(iq ) + ½ 1ñ á 1½ , donde q = w t. Aquí algunas compuertas cuánticas elementales: [Steane97]
I º ½ 0ñ á 0½ + ½ 1ñ á 1½ = identidad
X º ½ 0ñ á 1½ + ½ 1ñ á 0½ = NOT
Z º P(p )
Y º XZ
H º
Donde I es la identidad, X es el análogo al clásico NOT, Z cambia el signo a la amplitud, y H es la transformación de Hadamard.
Esas compuertas forman uno de los más pequeños grupos de la computación cuántica. La tecnología de la física cuántica puede implementar esas compuertas eficientemente. Todos excepto el CNOT operan en un simple qubit; la compuerta CNOT opera en dos qubits.
Una compuerta de dos qubits en especial interesante, es la conocida como "U controlada", [Steane97] ½ 0ñ á 0½ Ä I +½ 1ñ á 1½ Ä U son operadores actuando sobre dos qubits, donde I es la operación de identidad sobre un qubit, y U es una compuerta. El estado del qubit U es controlado mediante el estado del qubit I. Por ejemplo el NOT controlado (CNOT) es:
½ 00ñ à ½ 00ñ ; ½ 01ñ à ½ 01ñ ; ½ 10ñ à ½ 11ñ ; ½ 11ñ à ½ 10ñ
3.2.3 "Entanglement"
La capacidad computacional de procesamiento paralelo de la computación cuántica, es enormemente incrementada por el procesamiento masivamente en paralelo, debido a una interacción que ocurre durante algunas millonésimas de segundo. Este fenómeno de la mecánica cuántica es llamado "entanglement".
Debido al "entanglement", dos partículas subatómicas, permanecen indefectiblemente relacionadas entre si, si han sido generadas en un mismo proceso. Por ejemplo la desintegración en un positrón y un electrón. Estas partículas forman subsistemas que no pueden describirse separadamente. Cuando una de las dos partículas sufre un cambio de estado, repercute en la otra. Esta característica se desencadena cuando se realiza una medición sobre una de las partículas. [White00]

3.2.4 Tele transportación cuántica


La tele transportación cuántica es descrita por Stean [Steane97] como la posibilidad de "transmitir qubits sin enviar qubits". En la computación tradicional para transmitir bits, estos son clonados o copiados y luego enviados a través de diferentes medios como el cobre, fibra óptica, ondas de radio y otros. En la computación cuántica no es posible clonar, copiar, o enviar qubits de un lugar a otro como se hacen con los bits.
Si enviamos un qubit ½ Æ ñ donde Æ es un estado desconocido, el receptor no podrá leer su estado con certidumbre, cualquier intento de medida podría modificar el estado del qubit, por lo tanto se perdería su estado, imposibilitando su recuperación. La tele transportación cuántica, resuelve este problema, esta se basa en el "entanglement" para poder transmitir un qubit sin necesidad de enviarlo. El emisor y el receptor poseen un par de qubits "enredados" (entangled). Entonces el qubit es transmitido desde el emisor, desaparece del emisor y el receptor tiene el qubit tele transportado. Este fenómeno es posible debido a un mecanismo conocido como el efecto EPR. En la tele transportación cuántica primero dos qubits E y R son "enredados" y luego separados (entangled), el qubit R es ubicado en el receptor y el qubit E es ubicado en el emisor junto al qubit original Q a ser transmitido, al realizar la lectura del estado de los dos qubits Q y E, estos cambian su estado a uno aleatorio debido a la interacción. La información leída es enviada al receptor, donde esta información es utilizada para un tratamiento que es aplicado al qubit R, siendo ahora R una réplica exacta del qubit Q.

3.2.5 El paralelismo cuántico

La superposición cuántica permite un paralelismo exponencial o paralelismo cuántico en el cálculo, mediante el uso de las compuertas lógicas de qubits. [Steffen01] Los qubits, a diferencia de los bits, pueden existir en un estado de superposición, representado por a½ 0ñ + b½ 1ñ , donde a y b son números complejos que satisfacen la relación ½ a½ 2 + ½ b½ 2 = 1.
Dada una compuerta lógica de un qubit f, que transforma el estado ½ a½ en el estado ½ f(x)½ , cuando el qubit de entrada tiene en el estado [Steffen01] una superposición igual de ½ 0ñ y ½ 1ñ .
Por linealidad de los mecánica cuántica, la compuerta lógica f transforma el estado del qubit a . [Steffen01]

El estado resultante es la superposición de los 2 valores de salida, siendo f evaluado para los 2 valores de entrada en paralelo.
Para una compuerta lógica g de 2 qubits, que tienen dos qubits de entrada en superposición de ½ 0ñ y ½ 1ñ , tendríamos una superposición de 4 estados . [Steffen01]
La compuerta lógica g transforma el estado de entrada a [Steffen01] así g es evaluado en un solo paso para 4 valores de entrada.
En una compuerta lógica h de 3 qubits, se tienen 3 qubits de entrada en superposición de ½ 0ñ y ½ 1ñ , juntos hacen una superposición de 8 estados, que son evaluados en paralelo. Por cada qubits adicional la cantidad de estados se duplica.

CIRCUITO

CIRCUITOS PARA LA COMPUTACION CUANTICA

El próximo sistema radicalmente distinto para el procesamiento de información será la computación cuántica.
Los investigadores afirman que en ella se usarán los principios de la mecánica cuántica, para realizar cálculos complejos en una fracción del tiempo necesario hoy en día en los superordenadores más veloces.

A medida que avanza la teoría al respecto, los expertos van proponiendo avances que permitirán que esta idea se haga realidad. Un reciente artículo publicado en Physical Review Letters, por ejemplo, propone un circuito realizable de forma experimental y una manera eficiente de implementar una computación cuántica escalable.Es precisamente la habilidad de aumentar la escala de la tecnología, de aquella que permite realizar experimentos de 1 ó 2 qubits, habituales en el laboratorio, a la que nos proporcionará sistemas en los que participarán muchos qubits, lo que hará posible construir un ordenador cuántico. Franco Nori, de la University of Michigan, y sus colegas, han escrito un artículo en este sentido, titulado "Scalable quantum computing with Josephson charge qubits".
Para implementar esta tecnología, será necesario preparar, manipular y medir el frágil estado cuántico de un sistema. Esto no es fácil, y es por eso que hasta ahora nos hemos centrado en qubits individuales. Pero para disponer de un ordenador cuántico serán necesarios muchos qubits, y controlar la conectividad entre ellos. Estas son las principales dificultades a las que nos enfrentamos, que el método de Nori trata de solventar.

CONCEPTO DE LAS PARTES DE UN COMPUTADOR

1. Unidad central de proceso o CPU
2.
Memoria RAM
3.
El teclado
4.
Monitor
5.
Tipos de conexión
6.
Valoración del rendimiento de un microprocesador
7.
Conclusiones
8.
Estructura interna de un disco duro


Unidad central de proceso o CPU
(conocida por sus siglas en
inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).
Funcionamiento de la CPUCuando se ejecuta un
programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente.

La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.
Memoria RAM
La memoria principal o
RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos.Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal.Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella.por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.
La memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el
procesador y la memoria principal sea a mayor velocidad.
Memoria de sólo
lectura o ROM
Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. no son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes.Al encender nuestra computadora automáticamente comienza a funcionar la
memoria ROM. por supuesto, aunque se apague, esta memoria no se borra.El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de configurarse según las características particulares de cada máquina. esta configuración se guarda en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal.Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no arranque.
Algunas PC tienen la pila soldada a la placa principal por lo que el
cambio de la misma lo debe realizar personal técnico, ya que sino se corre el riesgo de arruinar otros componentes.Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van a almacenar.
El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.
El teclado nos permite comunicarnos con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar.Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas cuya función cambia según el programa que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del PC/AT de esta compañía. Este
diseño se ha mantenido como teclado estándar de la línea PS/2, y se ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la parte superior, en lugar de diez a la izquierda.
Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el
movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su homónimo de Apple son similares en configuración y diseño.
Las partes del tecladoEl teclado alfanumérico: Es similar al teclado de la máquina de escribir. tiene todas las teclas del alfabeto, los diez dígitos decimales y los
signos de puntuación y de acentuación.El teclado numérico: Para que funciones el teclado numérico debe estar activada la función "Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y las operaciones matemáticas más comunes: suma, resta, multiplicación y división.
Las teclas de FunciónEstas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del programa que se esté usando en este momento.
Las teclas de ControlSi estamos utilizando un procesador de
texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.Estas teclas sirven para mover el cursor según la dirección que indica cada flecha.Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres.Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto como números.
Esta tecla te permite insertar un
carácter de manera que todo lo que escribamos a continuación se irá intercalando entre lo que ya tenemos escrito.Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá automáticamente en mayúscula. para desactivarla basta con volverla a pulsar.La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar distintas acciones según el programa que estemos usando.En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.La tecla de control se usa en combinación con otras teclas para activar distintas opciones según el programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los
monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.
Monitor
La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels
Resolución
Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a
lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental, puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambies a ellas, etc.La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.
Entrelazado
Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el
tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procure que su monitor sea no-entrelazado.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este
valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.
Tamaño del punto (Dot Pltch)
Un punto del monitor es la unidad mínima
física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste,
ahorro de energía, baja radiación, etc.Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra
salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática.En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de
consumo y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...
Es el
cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla de los procesadores Pentium MMX y Pentium II/III de Intel además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII).
Tipos de conexiónEl rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.En las de tipo Pentium (Socket 7) normales el microprocesador se instala en un zócalo especial llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro.Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y en el caso del K7 se instala en el SlotA. En ambos existen unas guías de plástico que ayudan a que el microprocesador se mantenga en su posición. Hay que mencionar que algunos procesadores Celeron utilizan la conexión PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas capacidades de ampliación y que sólo ofrece como ventaja un pequeño ahorro en la compra del equipo.Valoración del rendimiento de un microprocesadorEl microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica lo siguiente: por ejemplo, en un Pentium de baja gama es absurdo poner 8 Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama también es absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además del microprocesador, la velocidad general del sistema se verá muy influenciada (tanto o más que por el micro) debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de componente en particular para más información.
Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de
ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, al igual que para navegar por Internet. Sin embargo, según sean más complejos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Aunque si lo que quieres son juegos, mejor decántate por una aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a 133 MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una aceleradora gráfica
Y ya por último, diremos que el disipador + ventilador puede reducir la
temperatura del micro unos 40 grados centígrados y aumentar el rendimiento un 30%. En los procesadores actuales este componente es imprescindible para el funcionamiento del microprocesador, que de lo contrario terminaría quemado.
ConclusionesComo conclusiones, veamos los procesadores que os recomendamos. de una manera totalmente subjetiva.Sobre los procesadores de Intel. El Celeron de Intel, alias "Covington", al carecer de memoria caché L2, va bastante mal, incluso con un rendimiento a veces inferior al Pentium MMX (el Celeron no es más que una estrategia de Intel para que el mercado evolucione hacia el Slot 1). Por ello, descarta el Celeron, ya que, aunque puede ser bueno para algunas tareas, le supera algunos procesadores de otras marcas en el mismo nivel de precio, como el K6 o el K6-2 de AMD (procura que no te vendan un ordenador Celeron con una frase que se está volviendo bastante típica "Todo un Pentium II por xxx ptas". Un procesador a considerar es el nuevo Celeron "A", alias "Mendocino", el cual lleva 128 Kb. de caché L2, el cual tiene un rendimiento prácticamente igual que el Pentium II de sus mismos MHz. Si duda, este procesador reemplazará tanto a los Celeron como a los Pentium II de sus mismos MHz (266-333 por ahora). También Intel posee unos micros Celeron A con otro tipo de conexión, PPGA (similar al socket 8), que ofrecen un ahorro a la hora de comprar la placa base, pero que descartaremos sin dudarlo, ya que los micros están al mismo precio y el socket PPGA ofrece capacidades de ampliación totalmente nulas. Sobre el Pentium II, muy popular y extendido, es un micro muy interesante. Más caro que el Mendocino y con rendimientos no muy superiores, ofrece muy buenos resultados a la hora del trabajo en programas tridimensionales gracias a la avanzada unidad de cálculo de coma flotante, así como una buena ejecución de programas en entorno multitarea como Windows NT. Sin embargo, en tareas más sencillas, como el uso de Windows 95/98 o los programas de ofimática, se ven claramente superados por los procesadores de AMD, mucho más económicos, como veremos dentro de poco. Sobre la última baza de Intel, el Pentium III, en realidad no es más que un Pentium II con nuevas instrucciones multimedia. Sin estas instrucciones, va prácticamente igual que su predecesor y bajo ciertas situaciones peor (se ve compensado por un aumento en los MHz). Los procesadores de Intel hasta el Pentium III han sido superados de lejos por los micros de AMD, veremos qué tal van los próximos de Intel: Coppermine (un Pentium III con bus de 133 MHz, tecnología de 0,18 micras y 256 kb de caché L2 en el micro a la misma velocidad de reloj). Sin embargo, en caso de querer hacer una configuración multiprocesador (2 o 4 micros en adelante), sólo puede hacerse con micros de Intel, ya que los AMD no soportan tales conexiones, al menos hasta la llegada del Athlon (K7).
Y ya por último comentaremos los micros de AMD. Todo empezó por una auténtica joya que dio y está dando mucha guerra a Intel: el K6-2 de AMD. Este procesador incorpora la nueva tecnología 3D Now!, 21 nuevas instrucciones en el procesador, la cual ha echo a Intel adelantar medio año el lanzamiento de su procesador "Katmai" (el Pentium III, que no es más que un Pentium II con MMX2). El K6-2 tiene un bus de 100 MHz, ancho de
transistor de 0,25 micras, soporta AGP y todo el resto de características que tiene el Pentium II, pero en una plataforma Socket 7 como la del Pentium II. Y el 3D Now! del K6-2 verdaderamente funciona, por lo menos el Quake II va bastante más rápido en la versión especial para 3D Now!. Con el 3D Now!, el rendimiento de un K6-2 a 300 Mhz pasa de igualar en rendimiento de un Pentium II 300 a casi un Pentium II 400. Más recientemente, AMD ha lanzado su nuevo K6-3. Más que un K6-2 mejorado, es un procesador totalmente nuevo, con un diseño especial de 3 tipos de memoria caché (L1 y L2 en el micro y L3 en la placa) que ha sido el primer micro de AMD en superar en prácticamente todos los aspectos a un Intel y en dejarle atrás, ya que el K6-2 tenía ciertas flaquezas en la unidad de coma flotante (si el programa que ejecuta no usa 3DNow!) . Actualmente es el micro más recomendable, de mejor calidad precio, marcha mucho mejor que un K6-2 y la placa base es relativamente más económica. Y la última bomba es el Athlon (K7) que aún no está a la venta, pero que supera y deja muy muy atrás a micros de Intel en todos los aspectos, incluida la unidad de cálculo de coma flotante.
Estructura interna de un disco duro
· Tamaño de clúster y espacio disponibleUn cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o
escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas.Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan
señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.
· Algunos conceptos Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los
discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).
· El estándar IDE "Integrated Drive Electronics", o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de
normas a las que deben acogerse los fabricantes de unidades de este tipo.


IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado "Modos de Transferencia". La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado "El papel de la BIOS") no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?
· Enhanced IDE La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos
sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado "Otros términos"). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.
Periféricos de entrada de información. Son los elementos a través de los que se introduce información a la computadora. En este apartado se encuentran el teclado, el ratón, los scanners, etc.


Periféricos de almacenamiento de la información. Son subsistemas que permiten a la computadora almacenar, temporal o indefinidamente, la información o los programas.Los dispositivos de almacenamiento, llamados también memorias auxiliares o masivas, son un soporte de apoyo para la computadora en la realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde la memoria principal parte de la información que no van a utilizar en esos momentos, dejando parte del área de trabajo libre para trabajar más comodamente, y mantenerla almacenada hasta que sea necesaria su utilización, momento en que la volverá a trasladar a la memoria principal.Entre los dispositivos de almacenamiento se pueden destacar los discos magnéticos y las cintas. Un elemento que está obteniendo cada vez mayor aceptación es el CD-ROM.


Periféricos de salida de la información. Son los periféricos que transmiten los resultados obtenidos tras el proceso de la información por la computadora al exterior del sistema informático para que pueda ser utilizado por los seres humanos u otros sistemas diferentes.Las pantallas de computadora e impresoras conectadas a los sistemas informáticos son los medios de representación de la información más extendidos

Periféricos de comunicaciones. Estos subsistemas están dedicados a permitir la conexión de la computadora con otros sistemas informáticos a través de diversos medios; el medio más común es la línea telefónica. El periférico de comunicaciones más utilizado es el modem.También existen periféricos que comparten características particulares de varios de ellos
Internet ha supuesto una
revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
La Internet ha significado una revolución sin precedentes en el mundo de la informática y de las comunicaciones y que ha transformado a la humanidad. Han contribuido a ello los inventos del teléfono,
la radio, los satélites, las computadoras, dispositivos de hardware, los protocolos o estándares de comunicaciones y software especializados, tales como navegadores, correo electrónico, FTP, video conferencias, etc.
Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de "estar a la última", sino por aprovechar las innegables y enormes posibilidades que se abren y se presentan en este ámbito. Ya se habla de ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer cosas tan dispares como comprar entradas para conciertos, comunicarse mediante
correo electrónico, ver qué está ocurriendo en la Plaza de Bolivar en este momento o consultar las imágenes que manda el Meteosat para hacer nuestra propia predicción del tiempo.Informarse de las posibilidades de Internet y de cómo acceder a ellas es el primer paso para empezar a caminar por estas carreteras del futuro.


PRINCIPALES AREAS DE ESTUDIO

Algoritmos y Estructuras de Datos: Esta area estudia algoritmos específicos y las estructuras de datos asociadas para solucionar problemas específicos. La parte de esto implica análisis matemático para analizar la eficacia del algoritmo en el uso de tiempo y memoria.


Teoría de la Computación: En esta área se categorizan los problemas según la naturaleza de los algoritmos para resolverlos, algunos problemas tienen algoritmos rápidos, alguno solamente tienen algoritmos muy lentos (tales problemas se consideran a veces difícilmente insuperables), algunos no tienen ningún algoritmo.


Lenguajes de Programación: La meta del área de lenguajes de programación es diseñar bien los lenguajes de programación mejores y más naturales y los compiladores más rápidos y eficientes.


Sistemas Operativos: Esta área implica el diseño e implementación de nuevos y mejores sistemas operativos.


Arquitectura del Computador: La meta de esta área es diseñar y construir computadoras mejores y más rápidas, esto incluye el CPU, memorias, dispositivos de entrada y salida.

PARTES DE UN COMPUTADOR

La Computacion

La Computación es la disciplina que busca establecer una base científica para resolver problemas mediante el uso de dispositivos electrónicos y sistemas computacionales.
La Computación es el estudio de métodos algorítmicos para representar y transformar la información, incluyendo su teoría, diseño, implementación, aplicación y eficiencia. Las raíces de la computación e informática se extienden profundamente en la matemática y la ingeniería. La matemática imparte el análisis del campo y la ingeniería imparte el diseño.
La Computación se define como el conjunto de conocimientos científicos y técnicos (bases teóricas, métodos, metodologías, técnicas, y tecnologías) que hacen posible el procesamiento automático de los datos mediante el uso de computadores, para producir información útil y significativa para el usuario.
La Computación e Informática es la ciencia del tratamiento automático de la información mediante un computador (llamado también ordenador o computadora).
El concepto fundamental de la Computación es el concepto de ALGORITMO.