sábado, 19 de enero de 2013

¿Qué es el overcloking?




Overclock es un anglicismo de uso habitual en informática que literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de la CPU. La práctica conocida como overclocking (antiguamente conocido como undertiming) pretende alcanzar una mayor velocidad de reloj para un componente electrónico (por encima de las especificaciones del fabricante). La idea es conseguir un rendimiento más alto gratuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.

¿Que puede pasar si realizamos un overclocking?

  • Perdemos la garantía del fabricante. Por eso es recomendable realizarlo al acabar la garantía de tu equipo o componente.
  • Que el procesador se sobrecaliente.
  • Que se estropee el componente.
  • Que no funcione correctamente la velocidad marcada.

domingo, 13 de enero de 2013

50 CONCEPTOS BASICOS DE COMPUTADORAS:



1. COMPUTADORAS: A las computadoras (del inglés, "computer"), también se les llama ordenador (del francés, "ordinateur") o equipos informáticos.
2. INFORMÁTICA: La informática (acrónimo de información automática) se puede definir como una mezcla de ciencia y tecnología que estudia y posibilita el tratamiento automático y racional de la información por medio de computadoras (del inglés, "computer"), también llamados ordenadores (del francés, "ordinateur") o equipos informáticos.

3. PROGRAMA: En informática, un programa es un conjunto de instrucciones u órdenes que indican a la máquina las operaciones que ésta debe realizar con unos datos determinados. En general, todo programa indica a la computadora cómo obtener unos datos de salida, a partir de unos datos de entrada.
4. SISTEMA OPERATIVO: En informática, el sistema operativo sirve de intermediario (interfaz) entre los programas y la computadora. De forma que, cuando un usuario ejecuta un programa, éste solicitará al sistema operativo las acciones que quiere realizar en la máquina para satisfacer al usuario.

5. BIT: Un bit (acrónimo de binary digit) es la unidad de información más pequeña con la que pueden trabajar los dispositivos electrónicos que constituyen una computadora digital. En ella, un bit se representa, físicamente, con dos estados de tensión eléctrica (baja y alta). Cuando dichos estados se hacen corresponder, respectivamente, con los dígitos binarios, cero (0) y uno (1), se dice que se está utilizando una lógica positiva, al caso contrario se le considera lógica negativa.

6. ALU: En una computadora digital, la ALU (Arithmetic/Logic Unit) se refiere a la unidad aritmético/lógica. En una computadora digital, la Unidad Aritmético/Lógica (Arithmetic/Logic Unit, ALU) sirve para realizar cálculos aritméticos y lógicos. Por ejemplo, una suma (4 + 3 = 7), una resta (4 - 3 = 1), una comparación (4 < 3 = falso), etc

7. BYTE: Los bits suelen agruparse en bloques de 8. A dicho bloque se le denomina byte u octeto, y es la unidad de medida de información usada para referirse a cantidades más grandes de bits. Múltiplos de byte son kilobyte, megabyte, gigabyte, terabyte, petabyte, etc

8. HARDWARE: En informática, al conjunto de componentes tangibles (o físicos) de una computadora se le denomina hardware.

9. SOFTWARE: Al conjunto de programas y datos con los que trabaja una computadora se le conoce como software, el cual es inmaterial (o lógico). Existen diferentes tipos de software(de aplicación,de red, de sistema..)

10. CHIP: Un chip, también conocido como circuito integrado, está formado por varios componentes miniaturizados, tales como: transistores, resistencias, condensadores, etc. El chip fue inventado en 1958 por el estadounidense Jack S. Kilby (1923-2005). Hoy en día es posible integrar en un solo chip, también llamado microchip, millones de transistores agrupados en láminas de silicio del tamaño de una uña. Esto es posible gracias a que los transistores son microscópicos y, además, consumen muy poca energía eléctrica.


jueves, 10 de enero de 2013

Generaciones de computadoras

HISTORIA 


En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores. Las primeras computadoras, incluyeron a la ENIAC, el Electronic Numerical Integrator and Computer, que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora que se llamo saly ampliamente comercializada, la UNIVAC I, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.