Overclocking



1. Introducción:

Overclock es un anglicismo de uso habitual en informática. Literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de la CPU. La práctica conocida como overclocking (antiguamente conocido como undertiming) pretende alcanzar una mayor velocidad de reloj para un componente electrónico (por encima de las especificaciones del fabricante). La idea es conseguir un rendimiento más alto gratuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.



Esta práctica perdió popularidad en los últimos tiempos, ya que no merecía la pena perder el componente por ganar unos pocos megahercios. El overclocking ya está más avanzado y permite forzar los componentes aún más (muchas veces cerca del doble) sin que pase nada, siempre que tengan una buena refrigeración.




Este aumento de velocidad produce un mayor gasto energético, y por tanto, una mayor producción de calor residual en el componente electrónico. El calor puede producir fallos en el funcionamiento del componente, y se debe combatir con diversos sistemas de refrigeración (por aire con ventiladores, por agua o con una célula Peltier unida a un ventilador). A veces, los fallos producidos por esta práctica, pueden dañar de forma definitiva el componente, otras veces, pueden producir un reinicio que conlleva la pérdida de datos de las aplicaciones abiertas, o en algún caso, la pérdida del sistema de archivos entero.


Esta práctica está muy extendida entre los usuarios de informática más exigentes, que tratan de llevar al máximo el rendimiento de sus máquinas. Los consumidores menos atrevidos suelen comprar componentes informáticos de bajo coste, forzándolos posteriormente y alcanzando así el rendimiento esperado por los componentes de gama más alta. Por otro lado, los consumidores más fanáticos pueden llegar a adquirir componentes de última hornada para forzar su funcionamiento, y conseguir así pruebas de rendimiento inalcanzables para cualquier equipo de consumo. Por este motivo, la mayoría de los fabricantes decide no incluir en la garantía de su hardware los daños producidos por hacerles overclocking.



2. Evolución:

El PC desde sus inicios funciona con un reloj interno que es susceptible de modificación. En los tiempos del 486 se inicia el sistema de reloj interno mediante el uso de un bus frontal y un multiplicador interno. Es entonces cuando se empieza a iniciar la tendencia del overclocking. Las herramientas eran limitadas pero mediante los famosos jumpers de la placa base podíamos hacer ciertas modificaciones al bus o a los multiplicadores del procesador. Desde aquel entonces la técnica de overclocking no se ha modificado, se ha avanzado en ello y ahora es mucho más sencillo, pero la base sigue siendo la misma.


Es ya entrado en los tiempos del Pentium 2 de slots y en los celeron de socket 370 cuando el overclocking empieza a tener notable auge entre los aficionados al PC. Es por aquel entonces cuando aun los procesadores Intel venían liberados de multiplicador, no ya en los socket 370 pero si hasta algunos Pentium 2 de slot. Los chipsets de la época también eran bastante más maleables que los hasta ahora existentes y algunas placas base se empiezan a preparar con más configuraciones de jumpers.


Pero cuando se facilita el acceso al overclocking de forma generalizada, rápida y cómoda, es cuando Abit introduce la BH6, la primera placa base para Slot1 con configuración de bus frontal y otras opciones a través de la bios. Desde aquí se confirma la revolución de una tendencia "underground" que ha conseguido que todos nos planteemos o hagamos a diaria overclocking a nuestros procesadores. Ahora cualquier placa base del mercado, por barata que sea, incorpora en mayor o menor medida estas opciones de personalización en bios y disponen de sistemas de protección que evita que nos pasemos en nuestras configuraciones. La técnica que vamos a enseñaros sigue siendo la misma pero como veis los medios han cambiado.

3. Las formas de overclocking:

Como ya hemos comentado la frecuencia de un procesador viene definida por su bus frontal y por el multiplicador interno. Cualquier modificación en ambos parámetros hará cambiar la frecuencia de trabajo del procesador, su frecuencia real, que es la frecuencia interna del procesador. El aumento de multiplicador tiene ventajas evidentes, sobretodo en el pasado, ya que no requiere que modifiquemos ninguno de los otros buses secundarios que dependen del bus frontal. Aumentamos la frecuencia sin que ninguno de los otros componentes se vean afectados, solo el procesador se ve modificado.

Solo hay un problema. En procesadores Intel desde los tiempos del Pentium 2 y salvo versiones Extreme Edition y versiones de ingeniero no hay opción a modificar el multiplicador, no positivamente (subirlo) ya que algunos micros en algunas placa base Asus si que permitían reducir en una unidad el multiplicador interno del procesador. El caso de AMD es si cabe ahora mas dramático ya que no hay un solo procesador que permita el cambio de multiplicador positivo ni tan siquiera los modelos más caros.


Solo nos queda por tanto la opción de subir el bus si queremos aumentar la frecuencia de trabajo de nuestro procesador. Subir el bus frontal corre a cargo de la placa base y de la capacidad de dos componentes de la misma, el generador de reloj y el propio chipset de la placa base. Ahora estamos acostumbrados a ver placas base, desde las más económicas, donde las opciones de aumento o cambio del bus son prácticamente milimétricos pero hace tiempo esto no existía y los cambios eran bruscos y solían llevar consigo problemas añadidos. Fue ABIT, una vez más, quien introdujo el primer generador de reloj capaz de ajustarse de Mhz en MHz. Pero el generador de reloj no es más que un instrumento con mayor o menor capacidad, el que luego tiene que hacerse cargo del aumento de velocidad es el chipset de la placa base y dependiendo de su calidad y potencial los resultados podrán ser mejores o peores.


4. La importancia de los buses secundarios

El bus frontal aumenta la velocidad de proceso interna de nuestro procesador pero también afecta a otros buses fundamentales para la estabilidad del sistema. Todos los buses secundarios dependen de una manera u otra del bus frontal del procesador. El AGP, el PCI, la memoria, los PCI Express....todos dependen del bus frontal del ordenador. Son siempre múltiplos o divisores de este bus y por tanto si aumentamos la velocidad de este bus las frecuencias de estos buses aumentan de forma proporcional. Ahora casi todas las placas disponen de bloqueadores de frecuencia para estos buses, por lo menos para los mas delicados como el del serial ATA o el PCI express pero antiguamente había que saber lidiar con este problemas y usar frecuencias de overclocking donde supiéramos que activábamos un divisor mas grande para mantener a los buses secundarios en su lugar.

Así hasta los tiempos del Pentium 3 se buscaban los modelos de 66 o 100Mhz y se seleccionaban placas base que se sabía que a cierta frecuencia metían un divisor mayor para el AGP y el bus PCI para mantener la estabilidad. Un ejemplo muy llamativo de esto que os digo eran los procesadores Pentium 2 donde la gente se pegaba por los modelos de 66MHz de bus frontal como el 266o el 300MHz ya que se sabia que el chipset BX soportaba un bus de 100MHz activando un divisor de 3 para el PCI y manteniendo por tanto los buses secundarios en su lugar que era 33MHz para el PCI y 66MHz para el AGP. Si subíamos a 100MHz teníamos un aumento del 33% de la potencia del procesador y no teníamos ningún efecto secundario. Aun con estas pegas los que buscábamos niveles mas elevados buscábamos tarjetas que soportaran mayores frecuencias que las estándar como las nvidia y las tarjetas de sonido de Creative. Aun así el riesgo era grande porque el bus de datos de los discos duros también se veía afectado y si te pasabas conseguirías una bonita corrupción de datos y un disco duro inservible.

A la llegada del Serial ATA el problema se acrecentó ya que el serial ATA con tan solo un MHz mas de frecuencia se convierte en inviable. Desde entonces los fabricantes de placas introdujeron los divisores seleccionables y luego mas tarde el bloqueo completo de estos buses a cierta frecuencia. El problema del bus PCI o de los discos duros esta ahora erradicado en casi cualquier placa actual pero la memoria siempre seguirá dependiendo, por lo menos de momento, del bus frontal del ordenador.


El bus de comunicación con la memoria no es otro que el bus frontal del procesador, se usan buses de diferentes capacidades y divisores intermedios para controlarla pero a día de hoy no hay ninguna placa que controle de forma independiente ambas frecuencias. Sin embargo los divisores seleccionables en bios permiten controlar la frecuencia de las mismas sobre todo cuando aumentamos mucho la frecuencia del bus frontal. Muchos overclockers gastan cientos de euros en memorias capaces de alcanzar altas frecuencias pero esto no deja de ser un extra que podemos obviar si queremos resultados elevados de rendimiento sin tener que gastar ni un duro mas de lo que gastaríamos en nuestro PC aunque no quisiéramos hacer overclocking.



5. Placa, memoria, disipación y suerte

Ya hemos visto que el centro de cualquier overclocking no es el procesador, es la placa base. La placa base debe darnos seguridad, funciones y capacidad, sin ella no hay nada que hacer. Como ya he dicho cualquier placa actual esta mas preparada que la mejor de las placas de overclocking de hace unos años pero aun así sigue siendo el elemento mas importante. La memoria es, de facto, un elemento secundario que puede ofrecernos un puntito más de rendimiento si la mantenemos en sincronía con el bus del procesador pero al fin y al cabo es un elemento secundario.

Un punto muy importante es la disipación. El procesador cuanta mas frecuencia interna mas consumo de energía requiere y también mas vatios de calor genera. Si aumentamos mucho la frecuencia el aumento de temperatura será notable. Con esto no quiero decir que para hacer overclocking necesitemos un disipador de 60€ o un kit de refrigeración liquida, todo dependerá de hasta donde queramos llegar o de hasta donde nuestro procesador nos deje llegar.
El overclocking es un 10% experiencia, un 20% paciencia y un 70% suerte. Cada procesador es diferente, puede compartir con otros un proceso de fabricación, e incluso salir de la misma oblea pero cada uno de se comportara de una forma diferente y una serie que parezca fantástica puede obsequiarnos con un procesador muy limitado y una serie mala puede regalarnos un procesador fuera de serie. Aquí podemos seguirnos por la experiencia de otros usuarios pero al final solo nos quedara la suerte y como ya digo en el tema del overclocking es fundamental. Podemos tener las mejores piezas que si el procesador no quiere subir no subirá.


En cuanto a los procesadores todos los micros son susceptibles de hacer overclocking en ellos. Si buscamos algo especial deberemos mirar sobretodo las prestaciones que buscamos del procesador y también su combinación de bus y multiplicador que mas se ajusta a nuestras necesidades. Un procesador con mucho bus pero poco multiplicador nos limitará mucho el aumento de frecuencias ya que necesitaremos un gran aumento del bus frontal para poder alcanzar cotas interesantes. Por otro lado un procesador con mucho multiplicador y poco bus, como por ejemplo el Pentium D 805 que tiene un bus de 133MHz reales y un multiplicador de 20x, hace que con la mas mínima subida las frecuencias reales se disparen. Lo mejor es buscar un equilibrio. Actualmente lo ideal, según el bus de 200MHz que se maneja actualmente en casi todos los procesadores y mirando también mucho de cara al Core 2 Duo y al AM2, lo ideal seria un multiplicador de 12x y un bus frontal de fabrica de 200MHz. Con esta combinación podemos llegar a overclockings extremos muy sorprendentes.

6. Voltajes, disipación... buscar el equilibrio

Aumentar las frecuencias de cualquier componente lleva al consumo de mayor energía y por tanto a la generación de mas calor. Cuando consumimos más energía podemos requerir más corriente para mantener alimentado el procesador en estas nuevas condiciones. Cuanta corriente pasemos por los transistores del procesador más calor generarán estos y por tanto mas capacidad de disipación necesitaremos. Dentro de esta combinación de factores: velocidad, corriente y energía a disipar, debemos encontrar el equilibrio para que nuestro procesador corra todo lo posible dentro de nuestras posibilidades de disipación y dentro de nuestras necesidades.

Algo debe quedaros claro y es que cuando aumentamos la frecuencia de trabajo del procesador, cuando subimos su voltaje y cuando aumentamos el calor que este produce estamos acortando su vida útil y si hacemos las cosas sin el debido cuidado, si nos saltamos las propias barreras que el procesador nos va marcando y no tenemos paciencia con un proceso que solo se rige mediante prueba y error, entonces podemos dañar nuestro procesador de forma irremediable. En toda mi experiencia haciendo overclocking a todo tipo de procesador jamás he visto un solo micro estropeado por el propio proceso pero si por cosas ajenas al mismo como disipadores mal montados, fugas de agua en sistema de refrigeración, mal aislamiento del procesador o placa en sistema de refrigeración bajo cero....en estos casos no fue el overclocking quien daño el procesador u otros componentes, fue sin duda la mala manipulación de los mismos.

La variable preponderante en esta ecuación de equilibrio entre voltaje, disipación y velocidad es sin duda la disipación. Los componentes electrónicos agradecen las temperaturas mas reducidas posibles, funcionan mejor así, pero en los procesadores actuales la generación de calor es muy alta. Aunque parece que se vuelve al camino de la eficiencia por vatio de calor generado lo que es a día de hoy la temperatura es un factor fundamental. Por eso, cuando usamos un sistema que es capaz de dejar el procesador a temperaturas bajo cero las frecuencias que se alcanzan suelen ser en torno al 70% de overclocking cuando con un disipador convencional el límite suele rondar el 30%. Sabiendo esto es cuando debemos valorar si nos compensa gastarnos un dineral en un buen sistema de refrigeración o simplemente usar lo que tenemos para ganar todo lo posible a nuestra maquina sin tener que gastarnos ni un solo duro más.

7. El overclocking es asequible

No necesitamos de procesadores, equipos de refrigeración ni placas base muy caras para hacer un overcloking interesante. Sabiendo que tenemos que tocar y conociendo las condiciones de nuestra maquina podemos aumentar su frecuencia de trabajo sin que esto suponga ningún problema para ninguno de los componentes. Para ello vamos a ponernos un ejemplo de como llevaríamos nosotros a cabo el overclocking de un procesador Celeron 2800 con una placa base muy normalita como es una P4S61 de Asrock. Esta placa base, no siendo una asus de gama alta, si tiene funciones suficientes para que podamos trabajar con ella. Nuestro Celeron D 335 tiene una frecuencia de trabajo de 2800MHz con un multiplicador de 21x y un bus frontal de 133MHz. Es un bus pequeño y un multiplicador muy elevado por lo que cualquier aumento del mismo supondrá un aumento grande de su frecuencia.

Nuestra placa base tiene limitaciones, es una placa de 30€, y tenemos que tener en cuenta esas limitaciones. La principal de todas es que no bloquea bien los buses secundarios como el PCI y el AGP. La ventaja nos la pone el bus del procesador, que es de tan solo 133MHz, cuando la placa soporta micros de 200Mhz sin ningún problema, así que tenemos un techo alto que nos proporciona la placa base. Las memorias, 1GB en dos módulos de 512MB, también son DDR400 así que soportan hasta un bus de 200MHz sin ningún problema. La limitación la encontraremos en que no vamos a subir el voltaje del procesador en ningún momento, que ronda los 1.4v en este modelo, y que es un procesador basado en el núcleo Prescott y que por tanto se calienta bastante. Nosotros queremos llegar a lo máximo posible pero no tocaremos ninguno de los componentes, ni siquiera disipación y como ya hemos dicho, tampoco el voltaje del procesador. Así nos aseguramos de que el aumento de temperatura sea solo cuestión de la nueva frecuencia.


Bloqueamos los buses como buenamente podemos, que los deja a una frecuencia razonable de 67MHz para el AGP y 34MHz para el PCI, y aumentamos el bus frontal hasta los 182MHz que nos proporciona el GHz más de frecuencia que buscábamos desde el principio. La temperatura de trabajo aumenta desde los 53º de la frecuencia de fabrica a los 57º de la nueva frecuencia, son temperaturas altas pero soportables por este tipo de procesador, es mas, son hasta bastante normales. Sin subir de voltaje ni gastar un duro más en disipación llegamos hasta los 3800MHz gracias a un bus de 182MHz y un multiplicador de 21x. Quizás podríamos llegar a mas pero hemos marcado nuestro objetivo ahí, hemos probado que sea estable, ahora os decimos como, y estamos contentos con el resultado porque cumple nuestras expectativas para un micro de 50€ y una placa de 30€.

8. El proceso de verificar la estabilidad y el aumento de rendimiento.

Esto depende de nuestras necesidades, de nuestra forma de ver el overclocking y también de nuestro procesador. Lo normal es que ejecutemos una o varias tareas que usen el 100% de la CPU para estresarla durante largos periodos de tiempo y así asegurarnos del procesador responderá antes las situaciones mas extremas de uso. Podemos usar test sintéticos como prime o programas 3D como 3Dmark, etc. Si nuestro procesador es de doble núcleo seria interesante que sometiéramos todo el procesador a estrés ejecutando diferentes aplicaciones en cada uno de los núcleos para que ambos trabajen al 100%.

Mi opinión personal a este respecto es que debemos probar el procesador con aquellas aplicaciones y procesos que vayamos a usar normalmente. Si lo que hacemos con el Pc es jugar lo mejor es que juguemos si lo usamos para crear video u otro tipo de contenidos multimedia la mejor prueba es trabajar con ello. Siempre podemos además combinar un poquito de estas dos técnicas para lograr un resultado ponderado. El caso es que el overclocking no debe suponer un problema de estabilidad. Por sacar 100Mhz mas no debemos en ningún caso jugar con la estabilidad del sistema porque lo que ganaremos por un lado lo perderemos por el otro.

Hacer overclocking en maquinas que no van a aprovechar ese aumento de rendimiento tiene poco sentido, para usar un office no necesitamos que el celeron de 2800 pase a 3800, de hecho nosotros devolveremos esta máquina a su estado normal tras finalizar las pruebas, pero nos sirve como ejemplo de lo que se puede llegar a hacer con las herramientas básicas actuales. El overclocking solo se aprovechará si utilizamos tareas que requerían mucho rendimiento de CPU y yo casi diría que es algo exclusivamente aprovechable para juegos y alguna otra tarea muy especificas.

No hay comentarios:

Publicar un comentario