miércoles, 14 de junio de 2023

La arquitectura informática: Explorando el concepto y su aplicación en el mundo de la informática.

La arquitectura informática

¿Alguna vez has oído hablar de ARM, x86 y x64 y no tienes idea de lo que significa cada nombre? Obtenga más información sobre la arquitectura informática y su importancia en la práctica.

La arquitectura informática es un término común en el mundo de la informática, que se encuentra principalmente al instalar un sistema operativo. Es la arquitectura la que define cómo el hardware y el software "hablan" entre sí, lo que permite que los programas se ejecuten según lo programado.

Las arquitecturas x86 y x64 de Intel y AMD siempre han sido las más comunes, pero ahora Apple está popularizando una nueva opción con procesadores basados ​​en ARM para sus computadoras y portátiles más recientes. A continuación, comprenda mejor la arquitectura de la computadora.

¿Qué es la arquitectura informática?

En términos generales, la arquitectura de la computadora define el conjunto de instrucciones que la computadora es capaz de operar. En pocas palabras, cada acción realizada por el usuario (desde encender la PC hasta abrir un archivo) da como resultado una serie de datos que el procesador necesita analizar continuamente. Para organizar este flujo de información y hacer que el procesamiento ocurra con el menor número de contratiempos posible, las instrucciones deben operar dentro de su propio sistema, llamado arquitectura.

Con esto, los programadores pueden predecir cómo se ejecutará el software en hardware que comparte la misma arquitectura y evitar posibles conflictos o errores. También permite a los ingenieros mejorar continuamente el hardware sin causar problemas de compatibilidad.

En el caso de los nuevos chips que se lanzan anualmente, los detalles se denominan microarquitectura, ya que son cambios realizados dentro de la arquitectura principal. El último procesador de Intel, el Raptor Lake , es un ejemplo de ello.

¿Qué arquitecturas existen para los procesadores?

Actualmente, es posible encontrar tres tipos de arquitecturas para computadoras personales. El más antiguo es x86, lanzado en 1978 por Intel. El nombre es una abreviatura del procesador 8086, que fue el primero creado bajo esta arquitectura.

Inicialmente, x86 solo podía procesar datos de 16 bits. Pero a partir de 1985, x86 se convirtió en el estándar de la industria para chips de 32 bits. Aunque actualmente está desactualizada debido a la limitación de 4 GB de memoria RAM, la arquitectura x86 todavía se puede encontrar en algunas computadoras más antiguas.

La arquitectura más dominante en este momento es x64. Lanzado en 1999 por AMD, x64 comenzó a procesar información de hasta 64 bits, el doble que x86. Esto significa que la plataforma es capaz de procesar más instrucciones en menos tiempo, además de tener una capacidad teórica para almacenar hasta 16 exabytes de RAM. Otra ventaja es que es retrocompatible con la plataforma x86.

Por último, sigue existiendo la arquitectura ARM, presente en smartphones, tablets y los últimos ordenadores de Apple. Lanzado en 1985 por Acorn Computers, ARM permaneció en el oscurantismo durante años hasta el lanzamiento del iPhone , en 2007. Como los chips ARM consumen menos energía y se calientan menos, la arquitectura encajaba perfectamente con la propuesta del smartphone. A partir de 2020, Apple comenzó a utilizar la arquitectura en sus computadoras personales, a través de los chips M1 y M2, como forma de integración de sus dispositivos.

¿Cuál es la diferencia para la arquitectura de las tarjetas de video?

Los procesadores y las tarjetas gráficas trabajan juntos para crear las imágenes que vemos en las pantallas de los teléfonos celulares y las computadoras. Ambos, sin embargo, operan de diferentes maneras. En el caso de la CPU, sus pocos núcleos son capaces de realizar cálculos complejos y elaborados. La GPU, por otro lado , tiene miles de núcleos que realizan solo operaciones repetitivas básicas, pero a gran escala.

Por lo tanto, las tarjetas de video usan otra arquitectura, llamada Single Instruction Multiple Data (SIMD). Solo procesa una instrucción a la vez, pero los núcleos procesan los datos en paralelo. Prácticamente todas las tarjetas de video modernas usan este sistema.

Como en el caso de los procesadores, los fabricantes de tarjetas de video también nombran sus microarquitecturas para marcar las diferentes generaciones de productos. En el caso de Nvidia , su más reciente es Lovelace, mientras que para AMD es RDNA 3. Al igual que con las CPU, estos cambios representan funciones mejoradas y la inclusión de nuevas instrucciones, como la adición de Ray Tracing y núcleos de inteligencia artificial .

No hay comentarios:

Publicar un comentario