Este resumo apresenta, de forma detalhada e organizada, os principais sistemas de numeração utilizados na computação – o sistema decimal, binário e hexadecimal –, além das codificações, unidades de armazenamento e dos conceitos históricos que fundamentam o desenvolvimento e a aplicação desses sistemas.
Desde os tempos mais remotos, a humanidade utilizou sistemas de numeração para registrar informações como a contagem de animais e bens. Os primeiros métodos de registro empregavam marcas ou traços em paus, pedras e outros materiais, baseando-se na correspondência biunívoca – ou seja, associando cada símbolo a um valor específico.
No Egito antigo, por exemplo, as medidas eram realizadas com base em partes do corpo, como:
Evidências sugerem que os egípcios utilizavam um sistema decimal há cerca de 5 mil anos. O sistema de numeração romano também é decimal, mas organizado de forma diferente dos números arábicos que usamos atualmente. Os gregos, especialmente os pitagóricos, estudaram os números profundamente, acreditando que o universo era constituído por eles.
Importantes contribuições históricas incluem as reflexões de Descartes, que introduziu o conceito de números reais ao tratar das raízes de equações, e os trabalhos de Gauss, que aprimoraram as ideias de números reais e imaginários. A famosa frase de Kronecker – “Deus criou os números inteiros; tudo o mais é obra do homem” – sintetiza bem essa evolução do pensamento matemático.
Além disso, a representação dos números na reta real (IR) demonstra como os números inteiros, negativos, fracionários e irracionais se distribuem de forma contínua, sendo cada ponto da reta um número real.
A representação digital utiliza sinais discretos, normalmente 0 e 1, que correspondem à ausência ou presença de corrente elétrica em circuitos eletrônicos. Em contraste, a representação analógica é contínua, podendo gerar interpretações variadas, como ocorre na medição de temperatura em um termômetro de mercúrio.
Por exemplo, enquanto um relógio digital exibe as horas por meio de dígitos que mudam de forma discreta, um relógio de ponteiros indica a passagem do tempo de maneira contínua.
O sistema decimal é o mais utilizado historicamente e baseia-se na base 10. Ele utiliza os dígitos {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} e cada posição de um número corresponde a uma potência de 10, como unidade, dezena, centena, milhar, etc.
Exemplo: (234)10 = 2 × 102 + 3 × 101 + 4 × 100.
Neste contexto, destacam-se os conceitos de MSD (Most Significant Digit) e LSD (Least Significant Digit):
Por exemplo, no número 234, o dígito 2 é o MSD e o dígito 4 é o LSD.
O sistema binário utiliza a base 2 e é composto pelos dígitos {0, 1}. Essa forma de numeração é a linguagem natural dos computadores, pois os circuitos eletrônicos distinguem apenas dois estados: ligado (1) e desligado (0).
Cada dígito binário é chamado de bit. Para aumentar a capacidade de representação, os bits são agrupados:
Assim como no sistema decimal cada posição corresponde a uma potência de 10, no sistema binário cada posição corresponde a uma potência de 2. Por exemplo:
Nos computadores, a transferência de dados ocorre em grupos de bits (8, 16 ou 32 bits). Por exemplo, microprocessadores como o Intel 8080 operavam com 8 bits, enquanto outros, como o Intel 80386 e Pentium, operavam com 32 bits, mesmo que permitissem instruções de 8 ou 16 bits.
O sistema hexadecimal é baseado na base 16 e utiliza os dígitos 0 a 9 e as letras A, B, C, D, E e F (representando os valores 10 a 15). Cada dígito hexadecimal equivale a 4 bits, o que permite representar um byte (8 bits) com apenas 2 dígitos.
Esse sistema é bastante utilizado para representar endereços de memória, códigos de cores (como na notação RGB, por
exemplo, #FF00CC
) e endereços MAC, pois oferece uma forma compacta de exibir dados binários.
Exemplo de conversão: (210)16 = 2 × 162 + 1 × 161 + 0 × 160 = 52810.
A codificação BCD converte cada dígito de um número decimal em seu equivalente binário de 4 bits, processando-o dígito a dígito. Embora o resultado seja um número representado em binário, não se trata de uma conversão completa do número, mas sim de uma representação de cada dígito.
Exemplo: Para codificar o número 953
em BCD:
1001
0101
0011
Para decodificar um código BCD, os bits devem ser agrupados em conjuntos de 4. Assim, o código
1001 0011 1000 0001
é interpretado como os dígitos 9, 3, 8 e 1, respectivamente.
O ASCII (American Standard Code for Information Interchange) é o padrão para codificação de caracteres e funções encontradas em teclados. Originalmente, o ASCII utiliza 7 bits, permitindo 128 combinações, embora frequentemente seja armazenado em 1 byte (8 bits).
Cada caractere, seja uma letra, número ou símbolo, é representado por um código numérico. Por exemplo, a letra “A” é
representada por 01000001
em ASCII. Essa codificação é fundamental para a comunicação entre computadores,
impressoras e para o armazenamento interno de dados.
Os dados em sistemas computacionais são medidos e transferidos em diferentes unidades, conforme a quantidade de bits envolvidos:
Essas unidades são essenciais para compreender como os dados são armazenados, processados e transmitidos em sistemas modernos.
O capítulo evidencia a evolução dos sistemas numéricos e sua relevância tanto histórica quanto prática:
Em suma, a compreensão dos sistemas de numeração e suas codificações é essencial para a área de computação, possibilitando a manipulação, armazenamento e transmissão precisa de dados.