Computador

Computadores e dispositivos de computação de diferentes épocas – da esquerda para a direita, de cima para baixo:

Um computador é uma máquina que pode ser programada para realizar automaticamente sequências de operações aritméticas ou lógicas (computação). Os computadores eletrônicos digitais modernos podem executar conjuntos genéricos de operações conhecidos como programas, que permitem que os computadores executem uma ampla gama de tarefas. Os termos sistema de computador ou sistema computacional podem se referir a um computador nominalmente completo que inclui hardware, sistema operacional, software e equipamento periférico necessário e usado para operação completa; ou a um grupo de computadores vinculados e que funcionam juntos, como uma rede de computadores ou cluster de computadores.

Uma ampla gama de produtos industriais e de consumo utiliza computadores como sistemas de controle, incluindo dispositivos simples para fins especiais, como fornos de microondas e controles remotos, além de dispositivos de fábrica, como robôs industriais. Os computadores estão no centro de dispositivos de uso geral, como computadores pessoais e dispositivos móveis, como smartphones, além de alimentarem a Internet, que liga milhares de milhões de computadores e utilizadores.

Os primeiros computadores deveriam ser usados apenas para cálculos. Instrumentos manuais simples, como o ábaco, ajudam as pessoas a fazer cálculos desde os tempos antigos. No início da Revolução Industrial, alguns dispositivos mecânicos foram construídos para automatizar tarefas longas e tediosas, como padrões de orientação para teares. Máquinas elétricas mais sofisticadas faziam cálculos analógicos especializados no início do século XX. As primeiras máquinas de calcular eletrônicas digitais foram desenvolvidas durante a Segunda Guerra Mundial, tanto eletromecânicas quanto utilizando válvulas termiônicas. Os primeiros transistores semicondutores no final da década de 1940 foram seguidos pelo MOSFET baseado em silício (transistor MOS) e pelas tecnologias de chip de circuito integrado monolítico no final da década de 1950, levando ao microprocessador e à revolução do microcomputador na década de 1970. A velocidade, potência e versatilidade dos computadores têm aumentado dramaticamente desde então, com a contagem de transistores aumentando rapidamente (a lei de Moore observou que a contagem dobrou a cada dois anos), levando à Revolução Digital durante o final do século XX e início do século XXI.

Convencionalmente, um computador moderno consiste em pelo menos um elemento de processamento, normalmente uma unidade central de processamento (CPU) na forma de um microprocessador, juntamente com algum tipo de memória de computador, normalmente chips de memória semicondutores. O elemento de processamento realiza operações aritméticas e lógicas e uma unidade de sequenciamento e controle pode alterar a ordem das operações em resposta às informações armazenadas. Os dispositivos periféricos incluem dispositivos de entrada (teclados, mouses, joystick, etc.), dispositivos de saída (telas de monitores, impressoras, etc.) e dispositivos de entrada/saída que executam ambas as funções (por exemplo, a tela sensível ao toque da década de 2000). Os dispositivos periféricos permitem que informações sejam recuperadas de uma fonte externa e permitem que os resultados das operações sejam salvos e recuperados.


© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search