Ciencia da computação
O termo Bit, que é proveniente das palavras dígito binário, ou “BInary digiT”, é a menor unidade de medida de transmissão de dados usada na computação e informática. Um bit tem um único valor, zero ou um , verdadeiro ou falso, ou neste contexto quaisquer dois valores mutuamente exclusivos.
Os Computadores se comunica por impulsos elétricos positivo ou negativo a cada pulso elétrico nós chamamos de bit. Um conjunto de 8 bits reunidos em uma única origem se forma um byte.
2 – Para que serve e onde se aplica o uso dos bits?
Toda eletrônica digital, computação e programação está baseada nesse sistema binário e na lógica de Boolean, que permite representar por circuitos eletrônicos digitais (portas lógicas) os números, caracteres, realizar operações lógicas e aritméticas. Os programas de computadores são codificados sob forma binária e armazenados nas mídias (memórias, discos, etc.)
Todo computador possui um conjunto de instruções que seu processador é capaz de executar. Essas instruções, chamadas de código de máquina, são representadas por sequências de bits, normalmente limitadas pelo número de bits do registrador principal da CPU.
3 – Qual a diferença de dado e informação no contexto computacional?
Sistema de Informação é a expressão utilizada para descrever sistema seja ele automatizado (que pode ser denominado como Sistema de Informação Computadorizado), ou seja manual, que abrange pessoas, máquinas, e/ou métodos organizados para coletar, processar, transmitir e disseminar dados que representam informação para o usuário e/ou cliente.
4 – Faça um estudo comparativo entre as 4 geraçoes computacionais.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2400 a.C. O uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.O ábaco dos romanos consistia de