Ciência da computação
Desde o nascimento da computação contemporânea, no século XX, a importância da Ciência da Computação como área de estudo acadêmica e de aplicação industrial tem aumentado consideravelmente. Efetivamente, a idéia do computador não é algo surgido no século XX. Se consideramos o termo “computador” como uma máquina de efetuar cálculos, então sua origem remonta ao ábaco, instrumento de cálculo simples inventado na Mesopotâmia por volta de 2300 a.C. O computador moderno nasceu da evolução de um conceito conhecido como “Máquina de Turing”. Esse dispositivo teórico, descrito em um artigo de 1936 pelo matemático Alan Turing (1), descreve o funcionamento primitivo de um computador, distinguindo os aspectos lógicos como memória, estados e transições. Trata-se certamente de um modelo bastante simplificado, mas suficiente para tornar Turing o pai da Ciência da Computação devido à sua influência na computação teórica. Turing inclusive participou do projeto e construção de computadores mecânicos destinados à decriptografia (quebra de códigos secretos) de comunicações alemãs na Segunda Guerra Mundial. A Ciência da Computação propriamente dita pode ser definida como a área que estuda as formas de implementar algoritmos em software (programas de computador) de modo a serem executados em computadores eletrônicos. O conceito de algoritmo, como se pode perceber, é crucial nesta caso, compondo importante base do currículo universitário da área. Um algoritmo pode ser definido como uma seqüência limitada (isto é, finita) de passos para a solução de um problema. Esses passos ou instruções precisam ser bastante bem definidos, livres de quaisquer ambigüidades, de modo que possam ser aplicados em processos automatizados durante um certo período de tempo (cf. 2). O algoritmo é parte integrante dos programas de computador, já que define as instruções necessárias para que o programa execute uma determinada tarefa. Um dos exemplos mais usados para explicar o