educação física
A educação Física é uma das áreas de conhecimento ligada ao estudo das atividades físicas, visando o aperfeiçoamento e desenvolvimento correto dos movimentos corporais e motores. Trabalha também no sentido terapêutico, na manutenção e reabilitação da saúde e ate mesmo para prevenir e evitar certos tipos de doenças.
Também é fundamental na formação básica do ser humano, atividade essencial para uma boa qualidade de vida.
O próprio Manifesto Mundial da Educação Física mostra os benefícios tanto sociais como educacionais que a Educação Física oferece. Mas uma duvida assombra minha mente... Já que a Educação Física é tão importante assim, porque essa ainda se encontra na UTI?
Há uma certa dificuldade em explicar o que realmente é a Educação