Educación Física
Definición
¿Qué es Educación Física?
Es la disciplina pedagógica que abarca el cuerpo humano desde diversas perspectivas físicas, aspirando a una educación integral respecto al cuerpo humano que contribuya al cuidado y a la salud, pero también a la formación deportiva y contra la vida sedentaria.
La tendencia actual en esta materia es hacia la explotación de la adaptabilidad y la versatilidad del cuerpo, enseñando a los jóvenes a lidiar físicamente con distintas situaciones o requerimientos, y aumentando así sus capacidades corporales.
Imágenes
Vídeo
Comentarios
Publicar un comentario