sexta-feira, 4 de julho de 2014

Onde Surgiu o Futebol?

O Brasil é considerado o país do futebol, mas poucas pessoas sabem de onde surgiu.
A tradução de futebol é: "foot", que significa pé, e "ball", bola. Essa palavra é de origem inglesa.

O jogo começou a ser oficial na Inglaterra, no século XX, com poucas regras, sendo que o principal objetivo era chutar a bola dentro do gol. O primeiro time do mundo “Notts County” surgiu em 1982, era um time da Inglaterra.
Tem uma curiosidade aí, no começo não existia a posição de goleiro, só em 1871 apareceu o primeiro, antes disso nenhum jogador podia usar as mãos. Aposto que poucas pessoas sabiam.

Com a ajuda dos meios de comunicação, e por ser um esporte com regras relativamente simples, atrai não só os aspirantes em serem jogadores, mas os expectadores do mundo todo. Esse esporte sempre foi direcionado ao público masculino,  no entanto, as mulheres foram ganhando espaço.


O órgão responsável pelos eventos é a famosa FIFA, tanto pelos Campeonatos, quanto pelas Copas.  Dessas, a Copa do Mundo é o evento mais importante, que acontece de quatro em quatro anos. Para o orgulho dos brasileiros, a seleção é a única na história a participar de todas as Copas.



2 comentários:

  1. Q legal saber disso!. . Continuem postando, e passando informações. . Obrigada.

    ResponderExcluir
    Respostas
    1. Que bom que curtiu! Pode ter certeza que vou sempre estar trazendo novidades para o blog.

      Excluir