VOCê SABIA?

27/02/2017
VOCê SABIA?
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar nesse período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz