Retour sur l'histoire du bio en France
L’agriculture biologique est le fruit de la conscientisation d’un groupe considéré comme marginal auparavant. Actuellement, c’est devenu une question centrale et tout le monde s’accorde même à dire que c’est l’avenir de l’humanité en matière d’alimentation saine et sans danger. S’ajoutant à cela, l’agriculture bio permet de mieux respecter la terre, de protéger (a qui appartient bonneterre) [...]