Dans l'histoire de la France, les femmes, et avant tout les reines, ont souvent régné sur le cœur et l'esprit de leur peuple, bien qu'elles n'aient pas toujours exercé le pouvoir. Pendant quinze siècles, certaines ont joué un rôle prépondérant en se montrant plus lucides, plus préoccupées du bonheur de leurs sujets, sinon plus attentives au rayonnement de la monarchie. Si les rois ont fait la France, on peut dire que les reines l'ont sans doute aimée davantage.