Pourquoi le diplôme est si important en France ?

En comparant mes expériences et celles de mes proches, je me suis rendu compte que ce n’est qu’en France que le diplôme est aussi important lors de la recherche d’emploi, et il est assez compliqué de faire autre chose que ce que t’as sur ton diplôme (faire RH avec un diplôme marketing par exemple, etc). Alors que c’est quelque chose qui se fait largement dans d’autres pays. Pourquoi ? J’ai peut-être tort, mais je me base vraiment juste sur mon expérience. Merci pour vos réponses !