Le numérique et l'analogique sont deux domaines différents, mais à mon avis, l'analogique est la base de tout.
Parce que le numérique, à un moment donné, il faut bien l'interfacer avec le monde réel. Et là, il passer par un minimum d'analogique.
Bon je suis "vieux", je sais que les jeunes voient les choses différemment.
Je pense que quand on veut se familiariser à l'électronique, il faut vraiment éviter de se prendre la tête avec trop de détails, et rester basique.
Une diode par exemple, si tu as compris qu'elle ne laisse passer le courant que dans un sens avec une chute de tension de 0.6V, ce sera suffisant dans 95% des situations. Pas la peine de te prendre la tête (au début) à essayer de comprendre tous les paramètres d'une datasheet...
Un mosfet, si tu as compris qu'au delà de 2-3V sur la gate le courant se met à passer entre le drain et la source, c'est suffisant au début.
Etc.
Une fois la base acquise, les détails viendront...
Mais avant de concevoir et de dessiner des circuits, il faut passer du temps à lire des schémas, savoir reconnaître quel composant fait quoi, pourquoi il y a une capa ici ou une résistance là, etc.
Tu bloques sur quoi, en analogique ?
Diagnostiqué. CRA, 2016.