Un fournisseur de platine nous confiait que, sur 10 kg de cartes électroniques traitées, son procédé chimique ne récupérait que 60 % du palladium présent. Soit 40 % d’un métal critique perdu dans les cendres. Pour un site e-commerce, ce serait comme laisser 40 % de son trafic organique partir à cause d’un canonique mal placé. L’écart entre la théorie du recyclage chimique et sa pratique industrielle reste immense.
Le problème n’est pas la chimie fondamentale : on sait extraire l’or, l’argent, le cuivre ou les terres rares de déchets broyés. Le problème, c’est que la plupart des unités pilotes ou pré-industrielles traitent leur procédé comme une recette fixe, surveillée par un thermocouple unique et un opérateur qui note les relevés dans un fichier Excel. On est loin d’une optimisation au sens où on l’entend sur un Core Web Vitals. Pourtant, le parallèle est direct : sans instrumentation fine, sans corrélation des variables, on navigue à l’aveugle et on laisse de la valeur dans le réacteur.
Le recyclage chimique face à la réalité des DEEE
Le gisement de déchets d’équipements électriques et électroniques croît plus vite que les capacités de traitement. Les méthodes mécaniques trient, broient, séparent par densité, mais elles échouent à capter les métaux précieux encapsulés dans les résines ou les alliages complexes. Le recyclage chimique, lui, s’attaque à cette fraction réfractaire. Pyrolyse, solvolyse, lixiviation : des voies qui promettent des taux de récupération supérieurs à 90 % pour des métaux comme l’or ou le tantale.
Dans les faits, le rendement oscille entre 50 et 80 % selon les jours, la qualité du lot entrant et l’humeur du capteur de pression. La variabilité n’a rien d’une fatalité technique. Elle signale une absence de contrôle en boucle fermée. Les ingénieurs chimistes conçoivent des procédés, mais ils n’instrumentent pas assez pour les piloter en dynamique. Résultat : même une ligne ayant coûté plusieurs millions d’euros se comporte comme un vieux serveur sans monitoring, où l’on découvre les pannes après coup.
La chimie dans le réacteur : ce qui se joue au‑delà de la température
L’essentiel des réactions de récupération dépend de trois facteurs qu’on croit maîtriser : la température, le temps de séjour et l’atmosphère. En pyrolyse, la rampe de chauffe compte autant que le plateau final. Une montée trop brutale (10 °C/min au lieu de 2 °C/min) peut vitrifier les plastiques et piéger les métaux dans une matrice carbonée que seul un broyage secondaire libérera. On a audité une ligne qui fonctionnait depuis six mois avec un rendement moyen de 55 % sur l’or. Le thermocouple de régulation était placé en bordure de cuve, à 30 cm de la masse réactionnelle. La température réelle au cœur accusait un retard de 40 °C pendant les phases transitoires. Personne ne le voyait, parce que l’acquisition se limitait à un enregistreur papier.
Côté hydrométallurgie, l’erreur classique consiste à fixer une concentration d’acide ou d’oxydant sans l’ajuster au potentiel redox en continu. Une variation de 0,1 V modifie la cinétique de dissolution de certains métaux. Le palladium, par exemple, passe d’une extraction quasi complète à 60 % si le potentiel dérive de 30 mV. Encore faut-il mesurer cette grandeur avec une électrode propre et compensée en température. C’est ici que la différence entre un laboratoire et une ligne de production se creuse : au labo, on rince l’électrode toutes les deux heures. Sur site, elle s’encrasse, le signal dérive, et la correction de process finit par devenir un coup de chance.
La charge d’alimentation elle-même est sous-exploitée comme source de données. Les cartes électroniques ne sont pas homogènes. Le rapport or/cuivre, la présence d’ignifugeants bromés, l’épaisseur des connecteurs : toutes ces variables influent sur le choix de la chimie et des paramètres. Un système qui traite tous les lots entrants comme identiques gaspille des réactifs et du temps. Les unités les plus avancées commencent à caractériser la charge par fluorescence X avant de l’envoyer dans le réacteur. Ce sont quelques centaines d’euros de capteur qui épargnent des milliers d’euros de solvant sous-employé.
Les trois angles morts de l’optimisation industrielle
Premier angle mort : l’instrumentation hétérogène. On trouve sur une même ligne des capteurs Modbus, des transmetteurs 4‑20 mA sans étalonnage croisé et un automate qui ignore la moitié des grandeurs parce que personne n’a écrit le driver. Deuxième : l’absence de jumeau numérique. Sans modèle thermodynamique couplé aux mesures, impossible d’anticiper la dérive d’un batch avant qu’il ne soit hors spécifications. Troisième : le manque de corrélation systématique entre la composition de l’alimentation et le choix des paramètres. On pilote au « ressenti » d’un opérateur qui change de poste toutes les trois rotations.
Instrumenter son procédé : du thermocouple à la boucle de rétroaction
Une boucle de contrôle réactive ne se décrète pas : elle se câble, se paramètre et s’évalue. Le minimum viable commence par l’ajout d’un bus de terrain homogène, où chaque mesure remonte dans un superviseur capable d’historiser les séries temporelles. Avec une fréquence d’échantillonnage d’une seconde, on détecte des phénomènes transitoires qu’un relevé manuel toutes les quinze minutes ne verrait jamais. On a mesuré, sur un four de pyrolyse, des oscillations de pression d’amplitude 5 mbar durant le chauffage ; elles précédaient systématiquement un effondrement du rendement de 10 %. Une fois la vanne de régulation recalibrée, l’oscillation a disparu et le rendement s’est stabilisé.
L’étape suivante consiste à croiser ces données avec la qualité du produit sortant. Chaque batch devient un point dans un espace de paramètres : température moyenne, écart-type de température, durée au‑dessus d’un seuil, pression maximale, perte de masse. Les algorithmes de détection d’anomalies utilisés pour identifier un pic de latence sur un serveur web (forêt d’isolation, k plus proches voisins) s’appliquent tout aussi bien à cette matrice. Un batch qui s’écarte du nuage de points historiques déclenche une alerte avant même que le produit ne soit analysé. On ne peut pas se contenter de comparer le rendement global du trimestre, de la même manière qu’optimiser le LCP d’une page nécessite de corréler le chargement des éléments avec les données de terrain de la CrUX. Sans cette granularité, on déplace le problème sans le résoudre.
La simulation CFD (mécanique des fluides numérique) ajoute une couche prédictive. En modélisant l’écoulement et le transfert thermique dans le réacteur, on peut tester des profils de chauffe alternatifs sans immobiliser la ligne. Un modèle bien calibré permet de réduire le nombre de batches de mise au point de manière significative, et surtout d’identifier les zones froides qui piègent des métaux. Une fois le jumeau calé sur les mesures réelles, il devient l’outil de conception des prochaines campagnes.
Quand l’IA générative écrit les scripts de supervision
Les équipes chargées du traitement des données de procédé passent souvent plus de temps à écrire les scripts d’acquisition et de nettoyage qu’à analyser les résultats. L’arrivée des assistants de code change leur quotidien. Quand on compare Claude Code et Cursor IDE pour générer un script Python de prétraitement de données spectrométriques, la différence se joue sur l’itération : Claude Code propose un prototype cohérent en une heure, mais Cursor IDE facilite l’édition incrémentale du prompt et le diff des modifications. Dans les deux cas, le facteur limitant n’est pas l’outil lui-même, c’est la qualité des contraintes qu’on fournit : débit de mesure attendu, tolérance aux données manquantes, format de sortie exigé par le superviseur. Comme en développement web, le choix de l’environnement importe moins que la spécification.
L’IA ne se cantonne pas au code. Un modèle de langage entraîné sur la documentation technique des capteurs et des automates répond à des questions du type « pourquoi le débitmètre Coriolis renvoie-t-il une valeur négative au démarrage de la pompe ? » en quelques secondes, là où un technicien ouvrirait trois manuels. On gagne du temps de diagnostic et on réduit la charge cognitive de l’équipe. L’enjeu, à terme, n’est pas de remplacer l’opérateur, mais de lui fournir un copilote qui l’alerte avant l’incident.
Relier le process au reste du SI : l’apport d’une architecture événementielle
Un automate programmable gère les séquences de chauffage et de vidange. Mais dès qu’on veut l’intégrer à un ERP pour la traçabilité des lots, ou à une GMAO pour la maintenance, le couplage synchrone devient un goulet. On a vu des systèmes de supervision planter parce qu’un appel à l’API du logiciel de gestion bloquait la boucle de régulation. La solution consiste à publier les événements du procédé (fin de palier, défaut capteur, batch terminé) sur un bus léger, consommé par les applications métier sans bloquer le contrôle-commande.
C’est un schéma d’architecture qu’on connaît bien en développement front : une application React qui stockerait tout dans un état global provoquerait des re-rendus en cascade à chaque événement. Isoler les domaines de préoccupation avec un store minimaliste (comme Zustand) évite de réagir à des changements non pertinents. Le parallèle technique est direct : un bus d’événements couplé à des handlers spécialisés garantit la résilience du pilotage tout en alimentant les outils de suivi. La traçabilité devient une conséquence naturelle de l’architecture, pas un projet supplémentaire.
Questions fréquentes
Le recyclage chimique est-il économiquement viable sans subvention ? En l’état actuel de l’instrumentation, la viabilité dépend du prix des métaux cibles. Une installation correctement instrumentée et optimisée en continu peut abaisser son coût de traitement de 20 à 30 % en réduisant la consommation de réactifs et l’énergie, ce qui élargit la fenêtre de rentabilité même sur des métaux moins nobles comme l’étain ou le cobalt.
Quelle est la première brique d’instrumentation à poser, si on a un budget serré ? Un capteur de pression différentielle et un thermocouple au cœur de la charge, reliés à un enregistreur numérique avec export CSV. Avec ces deux grandeurs et un horodatage correct, on peut déjà corréler le rendement aux profils thermiques et détecter les anomalies de combustion. Cela coûte moins cher qu’une demi-journée de temps de réacteur perdu.
Un opérateur sans formation en data peut-il piloter un tel système ? Oui, si le superviseur traduit les anomalies en alertes compréhensibles (température hors plage, perte de signal). L’interface doit ressembler à un tableau de bord de monitoring web, avec un code couleur et une tendance glissante sur 24 heures. Une formation d’une journée suffit pour lire les graphes et réagir aux alarmes critiques.