À mesure que la complexité et les performances des produits électroniques augmentent, la densité des cartes de circuits imprimés et la fréquence de leurs dispositifs associés augmentent, tout comme les divers défis auxquels les ingénieurs sont confrontés lors de la conception de circuits imprimés haute densité à haute vitesse. En plus des problèmes bien connus d'intégrité du signal (si), les prochains points chauds de la technologie PCB haute vitesse devraient être l'intégrité de l'alimentation (PI), EMC / EMI et l'analyse thermique.
À mesure que la concurrence s'intensifie, les fabricants subissent une pression croissante sur les délais de lancement des produits. Comment utiliser des outils EDA avancés et des méthodes et processus optimisés pour une conception de haute qualité et efficace est devenu un problème auquel les fabricants de systèmes et les ingénieurs de conception doivent faire face.
Hotspot: passer de l'intégrité du signal à l'intégrité de l'alimentation
En parlant de conception à haute vitesse, la première chose qui vient à l'esprit est la question de l'intégrité du signal. L'intégrité du signal se réfère principalement à la qualité de la transmission du signal sur une ligne de signal. Le circuit présente une bonne intégrité de signal lorsque les signaux dans le circuit sont capables d'atteindre les broches de la puce réceptrice avec la cadence, la durée et l'amplitude de tension requises. Des problèmes d'intégrité du signal surviennent lorsque le signal ne répond pas correctement ou lorsque la qualité du signal ne permet pas au système de fonctionner de manière stable pendant une longue période. L'intégrité du signal se manifeste principalement dans plusieurs aspects tels que le retard, la réflexion, la diaphonie, le timing et les oscillations. Il est généralement admis que les problèmes d'intégrité du signal se posent lorsque le système fonctionne à 50 MHz et que les problèmes d'intégrité du signal deviendront plus importants à mesure que les fréquences des systèmes et des appareils augmenteront. Les paramètres de l'élément et de la carte PCB, la disposition de l'élément sur la carte PCB et le câblage du signal à grande vitesse peuvent tous entraîner des problèmes d'intégrité du signal, ce qui entraîne un fonctionnement instable du système, voire un dysfonctionnement du tout.
La technologie d'intégrité du signal a évolué au fil des décennies et ses méthodes théoriques et analytiques sont devenues plus matures. En ce qui concerne les problèmes d'intégrité du signal, l'intégrité du signal n'est pas le problème de quelqu'un. Il implique chaque maillon de la chaîne de conception. Non seulement les ingénieurs en conception de systèmes, les ingénieurs en matériel et les ingénieurs en PCB doivent y penser, mais ils ne peuvent même pas l'ignorer pendant la fabrication. Pour résoudre les problèmes d'intégrité du signal, nous devons compter sur des outils de simulation avancés.
L'intégrité de l'alimentation est une technologie relativement nouvelle par rapport à l'intégrité du signal et est considérée comme l'un des plus grands défis dans la conception de PCB haute densité à haute vitesse. L'intégrité de l'alimentation signifie que dans les systèmes à grande vitesse, les systèmes de transmission d'alimentation PDS ont des caractéristiques d'impédance différentes à différentes fréquences, de sorte que la tension entre la couche d'alimentation et la couche de terre sur le PCB n'est pas la même partout sur la carte. Par conséquent, l'alimentation n'est pas continue, générant un bruit d'alimentation et la puce ne peut pas fonctionner correctement; Dans le même temps, les problèmes d'intégrité de l'alimentation peuvent également poser des problèmes EMC / EMI en raison du rayonnement à haute fréquence. Si les problèmes d'intégrité de l'alimentation ne sont pas bien résolus, cela affectera gravement le bon fonctionnement du système.
Généralement, les problèmes d'intégrité de l'alimentation sont principalement résolus par deux méthodes: l'optimisation de la conception et de la disposition de l'empilement de la carte et l'ajout de condensateurs de découplage. Lorsque la fréquence du système est inférieure à 300 ~ 400 MHz, le condensateur de découplage peut jouer un rôle de contrôle de la fréquence, du filtrage et de l'impédance. Placer le bon condensateur de découplage au bon endroit aidera à réduire les problèmes d'intégrité de l'alimentation du système. Mais lorsque la fréquence du système est élevée, le condensateur de découplage joue un rôle moindre. Dans ce cas, le problème de l'intégrité de l'alimentation, tout en supprimant EMC / EMI, ne peut être résolu qu'en optimisant la conception et la disposition de l'espacement des couches de la carte ou d'autres méthodes pour réduire le bruit d'alimentation et de mise à la Terre (telles que l'adaptation appropriée pour réduire Les problèmes de réflexion du système de transmission d'alimentation), etc.
En ce qui concerne la relation entre l'intégrité du signal et l'intégrité de la puissance, l'intégrité du signal est un concept dans le domaine temporel qui est plus facile à comprendre, tandis que l'intégrité de la puissance est un concept dans le domaine fréquentiel qui est plus difficile à comprendre que l'intégrité du signal, mais qui présente des similitudes avec l'intégrité du signal à certains égards. L'intégrité de l'alimentation nécessite des compétences plus élevées de la part des ingénieurs, ce qui constitue un nouveau défi pour la conception à grande vitesse. Elle concerne non seulement le niveau de la carte, mais aussi le niveau de la puce et du boîtier. Il est recommandé aux ingénieurs qui conçoivent des cartes à grande vitesse de faire l'intégrité de l'alimentation sur la base de la résolution de l'intégrité du signal. «.
« adoucir » votre design par simulation
La simulation est un test d'un prototype virtuel qui prend en compte tous les aspects. Comme la conception devient de plus en plus complexe, il est impossible pour les ingénieurs de mettre en œuvre chaque proposition. Actuellement, ils ne peuvent utiliser que des simulations avancées plutôt que des expériences pour juger.
Dans la conception de systèmes d'aujourd'hui, en plus des défis posés par les cartes à haute vitesse et à haute densité, la pression exercée par le lancement rapide de produits fait de la simulation un moyen indispensable de conception de systèmes. Les concepteurs veulent utiliser des outils de simulation avancés pour identifier les problèmes lors de la phase de conception, ce qui permet une conception efficace et de haute qualité du système.
Dans la conception traditionnelle des cartes, les ingénieurs ont rarement recours à la simulation. Plus souvent, il utilise la conception de référence et les guides de conception (c. - à - D. des livres blancs) fournis par les fabricants de puces en amont, combine l'expérience pratique des ingénieurs pour concevoir, puis teste et teste les prototypes résultant de la conception, identifie les problèmes et modifie la conception. Cette situation se répète jusqu'à ce que le problème soit essentiellement résolu. Même la conception occasionnelle avec des outils de simulation est limitée à une partie du circuit. Modifier un circuit implique une temporisation. Sous la pression du lancement rapide du produit, ce retard est inacceptable. Surtout pour les grands systèmes, une petite modification peut nécessiter de renverser toute la conception. Les pertes qu’elle entraîne pour les fabricants sont incalculables.
La qualité du produit est difficile à garantir, le cycle de développement est incontrôlable, trop dépendant de l'expérience des ingénieurs... Ces facteurs rendent l'approche de conception ci - dessus difficile à relever les défis posés par la conception de PCB haute densité à haute vitesse de plus en plus complexe, d'où la nécessité d'utiliser des techniques de simulation avancées. Outils pour résoudre ce problème. "Les solutions de conception données par les fabricants de puces en amont sont basées sur leurs propres prototypes et les produits des fabricants de systèmes ne peuvent pas être exactement les mêmes que ceux des fabricants en amont; en même temps, les exigences de conception d'une puce peuvent être contradictoires avec celles d'une autre. Une simulation doit être effectuée pour déterminer les solutions de conception".
En un sens, la simulation consiste à permettre au logiciel de compléter l'évaluation fonctionnelle d'un prototype virtuel, ce qui ne peut être fait qu'en testant un prototype physique. C’est une solution plus « douce » et plus économique.
Cependant, la simulation de cartes haute densité à haute vitesse diffère de la simulation traditionnelle. « la simulation traditionnelle est faite pour les schémas », explique yulifu, ingénieur technique chez mentor graphics. « Il suffit d’ajouter des incitations et de regarder la sortie pour déterminer si la fonction est correcte; tandis que la simulation à grande vitesse est basée sur le principe que la fonction est correcte, en fonction de la conception. Quelles sont les performances? Cela fonctionne non seulement pour les schémas, mais aussi pour la conception de PCB. » avec les outils de simulation, vous pouvez dire quel schéma est le plus proche des besoins réels et, sur la base de la satisfaction des exigences de performance, quel schéma est le moins coûteux.
Trouver un équilibre entre les coûts du plan et du système. « avec les outils de simulation, vous pouvez dire si l’amélioration du système va dans la bonne direction, indiquer la voie à suivre pour la conception, augmenter le succès de la première carte et rendre le produit plus rapide sur le marché », a déclaré yulifu. « mais, peu importe à quel point les résultats de simulation sont proches des résultats des tests, ils ne remplacent pas le système de test réel. »
Un test est un véritable jugement sur la performance d'un système, y compris tous les facteurs environnementaux réels. Cependant, la simulation est un « test » du prototype virtuel. Il cible certaines conditions spécifiques. Aucun outil ne peut prendre en compte toutes les situations pratiques en même temps. Simulation. Cependant, au fur et à mesure que la technologie évolue et que les outils continuent de s’améliorer, les résultats de simulation se rapprochent de plus en plus des résultats réels des tests et sont de plus en plus instructifs pour la conception, mais en même temps plus exigeants pour les ingénieurs – alors que les outils sont de plus en plus faciles à utiliser, les méthodes de jugement et d’amélioration des résultats de simulation dépendent du niveau technique et de la base théorique de l’ingénieur.
Actuellement, l'effet le moins souhaitable dans la simulation de PCB à haute vitesse est EMC / EMI. En effet, pour les systèmes à grande vitesse, une modélisation 3D du système est nécessaire pour simuler efficacement l'environnement réel en raison de l'influence de l'effet via. Cependant, pour un système aussi grand et complexe que les PCB, il est difficile de le modéliser en 3D. Selon yulifu, les problèmes EMC / EMI sont actuellement principalement traduits en règles de mise en page et de câblage de PCB conformes aux normes internationales communes, en utilisant principalement des méthodes vérifiées par des experts.
En outre, en ce qui concerne l'analyse 3D, des entreprises telles que Ansoft et apsim peuvent fournir des outils et des méthodes spécialisés qui peuvent être utilisés conjointement avec les outils système cadence et mentor graphics.
Le choix de l'efficacité: câblage automatique et conception parallèle
La conception schématique ne concerne pas seulement les circuits de « suivi», mais aussi de nombreuses autres exigences. Les outils de conception schématique devraient être en mesure d'apporter ces exigences à l'étape suivante, en prenant en charge le câblage automatique, la simulation fonctionnelle, etc.
Afin de trouver des voies de conception plus efficaces, de résoudre les contraintes de temps liées au lancement de produits et de mettre rapidement les produits sur le marché, des technologies de câblage automatique et de conception parallèle ont vu le jour.
« Si vous pouvez tirer un bon parti de la technologie de câblage automatique, vous pouvez réduire le temps de dessin et plus que doubler l’efficacité de la conception de votre PCB. » cependant, si vous voulez implémenter le câblage automatique, vous devez utiliser le gestionnaire de règles électrifié pour intégrer les ingénieurs de conception système et les ingénieurs de conception matérielle. Les exigences de conception du circuit sont transmises aux ingénieurs PCB.
Pour les premiers systèmes plus simples, il est courant que les ingénieurs en matériel écrivent les exigences de conception un par un et disent aux ingénieurs en conception de PCB comment procéder. Mais pour les systèmes complexes, face aux milliers de connexions et aux innombrables exigences, les ingénieurs en matériel ne peuvent pas enregistrer ces règles un par un et Les ingénieurs en conception de PCB ne peuvent pas vérifier et mettre en œuvre un par un. À ce stade, un gestionnaire de règles électrifié est nécessaire pour gérer les diverses exigences de conception. Les ingénieurs en matériel et les ingénieurs en conception de PCB peuvent travailler ensemble sur la base du même gestionnaire de règles.
Pour la technologie de câblage automatique, « si une entreprise ne maîtrise pas bien cette technologie et que les problèmes d’intégrité du signal ne sont pas bien résolus, il est conseillé de ne pas utiliser le câblage automatique, car si vous ne définissez pas de bonnes règles, vous ne pouvez pas conduire le câblage automatique correctement. » quel que soit le développement des outils, les ordinateurs ne peuvent pas remplacer complètement le comportement du cerveau humain et il est donc impossible d’obtenir un câblage 100% automatique. Le câblage automatique que nous avons mentionné ci - dessus est en fait un câblage automatique interactif qui nécessite l’implication d’un être humain: certaines des règles qui précèdent le câblage automatique doivent être déterminées plus à la main; Une fois le câblage automatique terminé, il doit être vérifié et modifié par un ingénieur.
Pour la conception de systèmes traditionnels à relativement basse vitesse, de nombreux ingénieurs peuvent avoir l'expérience de dessiner des schémas avec Orcad de cadence, puis de les mettre en page avec powerpcb de mentor. Mais cette approche n'est plus applicable dans le domaine de la conception à grande vitesse. « il n’est pas possible de convertir complètement les données entre les outils de différents fabricants. Par exemple, les méthodes traditionnelles de lecture des tables Web ne peuvent pas apporter certaines des caractéristiques électriques et des exigences du schéma de principe à la conception de PCB et ne conviennent donc pas à la conception à grande vitesse. »
En plus du câblage automatique, la conception parallèle est également un moyen efficace d'améliorer l'efficacité de la conception de grands systèmes. La conception parallèle est la conception collaborative, ce qui signifie que la carte est divisée en plusieurs parties et que plusieurs personnes conçoivent simultanément. Yulif a déclaré que l'outil mentor Graphics actuel est déjà disponible pour la conception parallèle. Si vous enregistrez la conception sur une machine, une autre machine peut la voir immédiatement et les lignes des deux côtés peuvent être automatiquement connectées ensemble. Les tâches d'intégration entre les différentes conceptions peuvent être allégées. « d’ici la fin de l’année, extremepcb, l’outil de conception parallèle entièrement dynamique de mentor Graphics, sera disponible sur le marché. Les ingénieurs pourront alors concevoir en parallèle en temps réel comme s’ils jouaient à CS sur le Web. Se faire voir en temps réel par l’autre peut faciliter la collaboration entre ingénieurs de différents endroits. » pour La conception parallèle, il faut non seulement de bons outils de conception, mais aussi de bonnes méthodes de conception. La conception parallèle ne doit pas être trop segmentée ou trop large. Deux ou trois personnes sont plus rationnelles, sinon la pensée est trop fragmentée et pas propice au design.
Au - delà des PCB: considérations au niveau du système pour les problèmes de vitesse élevée
Lorsque le système évolue de plusieurs centaines à plusieurs dizaines de mégaoctets, la conception de la puce, la conception de l'emballage et la conception du système ne peuvent plus être considérées séparément. Pour les produits haut de gamme, la conception de l'emballage et la conception du système doivent être prises en compte lors de la conception de la puce.
Après avoir résolu les problèmes avec le logiciel lui - même, comment simplifier le processus et réduire les erreurs des ingénieurs dans le processus, permettant aux ingénieurs de consacrer plus d'efforts à la conception, de mettre le produit sur le marché le plus rapidement possible, devient également quelque chose que les fabricants d'EDA envisagent.
Typiquement, les fils de connexion sur le système commencent par les E / s de la puce (silicium), traversent les Plots et le substrat du boîtier, atteignent les broches du boîtier, puis traversent le PCB pour atteindre les broches, le substrat, les Plots et les broches d'un autre boîtier. Les puces I / O, les boîtiers et les cartes sont trois domaines distincts. Les ingénieurs précédents ne les ont pas entièrement pris en compte lors de la conception et ne savaient pas ce que les autres ingénieurs pensaient. Cependant, à mesure que la fréquence de conception augmente, que la surface de la puce diminue et que le cycle de conception diminue, les fabricants devraient tenir compte de la conception de l'emballage et de la conception du PCB lors de la conception de la puce afin de combiner efficacement les trois. « À ce stade, que ce soit du point de vue de l’intégrité du signal ou du cycle de conception, nous devrions considérer simultanément la conception des plaques d’encapsulation en silicium et harmoniser les relations entre elles. Par exemple, il peut parfois y avoir beaucoup de problèmes de synchronisation difficiles qui peuvent être facilement résolus dans l’encapsulation. »