Präzisions-Leiterplattenherstellung, Hochfrequenz-Leiterplatten, mehrschichtige Leiterplatten und Leiterplattenbestückung.
Leiterplattentechnisch

Leiterplattentechnisch - High-Speed- und High-Density-PCB-Design steht vor neuen Herausforderungen

Leiterplattentechnisch

Leiterplattentechnisch - High-Speed- und High-Density-PCB-Design steht vor neuen Herausforderungen

High-Speed- und High-Density-PCB-Design steht vor neuen Herausforderungen

2021-08-25
View:482
Author:IPCB

Mit der zunehmenden Komplexität und Leistung elektronischer Produkte nehmen die Dichte von Leiterplatten und die Häufigkeit ihrer verwandten Geräte ständig zu, und die verschiedenen Herausforderungen, denen Ingenieure beim Design von Hochgeschwindigkeits- und High-Density-Leiterplatten gegenüberstehen, nehmen ebenfalls zu. Neben den bekannten Problemen der Signalintegrität (SI) sollten die nächsten Hot Spots in der Hochgeschwindigkeits-Leiterplattentechnologie Power Integrity (PI), EMV/EMI und thermische Analyse sein.


Mit dem stetig zunehmenden Wettbewerb stehen Hersteller zunehmend unter Druck auf die Produkteinführungszeit. Wie man fortschrittliche EDA-Tools und optimierte Methoden und Prozesse einsetzt, um das Design mit hoher Qualität und Effizienz abzuschließen, ist ein Systemhersteller und Probleme, denen Konstrukteure begegnen müssen.


Hot Spot: Wechsel von Signalintegrität zu Stromintegrität


Wenn es um Hochgeschwindigkeitsdesign geht, denken die Leute zuerst an das Problem der Signalintegrität. Signalintegrität bezieht sich hauptsächlich auf die Qualität der Signalübertragung auf der Signalleitung. Wenn das Signal in der Schaltung den Empfangschippin mit der erforderlichen Timing-, Dauer- und Spannungsamplitude erreichen kann, hat die Schaltung eine gute Signalintegrität. Wenn das Signal nicht normal reagieren kann oder die Signalqualität das System für eine lange Zeit nicht stabil arbeiten lässt, gibt es Signalintegritätsprobleme. Die Signalintegrität manifestiert sich hauptsächlich in mehreren Aspekten wie Verzögerung, Reflexion, Übersprechen, Timing und Oszillation. Es wird allgemein angenommen, dass, wenn das System bei 50MHz arbeitet, Signalintegritätsprobleme auftreten, und wenn die System- und Gerätefrequenzen weiter steigen, die Signalintegritätsprobleme prominenter werden. Die Parameter der Komponenten und der Leiterplatte, das Layout der Komponenten auf der Leiterplatte und die Verdrahtung von Hochgeschwindigkeitssignalen können Signalintegritätsprobleme verursachen, was zu einem instabilen Betrieb des Systems oder sogar zum Ausfall des normalen Betriebs führt.


Nach Jahrzehnten der Entwicklung der Signalintegritätstechnologie sind ihre Theorie und Analysemethoden ausgereifter geworden. Bezüglich der Signalintegrität ist die Signalintegrität niemandes Problem. Es umfasst jedes Glied in der Designkette. Nicht nur Systementwickler, Hardware-Ingenieure und PCB-Ingenieure müssen es berücksichtigen, aber es kann nicht einmal während der Herstellung ignoriert werden. Um das Problem der Signalintegrität zu lösen, müssen wir uns auf fortschrittliche Simulationswerkzeuge verlassen.


Bezüglich der Signalintegrität ist die Leistungsintegrität eine relativ neue Technologie und gilt als eine der größten Herausforderungen im Hochgeschwindigkeits- und High-Density-PCB-Design. Leistungsintegrität bedeutet, dass in einem Hochgeschwindigkeitssystem das PDS-Leistungsversorgungssystem unterschiedliche Impedanzeigenschaften bei verschiedenen Frequenzen aufweist, so dass die Spannung zwischen der Leistungsschicht und der Masseschicht auf der Leiterplatte nicht überall gleich ist. Infolgedessen ist die Stromversorgung diskontinuierlich, es wird Stromrauschen erzeugt, und der Chip kann nicht normal arbeiten; Gleichzeitig führen Probleme mit der Netzintegrität aufgrund hochfrequenter Strahlung auch zu EMV/EMI-Problemen. Wenn das Problem der Netzintegrität nicht gut gelöst werden kann, wird es den normalen Betrieb des Systems ernsthaft beeinträchtigen.


Im Allgemeinen wird das Problem der Leistungsintegrität hauptsächlich durch zwei Ansätze gelöst: Optimierung des Stack-Designs und Layouts der Leiterplatte und Hinzufügen von Entkopplungskondensatoren. Wenn die Systemfrequenz kleiner als 300,400MHz ist, kann der Entkopplungskondensator eine Rolle bei der Unterdrückung von Frequenz, Filterung und Impedanzsteuerung spielen. Die Platzierung eines geeigneten Entkopplungskondensators in der richtigen Position hilft, das Problem der Systemstromintegrität zu reduzieren. Aber wenn die Systemfrequenz höher ist, ist die Wirkung des Entkopplungskondensators gering. In diesem Fall kann nur durch die Optimierung des Schichtabstandsentwurfs und des Layouts der Leiterplatte oder anderer Methoden zur Verringerung von Leistung und Erdgeräuschen (wie z. B. angemessener Abgleich, um das Reflexionsproblem des Kraftübertragungssystems zu reduzieren) das Problem der Leistungsintegrität lösen und gleichzeitig EMV/EMI unterdrücken.


Bezüglich der Beziehung zwischen Signalintegrität und Leistungsintegrität, “Signalintegrität ist ein Konzept im Zeitbereich und ist leichter zu verstehen, während Leistungsintegrität ein Konzept im Frequenzbereich ist, das schwieriger ist als Signalintegrität, aber in gewisser Hinsicht Ähnlichkeiten mit Signalintegrität aufweist. Leistungsintegrität erfordert höhere Fähigkeiten für Ingenieure und stellt eine neue Herausforderung für Hochgeschwindigkeitsdesign dar. Es betrifft nicht nur die Platinenebene, sondern auch die Chip- und Paketebene. Es wird empfohlen, High-Speed-Leiterplatten-Design-Ingenieure die Leistungsintegrität auf der Grundlage der Lösung der Signalintegrität zu tun. ".


"Weichen" Sie Ihr Design durch Simulation


Simulation ist ein Test eines virtuellen Prototypen, der alle Aspekte berücksichtigt. Da das Design immer komplexer wird, ist es für Ingenieure unmöglich, jedes Schema umzusetzen. Derzeit können sie nur fortgeschrittene Simulationen anstelle von Experimenten verwenden, um Urteile zu fällen.


Im heutigen Systemdesign ist die Simulation neben den Herausforderungen durch Hochgeschwindigkeits- und High-Density-Leiterplatten aufgrund des Drucks schneller Produkteinführungen ein unverzichtbares Mittel für das Systemdesign. Der Designer hofft, fortschrittliche Simulationswerkzeuge zu verwenden, um Probleme in der Entwurfsphase zu finden, um das Systemdesign mit hoher Effizienz und hoher Qualität abzuschließen.


Im traditionellen Leiterplattendesign greifen Ingenieure selten auf Simulation zurück. Häufiger verwendet es Referenzdesigns und Designrichtlinien (d.h. White Paper), die von vorgelagerten Chipherstellern bereitgestellt werden, um in Kombination mit der tatsächlichen Erfahrung der Ingenieure zu entwerfen und dann die Prototypen zu testen, die durch das Design produziert werden, um Probleme herauszufinden und das Design zu modifizieren. Das geht immer und immer wieder, bis das Problem grundsätzlich gelöst ist. Auch wenn das Simulationswerkzeug gelegentlich zur Auslegung verwendet wird, beschränkt es sich nur auf den Teilkreis. Eine Änderung der Schaltung bedeutet eine Verzögerung in der Zeit. Diese Verzögerung ist unter dem Druck rascher Produkteinführungen inakzeptabel. Gerade bei großen Systemen kann eine kleine Änderung dazu führen, dass das gesamte Design umgekippt wird. Der Verlust, den es den Herstellern bringt, ist unermesslich.


Die Produktqualität ist schwer zu garantieren, der Entwicklungszyklus ist unkontrollierbar, und die übermäßige Abhängigkeit von der Erfahrung der Ingenieure... Diese Faktoren erschweren es den oben genannten Designmethoden, die Herausforderungen zu bewältigen, die durch das zunehmend komplexe High-Speed- und High-Density-PCB-Design mit sich bringt, so dass fortschrittliche Simulationen verwendet werden müssen. Werkzeuge, um es zu lösen. "Die Entwurfsschemata der vorgelagerten Chiphersteller basieren auf eigenen Prototypen, und die Produkte der Systemhersteller können nicht exakt mit denen der vorgelagerten Hersteller übereinstimmen; gleichzeitig können die Konstruktionsanforderungen eines Chips im Widerspruch zum anderen stehen. Es muss simuliert werden, um den Konstruktionsplan zu bestimmen.".

ATL

In gewissem Sinne soll die Simulation Software ermöglichen, die Funktionsbewertung des virtuellen Prototyps abzuschließen, die nur durch Testen des physischen Prototyps abgeschlossen werden kann. Es ist eine "weichere" und wirtschaftlichere Lösung.


Die Simulation von High-Speed- und High-Density-Leiterplatten unterscheidet sich jedoch von der traditionellen Simulation. Mentor Graphics Technical Engineer Yulifu sagte: "Traditionelle Simulation wird für Schaltpläne durchgeführt. Sie fügt lediglich Anreize hinzu und schaut auf die Ausgabe, um festzustellen, ob die Funktion korrekt ist; während Hochgeschwindigkeitssimulation auf der Prämisse basiert, dass die Funktion korrekt ist, abhängig vom Design. Was ist die Leistung? Es ist nicht nur für das Schaltplan, sondern auch für das PCB-Design.


Um ein Gleichgewicht zwischen Planung und Systemkosten zu finden. Yulifu sagte: "Mithilfe von Simulationswerkzeugen können Sie beurteilen, ob die Richtung der Systemverbesserung korrekt ist, die Richtung für das Design aufzeigen, die Erfolgsrate der ersten Platine erhöhen und das Produkt schneller auf den Markt bringen. Egal, wie nah das Simulationsergebnis dem Testergebnis ist, es kann das tatsächliche Testsystem nicht ersetzen."


Testen ist ein wahres Urteil über die Systemleistung, das alle realen Umweltfaktoren umfasst. Simulation ist jedoch ein "Test" virtueller Prototypen. Es zielt auf bestimmte spezifische Bedingungen ab. Es gibt kein Tool, das alle realen Bedingungen gleichzeitig berücksichtigen kann. Simulation. Mit der Entwicklung der Technologie und der kontinuierlichen Verbesserung der Werkzeuge wird jedoch die Annäherung von Simulationsergebnissen und tatsächlichen Testergebnissen immer höher, und die leitende Bedeutung für den Entwurf nimmt ebenfalls zu, aber gleichzeitig werden höhere Anforderungen an Ingenieure gestellt. – Obwohl die Werkzeuge einfacher zu bedienen sind, hängen die Beurteilungs- und Verbesserungsmethoden der Simulationsergebnisse alle vom technischen Niveau und der theoretischen Grundlage des Ingenieurs ab.


Derzeit ist in der Hochgeschwindigkeits-PCB-Simulation der unbefriedigendste Effekt EMV/EMI. Denn bei Hochgeschwindigkeitssystemen ist aufgrund des Einflusses des Via-Effekts eine dreidimensionale Modellierung des Systems erforderlich, um die reale Umgebung effektiv zu simulieren. Für ein großes und komplexes System wie PCB ist es jedoch sehr schwierig, es in drei Dimensionen zu modellieren. Laut Yulifu wird derzeit hauptsächlich die Methode der Experteninspektion angenommen, die EMV/EMI-Fragen in Layout- und Verdrahtungsregeln für Leiterplatten in Übereinstimmung mit internationalen allgemeinen Standards umwandelt.


Darüber hinaus können Unternehmen wie Ansoft und Apsim spezielle Werkzeuge und Methoden bereitstellen, die in Verbindung mit den Systemtools Cadence und Mentor Graphics eingesetzt werden können.


Die Wahl der Effizienz: automatisches Routing und paralleles Design


Bei der Schaltplanerstellung geht es nicht nur darum, den Schaltkreis einzuzeichnen, sondern auch um viele andere Anforderungen. Schematische Entwurfswerkzeuge sollten in der Lage sein, diese Anforderungen auf den nächsten Schritt zu bringen und automatische Routing, Funktionssimulation usw. zu unterstützen.


Um einen effizienteren Designpfad zu finden, den Zeitdruck der Produkteinführung zu lösen und das Produkt schnell auf den Markt zu bringen, entstanden automatische Verdrahtung und gleichzeitige Designtechnologie.


"Wenn Sie die automatische Routing-Technologie gut nutzen können, können Sie die Zeichnungszeit reduzieren und die Entwurfseffizienz von Leiterplatten mehr als verdoppeln." Wenn Sie jedoch ein automatisches Routing realisieren möchten, müssen Sie den elektrifizierten Regelmanager verwenden, um Systemkonstrukteure und Hardware-Design-Ingenieure zu integrieren. Die Konstruktionsanforderungen für die Schaltung werden an den PCB-Ingenieur weitergegeben.


Für frühe einfachere Systeme ist die übliche Praxis, dass Hardware-Ingenieure die Konstruktionsanforderungen einzeln aufschreiben und dem PCB-Design-Ingenieur sagen, wie es zu tun ist. Aber für komplexe Systeme, die mit Tausenden von Verbindungen und unzähligen Anforderungen konfrontiert sind, können Hardware-Ingenieure diese Regeln nicht einzeln aufzeichnen und PCB-Design-Ingenieure können sie nicht einzeln überprüfen und implementieren. Zu diesem Zeitpunkt wird ein elektrifizierter Regelmanager benötigt, um verschiedene Designanforderungen zu verwalten. Hardware-Ingenieure und PCB-Design-Ingenieure können auf der Grundlage desselben Regelmanagers zusammenarbeiten.


Für automatische Verdrahtungstechnik: "Wenn ein Unternehmen die Technologie nicht gut beherrscht und das Problem der Signalintegrität nicht gut gelöst werden kann, wird empfohlen, keine automatische Verdrahtung zu verwenden. Denn wenn Sie keine guten Regeln definieren können, werden Sie nicht in der Lage sein, automatische Verdrahtung richtig zu fahren." Egal, wie entwickelt die Werkzeuge sind, der Computer kann das menschliche Gehirn Verhalten nicht vollständig ersetzen, so dass es unmöglich ist, 100% automatische Verdrahtung zu haben. Die automatische Verdrahtung, die wir oben erwähnt haben, ist tatsächlich eine Art interaktives automatisches Routing, das menschliche Beteiligung erfordert: einige Regeln vor automatischem Routing müssen weiter manuell festgelegt werden; Nachdem das automatische Routing abgeschlossen ist, muss es von einem Ingenieur überprüft und geändert werden.


Für das traditionelle, relativ langsame Systemdesign können viele Ingenieure solche Erfahrung haben, indem sie Cadences OrCAD zum Zeichnen von Schaltplänen verwenden und dann Mentors PowerPCB für das Layout verwenden. Aber diese Methode ist im Bereich der Hochgeschwindigkeitsdesign nicht mehr geeignet. "Daten können nicht vollständig zwischen Werkzeugen verschiedener Hersteller konvertiert werden. Beispielsweise kann die herkömmliche Methode des Lesens von Netzlisten einige elektrische Eigenschaften und Anforderungen im Schaltplan nicht in das PCB-Design bringen und ist daher nicht für High-Speed-Design geeignet."


Neben der automatischen Verdrahtung ist das parallele Design auch eine effektive Möglichkeit, die Konstruktionseffizienz großer Systeme zu verbessern. Concurrent Design ist kollaboratives Design, was bedeutet, dass eine Leiterplatte in mehrere Teile unterteilt ist und mehrere Personen gleichzeitig entwerfen. Laut Yulif können die aktuellen Mentor Graphics Tools bereits im Paralleldesign eingesetzt werden. Wenn Sie das Design auf einer Maschine speichern, kann die andere Maschine es sofort sehen und die Linien auf beiden Seiten können automatisch miteinander verbunden werden. Kann die Aufgabe der Integration zwischen verschiedenen Designs erleichtern. Yulif sagte: "Bis Ende dieses Jahres wird Mentor Graphics' voll dynamisches paralleles Design Tool extremePCB auf dem Markt verfügbar sein. Zu dieser Zeit werden Ingenieure in der Lage sein, vollständig in Echtzeit paralleles Design durchzuführen, genau wie CS in einem Netzwerk zu spielen. Von der anderen Partei in Echtzeit gesehen zu werden, kann die Zusammenarbeit zwischen Ingenieuren an verschiedenen Orten erleichtern." Für das gleichzeitige Design erfordert es nicht nur gute Design-Tools, sondern auch gute Design-Methoden. Gleichzeitiges Design sollte nicht zu fein oder zu breit unterteilt werden. Zwei oder drei Personen sind vernünftiger, sonst sind die Ideen zu zerstreut, was dem Design nicht förderlich ist.


Jenseits der Leiterplatte: Überlegungen auf Systemebene für Hochgeschwindigkeitsprobleme


Wenn sich das System von Hunderten von Megabytes auf Dutzende von Gigabyte entwickelt, können Chipdesign, Verpackungsdesign und Systemdesign nicht mehr getrennt betrachtet werden. Bei High-End-Produkten sollten Verpackungsdesign und Systemdesign bei der Entwicklung von Chips berücksichtigt werden.


Nach der Beseitigung der Probleme der Software selbst, wie man den Prozess rationalisiert, den Fehler des Ingenieurs aus dem Prozess reduziert und dem Ingenieur ermöglicht, mehr Energie für das Design zu verwenden, damit das Produkt so schnell wie möglich auf den Markt kommt, ist auch der Inhalt geworden, den EDA-Hersteller in Betracht ziehen.


Im Allgemeinen beginnt die Verbindungsleitung auf einem System von der I/O des Chips (Silizium), geht durch die Beule und das Substrat des Pakets, erreicht den Pin des Pakets und führt dann durch die Leiterplatte zum Pin, Substrat, Bump und Pin eines anderen Pakets. Chip I/O. Chips, Verpackung und Leiterplatten sind drei verschiedene Bereiche. Frühere Ingenieure würden sie beim Entwerfen nicht umfassend berücksichtigen, noch konnten sie die Ideen anderer Ingenieure kennen. Mit zunehmender Designfrequenz nimmt jedoch der Chipbereich ab und der Designzyklus verkürzt sich. Hersteller sollten Verpackungsdesign und PCB-Design beim Entwurf von Chips berücksichtigen, damit die drei effektiv kombiniert werden können. "Zu diesem Zeitpunkt, unabhängig von der Perspektive der Signalintegrität oder des Entwurfszyklus, sollten wir das Design des Silicon-Package-Boards zur gleichen Zeit betrachten und die Beziehung zwischen ihnen koordinieren.