Frage 1: Diese CPU mit einer Frequenz von 100M kann nur 70%, verarbeiten und es ist in Ordnung, wenn Sie auf eine CPU mit einer Frequenz von 200M wechseln.
Bewertung: Die Verarbeitungskapazität des Systems beinhaltet eine Vielzahl von Faktoren. Im Kommunikationsgeschäft, der Engpass ist im Allgemeinen im Speicher. Egal wie schnell die CPU ist, Es ist sinnlos, dass der externe Zugriff nicht aufstehen kann.
Frage 2: Wenn die CPU eine größere CACHE verwendet, sollte sie schneller sein
Kommentar: Der Anstieg von CACHE führt nicht zwangsläufig zur Verbesserung der Systemleistung. In einigen Fällen ist das Schließen von CACHE schneller als das Verwenden von CACHE. Der Grund dafür ist, dass die in CACHE verschobenen Daten mehrfach wiederverwendet werden müssen, um die Systemeffizienz zu verbessern. Daher wird im Kommunikationssystem in der Regel nur die Anweisung CACHE geöffnet. Auch wenn der Daten-CACHE geöffnet wird, ist er nur auf einen Teil des Speicherplatzes beschränkt, wie z.B. den Stack-Teil. Gleichzeitig ist bei der Programmgestaltung auch die Kapazität und Blockgröße des CACHE zu berücksichtigen, was die Länge des Schlüsselcodeschleifenkörpers und den Sprungbereich betrifft. Wenn eine Schleife nur ein wenig größer als die CACHE ist und die Schleife wiederholt wird, wird es miserabel sein.
Frage 3: Verwenden so viele Aufgaben Interrupts oder Abfragen? Oder sollen sie schneller unterbrechen?
Kommentar: Die Unterbrechung erfolgt in Echtzeit, aber nicht unbedingt schnell. Wenn es zu viele unterbrochene Aufgaben gibt, wird diese nicht beendet, und dann kommt eine nach der underen, und das System stürzt in einer Weile ab. Wenn die Anzahl der Aufgaben groß, aber sehr häufig ist, wird viel CPU-Energie für den Overhead von Ein- und Ausgang des Interrupts ausgegeben, und die Systemeffizienz ist extrem niedrig. Wenn Sie in den Abfragemodus wechseln, kann die Effizienz erheblich verbessert werden, aber die Abfrage kann manchmal die Echtzeitanforderungen nicht erfüllen, so dass der beste Weg ist, in der Interrupt abzufragen, das heißt, nach Eingabe eines Interrupts werden alle kumulierten Aufgaben verarbeitet und dann beendet.
Frage 4: Das Timing der Speicherschnittstelle ist die werkseitige Standardkonfiguration, und es besteht keine Notwendigkeit, sie zu ändern
Kommentar: Die Standardwerte der BSP-Einstellungen für die Speicherschnittstelle werden alle nach den konservativsten Parametern gesetzt. In realen Anwendungen sollten Busbetriebshäufigkeit und Wartezeit mit Parametern für eine sinnvolle Bereitstellung kombiniert werden. Manchmal kann die Verringerung der Frequenz die Effizienz verbessern. Zum Beispiel, wenn der RAM-Zugriffszyklus 70ns und die Busfrequenz 40M ist, stellen Sie die Zugriffszeit von 3-Zyklen, das heißt 75ns, ein; Wenn die Busfrequenz 50M ist, muss sie auf 4-Zyklus eingestellt werden, die tatsächliche Zugriffszeit hat sich auf 80ns verlangsamt.
Frage 5: Wenn eine CPU damit nicht umgehen kann, verwenden Sie einfach zwei verteilte Prozessoren, und die Rechenleistung kann verdoppelt werden
Kommentar: Für das Bewegen von Ziegeln sollten zwei Personen doppelt so effizient sein wie eine; Zum Malen kann nur eine weitere Person helfen. Wie viele CPUs verwendet werden sollen, kann erst ermittelt werden, wenn man mehr Kenntnisse über das Geschäft hat. Versuchen Sie, die Kosten für die Koordination zwischen den beiden CPUs zu reduzieren, und machen Sie 1+1 so nah wie möglich an 2 und nie weniger als 1.
Frage 6: Diese CPU hat ein DMA-Modul, es muss schneller sein, um Daten zu verschieben
Kommentar: Die eigentliche DMA besteht darin, beide Geräte gleichzeitig zu starten, nachdem die Hardware den Bus vorprogrammiert hat, und hier und da in einem Zyklus zu lesen. Viele DMAs, die in die CPU eingebettet sind, sind jedoch nur Simulationen. Vor Beginn jeder DMA muss eine Menge Vorbereitungsarbeiten (Startadresse und Länge festlegen, etc.) durchgeführt werden. Während der Übertragung wird oft zuerst die temporäre Speicherung im Chip ausgelesen und dann ausgeschrieben. Das heißt, es dauert zwei Taktzyklen, um die Daten einmal zu verschieben, was schneller ist als die Software zu bewegen (kein Befehlsabholen, keine zusätzliche Arbeit wie Schleifensprünge), aber wenn Sie nur ein paar Bytes auf einmal bewegen, müssen Sie noch viel vorbereitende Arbeit tun. Generell geht es auch um Funktionsaufrufe, was nicht effizient ist. Daher ist diese DMA nur für große Datenblöcke anwendbar.
Das obige ist eine Einführung in die Bewertung und Analyse gängiger Probleme der Systemeffizienz in PCB-Design. Ipcb wird auch für Leiterplattenhersteller and Leiterplattenherstellung t Technologie.