Arbeitsgebiet Schaltungen der Informationsverarbeitung
Permanent URI for this collection
Browse
Recent Submissions
Item Super-Resolution Algorithmen für eine leistungsfähige Videosignalverarbeitung(2012-06-22) Richter, Martin Max; Schröder, Hartmut; Blume, HolgerHeutige Endgeräte müssen durch die große Formatvielfalt und verschiedenen Zuspielquellen Eingangsmaterial mit stark variierendem Störungsgrad und unterschiedlicher Auflösung verarbeiten können. Um dem Betrachter für all diese Quellen eine möglichst gute Bildqualität zu liefern, wird eine hochwertige, an das Bildmaterial gut anpassbare Videosignalverarbeitung benötigt. Sehr vielversprechend für diese Aufgabe sind iterative Rekonstruktionsalgorithmen, die bereits in anderen Bereichen wie dem maschinellen Sehen erfolgreich eingesetzt werden. Diese Algorithmen zeichnen sich durch eine zur Laufzeit ausgeführte Optimierung der Bildqualität unter der Verwendung von Bildmodellen aus. Jedoch sind diese Verfahren bisher in ihrer Anwendung begrenzt, da für eine Verarbeitung ohne Seiteneffekte die internen Modelle erfüllt sein müssen und durch den meist hohen Speicher- und Rechenaufwand relativ hohe Hardwarekosten entstehen. In der vorliegenden Arbeit wird die Eignung dieser Verfahren für eine leistungsfähige Videosignalverarbeitung untersucht. Basierend auf den dort geltenden Anforderungen wird ein Entwurfskonzept für iterative Algorithmen erarbeitet, das die oben genannten Nachteile weitestgehend vermeidet sowie starke Verbesserungen der Algorithmen selbst ermöglicht. Dieses Konzept erlaubt die Beschreibung der Algorithmen als rekursive Filter, was zu einer Speicher- und Rechenaufwandsreduktion und darüber hinaus zu einer anschaulichen Interpretation führt. Die (interne) Verwendung einer Merkmalsanalyse und die Verbesserung einzelner Bausteine in den Algorithmen ermöglicht weiterhin die Anpassung an reales Videomaterial. Schwerpunkt der Untersuchungen bildet die Auflösungserhöhung durch Super-Resolution, welche ein aktuelles Forschungsthema darstellt und inzwischen auch in ersten Endgeräten eingesetzt wird. Mit Hilfe des Entwicklungskonzepts wurden zwei Algorithmen entwickelt, wobei der eine sehr aufwandgünstig ist und der andere auf die bestmögliche Qualität abzielt, dafür allerdings aufwändiger ist. Damit stehen je nach verfügbaren Ressourcen zwei Verfahren bereit, die durch eine Anpassung der internen Parameter bezüglich des Aufwandes noch gut skaliert werden können. Darüber hinaus wird gezeigt, wie die so entstandenen Algorithmen mit einer bildinhaltsabhängigen Signalverarbeitung kombiniert werden können, um die Flexibilität und ihr Einsatzgebiet weiter zu erhöhen. Als Erweiterung lässt sich daraus dann eine bildqualitätsgesteuerte Verarbeitung realisieren. Den Abschluss bildet eine Bewertung der Verfahren in Bezug auf die erreichbare Bildqualität unter objektiven und subjektiven Gesichtspunkten, welche einen Rückschluss auf ihre Einsatzmöglichkeiten erlauben.Item Exploration of the scalability of SIMD processing for software defined radio(2011-03-24) Westermann, Peter; Schröder, Hartmut; Blume, HolgerThe idea of software defined radio (SDR) describes a signal processing system for wireless communications that allows performing major parts of the physical layer processing in software. SDR systems are more flexible and have lower development costs than traditional systems based on application-specific integrated circuits (ASICs). Yet, SDR requires programmable processor architectures that can meet the throughput and energy efficiency requirements of current third generation (3G) and future fourth generation (4G) wireless standards for mobile devices. Single instruction, multiple data (SIMD) processors operate on long data vectors in parallel data lanes and can achieve a good ratio of computing power to energy consumption. Hence, SIMD processors could be the basis of future SDR systems. Yet, SIMD processors only achieve a high efficiency if all parallel data lanes can be utilized. This thesis investigates the scalability of SIMD processing for algorithms required in 4G wireless systems; i. e. the scaling of performance and energy consumption with increasing SIMD vector lengths is explored. The basis of the exploration is a scalable SIMD processor architecture, which also supports long instruction word (LIW) execution and can be configured with four different permutation networks for vector element permutations. Radix-2 and mixed-radix fast Fourier transform (FFT) algorithms, sphere decoding for multiple input, multiple output (MIMO) systems, and the decoding of quasi-cyclic lowdensity parity check (LDPC) codes have been examined, as these are key algorithms for 4G wireless systems. The results show that the performance of all algorithms scales with the SIMD vector length, yet there are different constraints on the ratios between algorithm and architecture parameters. The radix-2 FFT algorithm allows close to linear speedups if the FFT size is at least twice the SIMD vector length, the mixed-radix FFT algorithm requires the FFT size to be a multiple of the squared SIMD width. The performance of the implemented sphere decoding algorithm scales linearly with the SIMD vector length. The scalability of LDPC decoding is determined by the expansion factor of the quasicyclic code. Wider SIMD processors offer better performance and also require less energy than processors with a shorter vector length for all considered algorithms. The results for different permutations networks show that a simple permutation network is sufficient for most applications.Item Klassifikationsbasierte Polyphasen-Bildinterpolation(2010-01-19T10:43:41Z) Lenke, Sebastian; Schröder, H.; Rothermel, A.Durch die gestiegene Verbreitung von hochauflösenden und großformatigen Displays im Consumerbereich und der zur Zeit noch sehr geringen Verbreitung von hochauflösendem Eingangsmaterial sowie der Notwendigkeit, unterschiedlichste Bildformate und -qualitäten verarbeiten zu müssen, steigt der Anspruch an qualitativ hochwertigen Interpolationsverfahren. Bisher werden hauptsächlich lineare nichtadaptive Verfahren im Consumerbereich eingesetzt, da zum einen der Aufwand sehr gering ist, und zum anderen die Erzeugung von Artefakten sehr gut vermieden wird. Nichtlineare adaptive Verfahren ermöglichen zwar in vielen Fällen eine gestiegene Interpolationsqualität, tendieren jedoch zur Erzeugung von Interpolationsartefakten und benötigen zumeist einen erhöhten Realisierungsaufwand. In dieser Arbeit werden zwei inhaltsadaptive örtliche Interpolationsverfahren vorgestellt, welche durch eine einfache lokale Klassifikation jeweils Filterkoeffizienten verwenden, die für die vorliegende Bildsituation optimal sind. Das eine Verfahren benötigt für jede Interpolationsphase einen optimierten Datensatz, wohingegen das zweite Verfahren durch ein einmaliges Training optimierte Polynome für beliebige Interpolationsfaktoren beinhaltet. Zur weiteren Optimierung werden aus Bildqualitätsforderungen Nebenbedingungen abgeleitet und diese in den Trainingsprozess beider Verfahren integriert. Die vorgeschlagenen Verfahren erreichen eine sehr hohe Interpolationsgüte und sind durch die einfache Klassifikation und das Vorhalten bereits optimierter Lösungen sehr aufwandsgünstig. Abschließend wird dargestellt, wie diese Struktur auch für eine bewegungsfehleradaptive Zwischenbildinterpolation gewinnbringend eingesetzt werden kann. Mit Hilfe einer Klassifikation des Bewegungsschätzungsfehlers und des Bildinhaltes können einfache lineare Filter benutzt werden, die den Fehler kompensieren, und so selbst der Erhalt feinster Details möglich ist.Item Objektive Bewertung von Deblocking-Verfahren(2008-11-26T14:03:32Z) Piastowski, Patrick René Steve; Schröder, Hartmut; Kaup, AndréItem Modellbasierte Effizienzanalyse grobgranularer rekonfigurierbarer Prozessorarchitekturen(2007-11-15T13:10:00Z) Lange, Hendrik; Schröder, H.; Fiedler, H.Die vorliegende Arbeit befasst sich mit Analysemethoden für grobgranulare rekonfigurierbare Prozessorarchitekturen. Es wird ein modellbasiertes Verfahren vorgestellt, mit dessen Hilfe derartige Hardwarestrukturen auf einfache Weise bezüglich ihres Flächenbedarfs, der Datenrate und des Energieverbrauchs charakterisiert werden können. Weiterhin werden Untersuchungsergebnisse dargestellt, die einen Vergleich grobgranularer Architekturen mit anderen Implementierungsformen ermöglichen. Field-Programmable Gate-Arrays (FPGAs) stellen aufgrund der Rekonfigurierbarkeit auf Bitebene flexible Bausteine mit hoher Verarbeitungsgeschwindigkeit dar, allerdings auf Kosten eines enormen Flächenoverheads und hohen Energieverbrauches. Demgegenüber enthalten grobgranulare Architekturen komplexere, anwendungsspezifisch optimierte Datenpfade, die eine Rekonfigurierbarkeit auf Wortebene gestatten. Es ist ein parametrisierbares Modell für eine grobgranulare rekonfigurierbare Architektur entwickelt worden. Angenommen wird ein zweidimensionales Feld, dessen Basiszellen über lokale Datenleitungen, sowie über segmentierbare Busse miteinander kommunizieren können. Weiterhin sind auf lineare Algorithmen hin optimierte Prozessorelemente unterschiedlicher Komplexität entwickelt worden. Anhand von physikalischen Modellen zur Ermittlung des Flächenbedarfs, der maximalen Taktfrequenz und des Energieverbrauches werden die VLSI-Eigenschaften der Modelle abgeschätzt, und denen von FPGAs, DSPs und Semi-Custom-Entwürfen gegenübergestellt. Die Ergebnisse zeigen, dass grobgranulare Architekturen im Vergleich zu FPGAs je nach Implementierung eine 7 bis 20 mal höhere Flächen- und Energieeffizienz aufweisen. Die Datenrate beider Varianten liegt dabei etwa in der gleichen Größenordnung. Bei Abbildung von Algorithmen, für welche die grobgranularen Datenpfade nicht optimiert wurden, sinkt die Effizienz dagegen erwartungsgemäß deutlich ab.