Das vorliegende Buch ist als Skript zu einer Vorlesungsreihe über Hochfrequenztechnik entstanden. Es stellt grundlegende Aspekte der Hochfrequenztechnik dar und erweitert dabei schrittweise und aufeinander aufbauend den Umfang des Stoffes. Die Erläuterungen sind absichtlich kurz gehalten, auf Fülltext wird weitestgehend ganz verzichtet. Demgegenüber sind die Herleitungen ausführlich und dadurch nachvollziehbar. Das Buch ordnet sich ins einem Umfang und seinem Stil zwischen einem Lehrbuch und einer Sammlung ein und ist ausdrücklich als Gerüst und Begleitwerk für die studentische Ausbildung gedacht. Das Buch ist in vier Teile gegliedert, die zwar aufeinander aufbauen, aber zum Teil unterschiedliche Betrachtungsweisen erfordern. Im ersten Teil wird auf Felder und Wellen als Grundlagen jeglicher Wellenausbreitung inklusive der entlang von Leitungen eingegangen. Im zweiten Teil werden hochfrequenztechnische Aspekte von Zweipolen betrachtet, insbesondere der Bedeutung des Reflexionsfaktors und die Arbeit mit dem Smith-Diagramm. Im dritten Teil werden die zuvor betrachteten Komponenten zu Netzwerken verknüpft. Dabei werden Mehrtore und deren Beschreibung durch Streumatrizen betrachtet. Der vierte Teil geht detaillierter, dabei aber nur punktuell Hochfrequenzschaltungstechnik und Übertragungssysteme ein.
Holger Nobach Livres




Die statistische Analyse stochastischer Prozesse ist, mit dem Ziel, Korrelationsfunktionen und Leistungsdichtespektren zu bestimmen, fest in der Hand der Fourier-Transformation. Doch sobald zeitlich lokalisierte Signale mit gewissen Modulationsfrequenzen auftreten, muss man mit der Frage rechnen, ob nicht evtl. auch die Wavelet-Transformation als Alternative verwendet werden könne, selbst wenn das vorhandene Verfahren bereits effizient und robust arbeitet. Das Problem der Bildrekonstruktion aus einem Verlust behaftet komprimierten Datenstrom ist ein sehr aktuelles Beispiel für die Anwendung der Wavelet- Transformation, die bei gleichem Datenaufkommen ein ansprechenderes Bild wiederzugeben vermag als z. B. die Kosinus-Transformation. Auch beim Verfolgen von zeitlich veränderlichen Modulationsfrequenzen ist die Wavelet-Transformation sehr verbreitet. Die sichtbaren Erfolge und die Anschaulichkeit der Wavelet-Transformation erwecken schnell den Eindruck eines idealen Universalwerkzeuges der Signalverarbeitung. Doch sind die schnellen Erfolge auch mit ausreichender Zuverlässigkeit und Präzision vereinbar? An ausgewählten Fallbeispielen der Signal- und Bildrekonstruktion sowie der statistischen Datenanalyse vorwiegend aus der optischen Strömungsmesstechnik treten die Wavelet-Transformation und weitere „moderne“ Kandidaten gegen ihre recht starren „klassischen“ Konkurrenten an. Im Mittelpunkt steht aber nicht der „schönste“ Kurvenverlauf, sondern der Erhalt der Information und der statistischen Eigenschaften. Dabei wird deutlich, dass sich hieraus ganz andere Anforderungen an die Rekonstruktion ergeben als eine „optisch“ ansprechende Kurve.
Dieses Buch ist eine Sammlung optischer Messeffekte, der daraus abgeleiteten Messverfahren sowie der nach diesen Verfahren arbeitenden Messgeräte. Es beginnt mit einfachen optischen Messinstrumenten, die mit alltäglichen Modellen der Optik zu erfassen sind. Schrittweise werden die physikalischen Grundlagen der Optik so eingeführt, wie sie für das Verständnis komplexerer Messsysteme notwendig sind. Dabei werden bestimmte Messprinzipien mehrfach, unter verschiedenen Aspekten und in verschiedenen Anwendungen betrachtet oder Messsysteme durch Ausnutzung weiterer Messeffekte erweitert. Der Aufbau des Buches ist deshalb vorwiegend als Lehrmaterial zur Einführung in die Thematik geeignet. Behandelt werden die Themen Meilensteine der Geschichte der Optik, Linsen, deren Matrixdarstellung und Raytracing an sphärischen Linsen, optische Geräte, Lochkamera, Triangulation, Bildsensoren, Scheimpflug-Anordnung, Streifen-projektion, Moiré-Verfahren, Koordinatentransformationen, Kamera-Kalibrierung, Positionsbestimmung und 3D-Formerfassung von Objekten, Autofokus, Photogrammetrie, Bewegungsmessung durch z. B. Bewegungsvisualisierung, Particle Tracking, Particle Image Velocimetry, Elektromagnetismus, das Brechungsgesetzt, Polarisation, Fresnel-Gleichungen, Doppelbrechung, Interferenz, Totalreflexion, Dichtemessung durch z. B. Shadowgraphy, Schlieren, Interferometer, Background Oriented Schlieren, Entfernungsmessung durch z. B. Interferometrie, Light Detection and Ranging, Intensitätsmodulation, Time-of-Flight-Kameras, Proflometer, Geschwindigkeitsmessung mittels Doppler-Verschiebung durch z. B. Vi-brometer, Doppler Global Velocimetry, Gauß-Strahl, Laser-2-Focus Anemometry, Laser Doppler Velocimetry. In drei Anhängen wird vertiefend auf die Subpixelgenauigkeit sowie die räumliche Auflösng der Particle Image Velocimetry und die Verarbeitung von stochastisch abgetasteten Messreihen der Laser Doppler Anemometry eingegangen.