Fourier-Reihen, Teil 4 – rein reelle Berechnung des Spektrums

Im letzten Teil haben wir uns überlegt, wie wir ein periodisches Signal s mit Periodendauer T als Projektion der Summe rotierender Zeiger schreiben können:

\displaystyle s(t) = \Im\left(\sum_{k=0}^\infty \underline{A}_k \cdot e^{\underline{i}k\omega_1t}\right) = \sum_{k=0}^\infty \Im\left(\underline{A}_k \cdot e^{\underline{i}k\omega_1t}\right) ,

wobei \omega_1 = \tau/T = 2\pi/T die Grundkreisfrequenz ist. Für die komplexen Amplituden haben wir

\underline{A}_k = \begin{cases} \displaystyle \frac{\underline{i}}{T} \int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \, \mathrm{d}t & \text{wenn } k = 0 \text{ ist}\\[3ex] \displaystyle \frac{2\underline{i}}{T} \int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot e^{-\underline{i}k\omega_1 t} \, \mathrm{d}t & \text{wenn } k > 0 \text{ ist}\end{cases}

erhalten. Die Integrationsgrenzen sind dabei beliebig, solange immer über genau eine Periodendauer T integriert wird.

Obwohl sich die Schönheit der rotierenden Zeiger nur in der komplexen Sichtweise zeigt, bevorzugen manche eine rein reelle Rechnung. Nicht zuletzt deshalb, weil die Fourier-Reihe in vielen Büchern so angegeben ist. Persönlich finde ich jedoch, dass die Sache dadurch nicht schöner wird.

Aus komplex wird reell

Für k > 0 können wir die komplexen Amplituden etwas ausführlicher schreiben:

\displaystyle\begin{aligned}\underline{A}_k &= \frac{2\underline{i}}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot e^{-\underline{i}k\omega_1t}\,\mathrm{d}t\\ &= \frac{2\underline{i}}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot \bigl(\cos(k\omega_1t) - \underline{i}\,\sin(k\omega_1t)\bigr) \, \mathrm{d}t\\ &= \underbrace{\frac{2}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot \sin(k\omega_1t) \, \mathrm{d}t}_{\displaystyle b_k}{{} + {}}\underline{i}\,\underbrace{\frac{2}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot \cos(k\omega_1t) \, \mathrm{d}t}_{\displaystyle a_k}\end{aligned}

wobei wir in der 2. Zeile die Eulersche Formel

e^{\pm\underline{i}\varphi} = \cos(\varphi) \pm \underline{i}\sin(\varphi)

und in der 3. Zeile \underline{i}^2 = -1 verwendet haben. Die komplexen Amplituden sind also die komplexen Zahlen \underline{A}_k = b_k + \underline{i}\,a_k. Die Vertauschung von a und b hat dabei historische Gründe.

Betrachten wir nun die einzelnen Summanden in unserer Reihe für s:

\displaystyle\begin{aligned}\Im\left(\underline{A}_k \cdot e^{\underline{i}k\omega_1t}\right)&=\Im\left[(b_k+\underline{i}\,a_k) \cdot \bigl(\cos(k\omega_1t) + \underline{i}\,\sin(k\omega_1t)\bigr)\right]\\ &=\Im\bigl[b_k\cos(k\omega_1t) - a_k\sin(k\omega_1t) \\ & \qquad + \underline{i}\bigl(a_k\cos(k\omega_1t) + b_k\sin(k\omega_1t)\bigr)\bigr]\\ &= a_k\cos(k\omega_1t) + b_k\sin(k\omega_1t) \, ,\end{aligned}

weil der Imaginärteil das ist, womit \underline{i} multipliziert wird.

Wie sieht es für k = 0 aus? Einerseits gilt

\displaystyle \Im\left(\underline{A}_0 \cdot e^{\underline{i}\,0\,\omega_1t}\right) = \Im(\underline{A}_0) = \frac{1}{T} \int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \, \mathrm{d}t ,

weil e^0 = 1 ist. Andererseits ist für k = 0

\displaystyle a_0 = \frac{2}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \, \mathrm{d}t ,

weil \cos(0) = 1 ist. Daher ist

\displaystyle\Im(\underline{A}_0) = \frac{a_0}{2} .

(Weil \sin(0) = 0 ist, folgt b_0 = 0.)

Mittels der reellen Koeffizienten

\displaystyle \boxed{\begin{aligned}a_k &= \frac{2}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot \cos(k\omega_1t)\,\mathrm{d}t\\[2ex] b_k &= \frac{2}{T}\int_{-\frac{T}{2}}^{+\frac{T}{2}} s(t) \cdot \sin(k\omega_1t)\,\mathrm{d}t\end{aligned}}

für k = 0, 1, 2, 3, 4, \dotsc können wir daher unser Signal als die reelle Summe

\displaystyle\boxed{s(t) = \frac{a_0}{2} + \sum_{k=1}^\infty\bigl(a_k\cos(k\omega_1t) + b_k\sin(k\omega_1t)\bigr)}

schreiben. Die Vermeidung komplexer Exponentialfunktionen haben wir uns durch die Verdopplung der Anzahl der benötigten Integrale erkauft. Außerdem lassen sich Exponentialfunktionen meistens leichter integrieren als Sinus- und Cosinus-Funktionen.

Unser Amplituden- bzw. Phasenspektrum aus Teil 2 erhalten wir dann mit

\displaystyle A_0 = \frac{a_0}{2} \quad \text{und} \quad A_k = \lvert\underline{A}_k\rvert = \sqrt{a_k^2 + b_k^2}

bzw.

\displaystyle \tan(\varphi_k) = \frac{a_k}{b_k} .

Ein Beispiel

Im letzten Teil haben wir die komplexen Amplituden einer Rechteckschwingung (s. Abb. 1) berechnet, und gesehen, dass sie rein reell sind. Die a_k sind daher alle gleich 0. Für die b_k gilt

\displaystyle b_k = \begin{cases}\displaystyle\frac{8}{k\tau} & \text{wenn }k\text{ ungerade ist}\\[3ex] \displaystyle 0 & \text{wenn }k\text{ gerade ist}\end{cases}

Wir können dieses Signal also als

\displaystyle s(t) = \frac{8}{\tau}\bigl(\sin(\omega_1t) + \frac{1}{3}\sin(3\omega_1t) + \frac{1}{5}\sin(5\omega_1t) + \frac{1}{7}\sin(7\omega_1t) + \dotsb\bigr)

schreiben, wobei die Grundkreisfrequenz \omega_1 = \tau / T = \tau / 2\,\text{s} \approx 3.14\,\text{s}^{-1} ist.

Die Animation in Abb. 1 zeigt, wie sich die Rechteckschwingung als Überlagerung reiner Sinus-Funktionen ergibt.

AnimRechteck_ab
Abb. 1: Eine Rechteckschwingung ist die Überlagerung verschiedener Cosinus- (links unten) und Sinus-Funktionen (rechts unten). Die entsprechenden Faktoren a_k und b_k sind jeweils eingeblendet. Die Animation geht bis zur 20-fachen Grundfrequenz.

Dass für die Rechteckschwingung alle a_k = 0 sind, ist kein Zufall.

Gerade und ungerade Funktionen

Die Cosinus-Funktion in Abb. 2 ist spiegelsymmetrisch um t = 0. Anders formuliert: \cos(\omega(-t)) = \cos(\omega t). Funktionen f mit der Eigenschaft

f(-t) = f(t)

nennt man gerade Funktionen.

Cos
Abb. 2: Die Cosinus-Funktion ist ein Beispiel einer geraden Funktion.

Die Sinus-Funktion in Abb. 3 hat eine andere Symmetrie: Dreht man sie um 180° um den Ursprung sieht sie auch wieder exakt gleich aus, d.h. sie ist punktsymmetrisch zum Ursprung: \sin(\omega(-t)) = - \sin(\omega t). Funktionen f mit der Eigenschaft

f(-t) = -f(t)

nennt man ungerade Funktionen.

Sin
Abb. 3: Die Sinus-Funktion ist ein Beispiel einer ungeraden Funktion.

Wenn eine gerade Funktionen als Summe anderer Funktionen geschrieben wird, müssen diese Funktionen selber wieder gerade sein. Daher gilt:

Für gerade Funktionen müssen alle Koeffizienten b_k = 0 sein.

Entsprechend können in der Summe für eine ungerade Funktion auch nur ungerade Funktionen auftreten. Wenn wir allerdings eine ungerade Funktion etwas nach oben oder unten schieben, ist sie keine ungerade Funktion mehr, obwohl sich sonst an ihr nichts geändert hat. Es kann also a_0 \neq 0 sein. Daher gilt:

Für ungerade Funktionen (nach Abzug der Konstanten a_0/2) müssen alle weiteren Koeffizienten a_k = 0 sein.

Für diese Spezialfälle halbiert sich also die Anzahl der zu berechnenden Integrale wieder. Weil das Signal in Abb. 1 ganz offensichtlich eine ungerade Funktion ist, ist von vornherein klar, dass wir die a_k gar nicht berechnen brauchen.

Die Koeffizienten für gerade und ungerade Signale

Für gerade und ungerade Signale gibt es noch eine weitere Vereinfachung. In der Formel für die a_k kommt das Produkt s(t) \cdot \cos(k\omega_1t) vor. Der Cosinus ist gerade und wenn auch das Signal s gerade ist, ist das ihr Produkt auch. Weil gerade Funktionen symmetrisch zu t = 0 sind, sind auch die Flächen links und rechts von der »y-Achse« gleich. Es reicht daher, die Fläche rechts von t = 0 zu berechnen und mit 2 zu multiplizieren.

Für gerade Signale ist daher

\displaystyle a_k = \frac{4}{T}\int_{0}^{\frac{T}{2}} s(t) \cdot \cos(k\omega_1t)\,\mathrm{d}t .

Interessanterweise ist für ein ungerades Signal s das Produkt s(t)\cdot\sin(k\omega_1t) mit der ungeraden Sinus-Funktion wieder gerade! Die obige Vereinfachung gilt daher auch hier.

Für ungerade Signale (nach Abzug der Konstanten a_0/2) ist daher

\displaystyle b_k = \frac{4}{T}\int_{0}^{\frac{T}{2}} s(t) \cdot \sin(k\omega_1t)\,\mathrm{d}t .

Diskussion

Setzt man in Fourier-Reihen spezielle Werte ein, kann man interessante Zusammenhänge erhalten.

Nehmen wir unser Rechtecksignal zur Zeit t = 0.5\,\text{s}. Dort ist sein Wert offensichtlich gleich 1. Setzen wir diesen Wert in die Fourier-Reihe ein, ist \omega_1 \cdot 0.5\,\text{s} = \tau/4 = \pi/2. Nun ist \sin(\tau/4) = +1\sin(3\cdot\tau/4) = -1\sin(5\cdot\tau/4) = +1\sin(7\cdot\tau/4) = -1, etc.

Daher muss

\displaystyle \frac{8}{\tau}\left(1 + \frac{1}{3}\cdot(-1) + \frac{1}{5} \cdot 1+ \frac{1}{7}\cdot (-1) + \dotsb\right) = 1

sein. Umgekehrt erhalten wir damit für die Summe der alternierenden Reihe

\displaystyle 1 - \frac{1}{3} + \frac{1}{5} - \frac{1}{7} \pm \dotsb = \sum_{k=0}^\infty \frac{(-1)^k}{2k+1} = \frac{\tau}{8} = \frac{\pi}{4} .

Weiter in Teil 5.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..