1. Tutorium 12.10.2012

Hallo zusammen,

Hier mal die Angabe
tut1.pdf (103 KB)
Bin schon am Rechnen, kann das Integral aus Punkt 1a aber nicht lösen, hat wer nen Tipp? Mit partieller Integration bekomm ich nur immer mehr Terme.

Hab das Integral mit Mathematica ausgewertet, aber ich nehm mal an, dass das für das Tutorium nicht reicht.

Wäre für einen Tipp sehr dankbar. :slight_smile:

Versuchs mal zuerst zu substituieren und danach partiell zu integrieren.

Weiß nicht ob „substituieren“ hier richtig ist, sondern eher einsetzen für den Sinus :wink:

Ähm weiß wer von euch wie man 2d am besten graphisch darstellt xD Ich stehe hier vor einem technischen Problem ^^

Nur bevor ich schon ganz falsch anfang, bei 1a gehts letztendlich drum
\int A^{2} e^{-2b\sqrt{x^{2}}} sin^{2}(x){\mathrm{d} x} = 1
zu lösen, oder?

verdammte Ferien, bin scho wieder ganz draußen… und spät is es auch schon wieder^^

@ redrum:

Ja, genau auf das läuft es raus;-)
Habe das Integral auch schon, wie typhon, mittels Matematica gelöst, jedoch komme ich „händisch“ nicht auf das Ergebnis. Drehe wahrscheinlich immer wieder den selben Fehler hinein.

Hab den Sinus in Exponentialform eingesetzt, kann man dann ganz schön ausintegrieren.
Kann A= +/- Squrt(2b(1+b²)) stimmen?

Das erste Beispiel kann man recht leicht händisch lösen, wenn man sin²(x) = 1/2*(1 - cos(2x)) verwendet. Dann kann man das Integral mit e^-2bx*cos(2x) durch zweimaliges partielles Integrieren lösen.
@Shaka: Ich komme auf dieselbe Lösung.

Hat schon jemand ein schönes Ergebnis zu 2c,d?

Hat jemand vielleicht einen Rat für das dritte Beispiel.
Hab mir die Eigenwerte ausgerechnet, bekomm damit aber nur einen Eigenvektor raus und sonst nur wahre aussagen in den Gleichungssystemen?

Edit: Und beim 1.BSP wie kann man da die ersten Term der part. Integration Auswerten mit den Grenzen - ∞ und +∞ ?

Hat wer morgen nach der Vorlesung Zeit um ein wenig gemeinsam zu rechnen?

Manuel

@Joshy:
Eigenwerte bekommst du ja, indem du die Determinante von (A - λI), wobei I die Einheitsmatrix ist, Null setzt. Man erhält die Eigenwerte 0,-1,2. Und zu jedem Eigenwert löst man dann das Gleichungssystem (A - λI)*v = 0 und erhält jeweils einen Eigenvektor v zu jedem Eigenwert λ. Sollte kein allzu großes Problem sein.
Und beim Bsp1 kannst du nicht einfach eine Integration von - ∞ bis + ∞ ausführen, weil du den Betrag von x in der e-Potenz stehen hast. Du musst die Funktion aufspalten in einen Teil für x<0 und einen für x>0. Und du solltest sofort sehen, dass die gesamte Funktion symmetrisch um x=0 ist. Daher kannst du einfach einen der beiden Teile auswerten und mit 2 multiplizieren.

Lösung erstes Beispiel - bitte um Korrektur, Anregung, Rückmeldung, Kritik, wüste Beschimpfungen - oder ähnliches

Mit vorzüglicher Hochachtung
QT1_UE1_BSP1.pdf (411 KB)

und hier bsp 3 - relativ pragmatisch und blind durchgerechnet, auf Pennermethode. also wer gern auf Sätze, Lemma, Definitionen und LinAlg steht sollte sich die Lösung net anschaun…

Nachweis dass die EV a VOGB bilden? einfach drei mal die Vektoren im Skalarproduk aufeinander anwenden und schaun ob immer 0 rauskommt…

mit den besten Empfehlungen

PS: was mich a bissl verwundert hat, ist dass die matrix nicht unitär ist - also dass A* A nicht = I ist. bzw. dass det A nicht= 1 ergab. … die EV trotzdem halbwegs orthogonal zueinander stehen… aber da dürfte wohl ein Fehler passiert sein, oder es bedarf hörhere Algebra diesen Sachverhalt zu klären… wie auch immer mir wurscht!

Überarbeitet in Version 2: Eigenvektoren richtig gerechnet.
QT1_UE1_BSP3_vers2.pdf (531 KB)

und hier noch bsp zwecks vollständigkeit - quantenübung is suuupa

apropo supa: auf der letzten seite scheinen meine ausführungen nicht mehr so seriös zu sein: da sollte eigentlich stehn: je größer der Kappa wert ist desto schneller läuft die T-Fktn auseinander…

greetings
QT1_UE1_BSP2.pdf (525 KB)

@no gravity: ich weiß nicht, ob ich da jetzt einen fehler mache, aber die nullstellen des cosinus sind doch (2n+1)pi/2 . denn bei dir sind die nullstellen npi/2 und damit für n=2 → pi und pi ist keine nullstelle des cosinus!!!
ansonsten ist es recht anschaulich gerechnet.

1.)beim ersten beispiel gibts einige wege es auszurechnen. der trick ist, dass man das integral mit dem betrag nicht ausrechnen kann, weil aber alle terme im integral symmetrisch sind, reich es das ganze zweimal von 0 bis unendlich zu nehmen. dann kann man den betrag zu „+x“ machen und kann losintegrieren. einfach partiell, wobei man den sinus ableitet. dann bekommt man 2 * sin * cos und das ist gleich 2 * sin(2x) . das integriert man noch 2x partiell und kommt wieder auf den sinus, den man auf die andere seite bringen kann.
ERGEBNIS: a = +/- 1/(2b(b^2 + 1))
für das b einfach die grenzen ändern.

2.) zu 2) steht alles in prama 2 und ana 2 skriptum.
meine lösung: T(x,t) = Summe über n von 0 bis inf (4/((2n+1)pi)e^(-kt(((2n+1)*pi)/2L)^2) * Sin((2n+1)pix/(2L))

3.) beim letzten ist zu sagen, dass die matrix hermitesch, aber nicht unitär ist!!!
die eigenwerte sind 0, -1 und +2. bei den eigenvektoren muss man nicht unbedingt genaue zahlenwerte herausbekommen als bedingung. es reicht, wenn man alle komponenten als funktion einer komponente ausdrücken kann und diese dann frei wählt!!!

die eigenschaften von hermitschen matritzen bezüglich eigenvektoren und eigenwerten sind:

  • die eigenwerte sind reell
  • die eigenvektoren zu 2 versch. eigenwerten stehen normal aufeinander

unitäre matrix:

  • der betrag der eigenwerte ist 1!!

beweise:

  • (x’Ax)’ = x’A’(x’)’ = x’A’x = x’Ax (letztes = nur für hermitesche matrizen!)
    mit dieser rechnung sieht man, dass x’Ax reell sein muss, denn nur für reelle variablen ist das komplex konjugierte gleich dem ursprünglichen!
    jetzt geht man an den eigentlichen beweis:
    Ax = µx /x’ von links
    x’Ax (reell^^) = µx’x = µ|x|^2 (reell) → µ muss auch reell sein.

die restlichen beweise gehen relativ ähnlich!
wenn ich sie alle online stellen soll, dann bitte fragen.

@ Phoenix

Ich bekomm beim ersten Beispiel: A= Wurzel (2b(b^2 + 1)), sonst sieht alles gut aus.

stimmt… hab mich i.wie in den zeilen geirrt. dein ergebnis stimmt natürlich!

Hi!

Jetzt habe ich endlich die richtige Lösung für das 1. a) Bsp. gefunden! :smiley: Was ist das Ergebnis bei b)?
ad Bsp. 3 c): Wie zeige ich das? Einfach die Eigenvektoren jeweils miteinander multiplizieren und 0 erwarten?
ad Bsp. 2 c): Habe bisdato noch keine befriedigende Lösung gefunden.

Wäre über Hilfe sehr dankbar;-)

Gute Nacht!

kann mir wer die Berechnung von den Eigenvektoren online stellen? Ich rechne das jetzt schon zum 3. mal durch und immer kommt das selbe raus, nur sind die leider nicht orthogonal…
Meine Vektoren wären:
\lambda =0: \begin{pmatrix}
x_{1}\
0\
x_{1}
\end{pmatrix},

\lambda =-1: \begin{pmatrix}
x_{1}\
ix_{1}\
-x_{1}
\end{pmatrix},

\lambda =2: \begin{pmatrix}
x_{1}\
-2ix_{1}\
-x_{1}
\end{pmatrix}

nur kommt da halt beim Skalarprodukt von den letzten beiden 4x² raus…

komme auf das gleiche, muss man beim skalarprodukt zweier komplexer vektoren nicht einen der beiden komplex konjugieren?

dann würds passen :stuck_out_tongue:

Omg, ich bin ein Idiot #-o ! Danke du bist mein Retter, ich war echt schon kurz vorm verzweifeln… :smiley: