Natalia+Lera

Página de Natalia Lera:

BLOQUE I
Ejercicios 1 y 2: No se ven los cocientes correctamente, subo el archivo word:

Ejercicios 3 y 4: Me ocurre lo mismo de ayer con .pdf :

Ejercicios 5 y 6:



math L^{-1} math sabemos que ésta debe cumplir math LL^{-1}(x)=x math
 * Ejercicio 7:** Parece que existe una base ortonormal en el espacio de funciones formada por deltas de Dirac, trabajando en esta base: L(x)=f, para buscar la aplicación inversa a L

Si estas aplicaciones pudieran expresarse como matrices: math LL^{-1}=I math Donde I sería la matriz identidad de orden infinito. De acuerdo con el álgebra lineal, L puede invertirse siempre que sus autovalores sean distintos de cero, es decir, Ker{L}={0}.

Como L es un operador diferencial lineal con coeficientes constantes: math L=\sum_{n=0}^{N}a_{n}\frac{d^n}{dt^n} math y también sabemos que las exponenciales son autofunciones de los operadores lineales, y siempre podemos encontrar una exponencial que pertenezca al núcleo del operador. Pues por el teorema fundamental de álgebra math \sum_{i=0}^{N}a_{i}m^{i}=0 math esta ecuación tiene N soluciones en los complejos math m_{1},m_{2},...,m_{N} math es decir: math x=e^{m_{i}t} math pertenece al núcleo del operador.

Para todo operador diferencial lineal (distinto de una cte) el núcleo no es igual a {0}

Sin mucha seguridad afirmo: O bien L no puede invertirse, o bien el método de autovalores del álgebra no es generalizable a operadores lineales.

Todo el análisis es correcto la conclusion es correcta pero incompleta (aunque es lo mas lejos que se podia llegar sin haber elaborado el concepto de Función de Green que se hizo en los dias siguientes)

1.) Hemos encontrado una forma de invertir la relacion entre "fuerza" y respuesta (Método de la funcion de Green) 2.) Existe algún caso en que ese metodo falle? SI, Tomemos el OA simple y consideremos que la fuerza externa hace resonar al sistema 3.) La resonancia de un sistema sin friccion puede considerarse desde el punto de vista matematico como ausencia de solucion para un termino inhomogeneo dado. 4.) Que caso es ese? Una fuerza armónica con frecuencia correspondiente a un polo de la función respuesta. Esa es una autofunción que pertenece al nucleo que describes en tu ejercicio. 5.) Los polos de la función respuesta corresponden a autovalores lambda=0 de L 6.) Conclusion: El metodo de la funcion de Green invierte el problema de las EDO's y falla justo en el subespacio caracterizado por lambda=0.

Hay muchas mas conexiones, si quieres lo comentamos en clase.

Para que la aplicación dada sea lineal debe cumplir math K(\lambda x_{1}+\mu x_{2})= \lambda K(x_{1})+\mu K(x_{2}) math
 * Ejercicio 8:**

En este caso K está definida de la siguiente forma:

math \int dt' K(t,t') x(t')=y(t) math

Luego, para ver que cumple la condición de linealidad:

math \int dt' K(t,t') (\lambda x_{1}(t')+\mu x_{2}(t')))=\int dt' K(t,t')\lambda x_{1}(t')+ \int dt' K(t,t')\mu x_{2}(t')= \lambda \int dt' K(t,t')x_{1}(t')+\mu\int dt' K(t,t') x_{2}(t') = \lambda y_{1} + \mu y_{2} math

Por tanto el operador K, sí es lineal.

Considerando las funciones en el espacio vectorial de dimensión infinita, x sería un vector que al multiplicarlo por la matriz K dentro de una integral (suma de infinitos términos) tiene cierta similitud con la multiplicación de matrices.

Si las condiciones iniciales son las mismas: velocidad y posición iguales a cero en t=0, sabemos la función de Green para ese caso: math G(t,t')=\frac{1}{w_{0}}sin(w_{0}(t-t')) math Entonces aplicando el operador integral lineal sobre f=fo math x(t)=\int_{0}^{t}dt' f_{0} G(t,t')=\int_{0}^{t}dt' f_{0}\frac{1}{w_{0}}sin(w_{0}(t-t'))=\frac{f_{0}}{{w_{0}}^2}cos(w_{0}(t-t'))_{t'=0}^{t'=t}\textrm{}=\frac{f_{0}}{{w_{0}}^2}(1-cos(w_{0}t)) math Que es la solución esperada.
 * Resolver con la función de Green, el movimiento de un oscilador armónico sometido a una fuerza cte:**

Tenemos la EDO lineal de orden N: math \sum_{n=0}^{N}a_{n}\frac{d^nx}{dt^n}=w\delta(t-t') math Justo antes del golpe el sistema está en el equilibrio (condiciones iniciales): math \frac{d^nx(t')}{dt^n}=0 math para n=0,1,...N-1; En t<t'
 * Solución y función de Green para cualquier sistema lineal con coeficientes ctes.**

math \sum_{n=0}^{N}a_{n}\frac{d^nx}{dt^n}=a_{N}\frac{d^Nx}{dt^N}=w\delta(t-t') math Justo en el momento del golpe: math \frac{d^{N-1}x(t)}{dt^{N-1}}=\int_{t'}^{t}\frac{d^Nx(t)}{dt^N}dt=\int_{t'}^{t}\frac{w}{a_{N}}\delta (t-t')dt=\frac{w}{a_{N}} math math \frac{d^{N-2}x(t)}{dt^{N-2}}=\int_{t'}^{t}\frac{d^{N-1}x(t)}{dt^{N-1}}dt=\int_{t'}^{t}\frac{w}{a_{N}}dt=\frac{w}{a_{N}}(t-t') math Integrando sucesivamente: math x(t)=A\frac{w}{a_{N}}(t-t')^{N-1} math

Por tanto en el momento justo después del golpe t=t', el sistema es homogéneo y las condiciones iniciales son math \frac{d^nx(t')}{dt^n}=0 math para n=0,1,2,...,N-2. math \frac{d^{N-1}x(t')}{dt^{N-1}}=\frac{w}{a_{N}} math

De la ecuación diferencial puede obtenerse la ecuación auxiliar algebraica siguiente, probando soluciones del tipo exponencial e^(mt): math \sum_{n=0}^{N}a_{n}m^n math

Si esta ecuación tiene N soluciones diferentes, la solución x(t) será: math x(t)=\sum_{n=1}^{N}c_{n}e^{m_{n}(t-t')} math Dónde nos falta por determinar las c Derivando esta expresión y sustituyendo en t=t' obtenemos un sistema lineal de N ecuaciones con N incógnitas (c).

El sistema es de la siguiente forma: math \begin{pmatrix} 1& 1& ...& 1 \\ m_{1}^1& m_{2}^1& ...& m_{N}^1 \\ m_{1}^2 &m_{2}^2& ... &... \\ ...& ...& ... &... \\ m_{1}^{N-1}& m_{2}^{N-1}& ...& m_{N}^{N-1} \end{pmatrix} \begin{pmatrix} c_{1}\\ c_{2}\\ ...\\ ...\\ c_{N} \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ ...\\ ...\\ w/a_{N} \end{pmatrix} math

Este sistema tiene solución, la matriz es de rango N, (el determinante de Vandermonde: su resultado es un producto de las diferencia entre las diferentes m, que como son diferentes entre sí, es distinto de cero) por tanto existe solución única para los coeficientes de las exponenciales.

De ahí podemos obtener la función de Green: math G(t-t')=\sum_{n=1}^{N}c_{n}e^{m_{n}(t-t')} math

__Comentario:__ No nos debe preocupar que las exponenciales sean complejas, ni que la matriz esté formada por números complejos; si la ecuación diferencial inicial es real, entonces las soluciones complejas aparecerán a pares de complejos conjugados que nos anularán la parte imaginaria de la solución, dejando una parte oscilante en la solución.

Para saber si dichas funciones son ortogonales entre sí, comprobamos su producto escalar: math \int_{0}^{L}cos(k_{m}x)cos(k_{n}x)dx=\frac{1}{2}\int_{0}^{L}cos((k_{m}+k_{n})x)dx+\frac{1}{2}\int_{0}^{L}cos((k_{m}-k_{n})x)dx=\frac{1}{2}\frac{sin((k_{m}+k_{n})L)}{k_{m}+k_{n}}+\frac{1}{2}\frac{sin((k_{m}-k_{n})L)}{k_{m}-k_{n}}=\frac{L}{2}\frac{sin((m-n)\pi)}{(m-n)\pi}=\frac{L}{2}\delta_{mn} math El conjunto de funciones dadas son ortogonales entre sí, puesto que el producto escalar de dos de ellas diferentes es cero.
 * Ejercicio 9:**

Mismo procedimiento para la función exponencial compleja: math \int_{0}^{L}e^{ik_{m}x}e^{ik_{n}x}dx=\int_{0}^{L}e^{i(k_{m}+k_{n})x}dx=\frac{e^{i(k_{m}+k_{n})L}-e^{i(k_{m}+k_{n})0}}{i(k_{m}+k_{n})}=\frac{e^{i(k_{m}+k_{n})L}-1}{i(k_{m}+k_{n})}\neq C\delta _{mn} math En este caso, el producto escalar depende de la paridad de (m+n) si ésta es impar son ortogonales, pero no en caso contrario.

Este paso no puede darse con cualquier tipo de suma. Por ejemplo, en los reales math \sum(a_{n}-b_{n})=0no\Rightarrow a_{n}=b_{n} math Puesto que math a_{m}-b_{m}=-\sum_{n\neq m}^{N}(a_{n}-b_{n}) math Cada término puede anularse con la suma adecuada del resto de términos.
 * Ejercicio 10:** **Igualar término a término dos sumas en n infinitas.**

En cambio para vectores, basta con que los vectores de la combinación lineal (n=1,2,...) sean linealmente independientes, ya que en ese caso cada vector: math u_{m}\neq \sum_{n\neq m}^{N}C_{n}u_{n} math No puede generarse por combinación lineal del resto. (Y para anular su componente necesariamente a_n=b_n)

Esto ocurre con el paso de la deducción de la ecuación de ondas. En el espacio de funciones, con el producto escalar estudiado, las funciones math sin(k_{n}x) math n=1,2,... son ortogonales entre sí, y por la semejanza entre el espacio de funciones y vectorial, las funciones son "vectores" ortogonales, y por tanto linealmente independientes.


 * Evolución de la cuerda al ser punteada:** [[file:28Sep11NLV.pdf]]

Para demostrar que en este sistema w(k) no pasa por el cero cero, existe un gap: Ecuaciones del sistema, se separan en ecuaciones independientes, se resuelven para condiciones iniciales (velocidad inicial cero), se ve que la frecuencia en el tiempo son 2 frecuencias diferentes, existe el gap buscado para cada una.
 * Pompa de Jabón** simulada por dos cuerdas elásticas con los extremos fijos, unidas por infinitos muelles transversales:[[file:PompaJabon1NLV.pdf]][[file:PompaJabon2NLV.pdf]]

Las condiciones de contorno afectan exclusivamente a la parte espacial de la solución (proponiendo la solución como producto de una función del tiempo por una función de la posición). La ecuación que verifica la parte espacial es: math X'' (x)=-k^2X(x) math cuya solución general (k>0) es: math X (x)=Asen(kx)+Bcos(kx) math Vamos a probar las condiciones de contorno: extremos fijos (X(0)=0 y X(L)=0), extremos libres (X'(0)=0 y X'(L)=0) o un extremo libre y otro fijo.
 * Condiciones de contorno para la cuerda elástica:**

El extremo x=0 nos anula A ó B: Si fijamos éste extremo, B es necesariamente cero. Si lo dejamos libre, A es necesariamente cero (Al derivar, se necesita anular el coseno para todo x, A=0). El extremo L nos da los valores de k una vez sabemos si la solución es tipo seno o coseno.

En la siguiente tabla se muestra la solución espacial para los cuatro posibles casos, la solución es la combinación lineal para todos los posibles n. (No incluyo las ctes A y B (que también dependerán de n); se suponen incluidas en el término temporal de la solución).

k_{n} math || \sum_{n}^{\infty }sin(k_{n}x) math || math \frac{n\pi }{L} math || \sum_{n}^{\infty }sin(k_{n}x) math || math (n+\frac{1}{2})\frac{\pi }{L} math || \sum_{n}^{\infty }cos(k_{n}x) math || math (n+\frac{1}{2})\frac{\pi }{L} math || \sum_{n}^{\infty }cos(k_{n}x) math || math \frac{n\pi }{L} math ||
 * x=0-x=L || X || math
 * Fijo-Fijo || math
 * Fijo-Libre || math
 * Libre-Fijo || math
 * Libre-Libre || math

Habría que demostrar que para math k_{n}=(n+\frac{1}{2})\frac{\pi }{L} math el coseno y el seno son base. Las demostraciones son análogas a las realizadas en clase y ejercicio 9 (para el otro k_n). Y sí son base ortogonal del espacio de funciones.

La interpretación física de que para n grande, la solución de los k_n se comporten como si la cuerda estuviera libre es que: cuanto mayor es el modo de vibración (mayor n), mayor es la energía de la cuerda y menos nota el sistema la ligadura del muelle.
 * Ejercicio 11:**

(los sumatorios empiezan en n=0; aunque no es correcto: La norma del modo cero es diferente al resto y el fallo se "arrastra" desde descomponer la función delta en la base ortogonal de cosenos)
 * Ejercicio 12: Cuerda elástica forzada con delta(x-vt):**

Suponiendo que esté bien: Es una solución en la que "no se ve" la física del problema. Si la fuerza fuera simultánea para todos los puntos de la cuerda u=velocidad·tiempo; entonces yo esperaría una solución en la que hubiera un desplazamiento neto de la cuerda, y a la vista de la solución no parece que sea así. (Aunque la suma infinita puede ser casi "cualquier cosa" ¿No hay forma de deshacer la proyección sobre la base ortogonal y volver a una función sin sumatorio?). Puede deberse a que para v<c la perturbación que actúa sobre los primeros puntos de la cuerda afecta a los últimos antes de que éstos se vean afectados por la fuerza. (de forma que los puntos pueden tener una velocidad contraria a la fuerza en el instante que ésta actúa y por ello no hay desplazamiento neto). Realmente no hay ninguna restricción para que v no pueda ser mayor que c, en cuyo caso la solución sería la misma. (??)

Cuando v=c, en el momento que cada punto se ve afectado por la perturbación en los puntos anteriores actúa además una fuerza sobre ellos, aquí sí aparece una dependencia temporal al margen del sumatorio.

Dimensionalmente parece que la solución no es correcta, ello se debe al factor 1 que multiplica a la delta que tiene unidades de fuerza entre densidad de masa. Digo que la solución sería correcta para tiempos desde 0 hasta L/v porque para tiempos mayores, la delta sigue actuando en x>L que afecta a la cuerda [0,L]. La solución quizás pueda "refinarse" teniendo en cuenta que la delta deja de actuar en t=L/v.

Estaría bien simular u(x,t) pero no se me ocurre una forma fácil y rápida...(entre otras cosas para ver si tiene sentido la solución propuesta).

Hay otras forma de hacerlo pero si eliges esta entonces: 1.) El desplazamiento neto de la cuerda esta en el modo n=0 que con estas CC hay que incluirlo. 2.) Para v=c todos los coeficientes divergen. puedes llamar a v k_n=w y expresar en terminos de la funcion respuesta. que es igual a w_n si v=c 3.) Sí, es solución en u(x=L,t).

Gracias por los comentarios.

Para la base del espacio de funciones en que trato el problema, he de incluir el modo n=0 y además éste tiene una norma diferente a los demás modos. Continúo el problema corrigiendo eso:

Separando el modo cero, cuyo denominador se anula y su norma es diferente: math u(x,t)=\frac{2}{Lk_{0}^2(c^2-v^2)}sin(\frac{k_{0}(v+c)}{2}t)sin(\frac{k_{0}(c-v)}{2}t)cos(k_0x)+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(c^2-v^2)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t)cos(k_nx)=\frac{2}{L(c^2-v^2)}\frac{(c+v)t}{2}\frac{(c-v)t}{2}+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(c^2-v^2)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t)cos(k_nx) math

Siendo la solución final: math u(x,t)=\frac{t^2}{2L}+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(c^2-v^2)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t)cos(k_nx) math Aquí sí se ve una dependencia temporal independiente del sumatorio, que sigue pareciendo "cualquier cosa".

Para v=c math u(x,t)=\frac{t^2}{2L}+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(v+c)(v-c)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t)cos(k_nx)=\frac{t^2}{2L}+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(v+c)}sin(\frac{k_{n}(v+c)}{2}t)\frac{k_{n}t}{2}cos(k_nx)=\frac{t^2}{2L}+\frac{t}{L}\sum_{n=1}^{\infty }\frac{1}{w_n}sin(w_nt)cos(k_nx) math con: math w_n=ck_n=c\frac{n\pi }{L} math

¿Cuál es el movimiento del extremo x=L? La solución para u(L,t) math u(L,t)=\frac{t^2}{2L}+\sum_{n=1}^{\infty }\frac{4}{Lk_{n}^2(c^2-v^2)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t)cos(k_nL)=\frac{t^2}{2L}+\sum_{n=1}^{\infty }(-1)^n\frac{4}{Lk_{n}^2(c^2-v^2)}sin(\frac{k_{n}(v+c)}{2}t)sin(\frac{k_{n}(c-v)}{2}t) math Debería ser: u(L,t)=0 desde t=0 hasta t=L/c. (??)

BLOQUE II

 * Ejercicio 1:**Coeficientes de Fourier:

(La relación pedida es la misma que se dio en el ejercicio 1 del bloque 1) Desarrollo de una función en serie de Fourier: math f(x)=\sum_{n=-\infty}^{\infty }C_ne^{ik_nx}=\sum_{n=0}^{\infty }[C_ne^{ik_nx}+C_n^*e^{-ik_nx}]=\sum_{n=0}^{\infty }[C_n(sin(k_nx)+cos(k_nx))+C_n^*(-sin(k_nx)+cos(k_nx))]=\sum_{n=0}^{\infty }[(C_n+C_n^*)cos(k_nx)+i(C_n-C_n^*)sin(k_nx)] math Los coeficientes que acompañan al seno y coseno en función de los coeficientes de las exponenciales complejas: math A_n=i(C_n-C_n^*)=i(C_n-C_{-n});B_n=C_n+C_n^*=C_n+C_{-n} math Siendo A los coeficientes del seno y B los del coseno.

Para una función par: math f(x)=\sum_{n=-\infty }^{\infty }C_ne^{ik_nx}=f(-x)=\sum_{n=-\infty }^{\infty }C_ne^{-ik_nx} math Lo que resulta igualando cada componente de la base: math C_n=C_{-n}=C_n^*\Rightarrow A_n=i(C_n-C_n^*)=0 math La serie de senos es cero.
 * Ejercicio 2:**

Para una función impar: math f(x)=\sum_{n=-\infty }^{\infty }C_ne^{ik_nx}=-f(-x)=\sum_{n=-\infty }^{\infty }-C_ne^{-ik_nx} math Lo que resulta igulando para cada función de la base: math C_n=-C_{-n}=-C_n^*\Rightarrow B_n=C_n+C_n^*=0 math La serie de cosenos es cero

Sabiendo la TF de la función derivada: math \mathfrak{F}(\frac{d^nf}{dx^n})=ik\mathfrak{F}(\frac{d^{n-1}f}{dx^{n-1}})=(ik)^2\mathfrak{F}(\frac{d^{n-2}f}{dx^{n-2}})=...=(ik)^n\mathfrak{F}(f) math
 * Ejercicio 4: Transformada de Fourier de la derivada n-ésima**


 * Operador autoadjunto:**

Hallar TF de la función Lorentziana: math g(x)=\frac{2a}{a^2+k^2} math Sabemos que math \mathfrak{F}[\mathfrak{F}(f(x))]=2\pi f(-x) math y que math \mathfrak{F}(e^{-a\left | x \right |})=\frac{1}{2\pi}\frac{2a}{a^2+k^2} math si llamamos math f(x)=e^{-a\left | x \right |} math en la primera ecuación tenemos: math \mathfrak{F}(\frac{1}{2\pi}\frac{2a}{a^2+k^2})=2\pi f(-x)=2\pi e^{-a\left | x \right |} math Intercambiando k por x (¿se puede hacer?)(y teniendo en cuenta el factor 2pi)
 * Ejercicio 6:**

math \mathfrak{F}(\frac{2a}{a^2+x^2})=4\pi^2 e^{-a\left | k \right |} math


 * Ejercicio 8:[[file:Hilometalico2NLV.pdf]]**

math A_1=B+B^\dagger\Rightarrow A_1^\dagger=(B+B^\dagger)^\dagger=B^\dagger+B^\dagger^\dagger=B^\dagger+B=A_1 math A_1 es igual a su adjunta, por tanto A_1 es autoadjunta.
 * Ejercicio 9:**

math A_2=i(B-B^\dagger)\Rightarrow A_2^\dagger=\overline{iB}^t-\overline{iB^\dagger}^t=-i\overline{B^t}+i\overline{B^\dagger^t}=-iB^\dagger+iB^\dagger^\dagger=i(B-B^\dagger)=A_2 math A_2 es igual a su adjunta, por tanto es autoadjunta.
 * Ejercicio 10:**

Se conoce el espectro de B y se define A como: math A=U^\dagger BU math Con U unitaria. Multiplicamos a ambos lados por U daga. math AU^\dagger=U^\dagger BUU^\dagger=U^\dagger B math Aplicar estos nuevos operadores a un ket cualquiera, éste podrá descomponerse en la base del espectro de B, equivale a aplicarlo a un ket de dicha la base: math AU^\dagger\left | v_j \right \rangle=U^\dagger B\left | v_j \right \rangle=\lambda _jU^\dagger\left | v_j \right \rangle math Más explícitamente: math A[U^\dagger\left | v_j \right \rangle]=\lambda _j[U^\dagger\left | v_j \right \rangle] math De forma que A tiene los mismos autovalores que B y sus autovectores son math U^\dagger\left | v_j \right \rangle math Además podemos asegurar que estos autovectores forman base ortogonal, ya que los autovectores de B son base ortogonal (por ser autoadjunta) y la aplicación unitaria U daga conserva el producto escalar, es decir: math (v_j,v_k)=(U^\dagger v_j,U^\dagger v_k)=\delta _{jk} math (suponiendo v_j normalizados). Por tanto A tiene autovalores reales (los de B son reales) y autovectores ortogonales, es un operador autoadjunto.
 * Ejercicio 12, 13 y 14:**

Comprobar que [B,[A,C]]-[C,[A,B]]=[A,[B,C]]
 * Ejercicio 15:**

[B,[A,C]]-[C,[A,B]]=[B,AC-CA]-[C,AB-BA]=BAC-BCA-ACB+CAB-CAB+CBA+ABC-BAC=-BCA-ACB+CBA+ABC=A(BC-CB)-(BC-CB)A=[A,BC-CB]=[A,[B,C]]

Comprobar que Tr([A,B])=0
 * Ejercicio 16:**

Llamo a los elementos de matriz ( i j ) del operador C: math (C)_{ij} math

math Tr([A,B])=Tr(AB-BA)=\sum_{i=1}^{N}(AB-BA)_{ii}=\sum_{i=1}^{N}[(AB)_{ii}-(BA)_{ii}]=\sum_{i=1}^{N}[\sum_{k=1}^{N}A_{ik}B_{ki}-\sum_{j=1}^{N}B_{ij}A_{ji}]=\sum_{i=1}^{N}\sum_{k=1}^{N}[A_{ik}B_{ki}-B_{ik}A_{ki}]= \sum_{i=1}^{N}\sum_{k=1}^{N}[A_{ik}B_{ki}-A_{ik}B_{ki}]=0 math

Más elegante: math Tr(AB)=\sum_{i=1}^{N}\left \langle u_i\left | AB \right | u_i\right \rangle=\sum_{i=1}^{N}\sum_{j=1}^{N}\left \langle u_i\left | A \right | u_j\right \rangle\left \langle u_j\left | B \right | u_i\right \rangle=\sum_{i=1}^{N}\sum_{j=1}^{N}\left \langle u_j\left | B \right | u_i\right \rangle\left \langle u_i\left | A \right | u_j\right \rangle=\sum_{j=1}^{N}\left \langle u_j\left | BA \right | u_j\right \rangle=Tr(BA)\Rightarrow Tr(AB)-Tr(BA)=0\Rightarrow Tr([A,B])=0 math

En el primer paso se define la traza, en el segundo se intercala el operador unidad entre A y B, 3º conmutación del producto en complejos, 4º se quita el operador unidad.


 * Ejercicio 17:** [[file:Ejercicio17NLV1.pdf]][[file:Ejercicio17NLV3.pdf]]

Resumiendo: math \lambda _k\approx \lambda _{Ak}+\varepsilon \frac{(v_{Ak},Bv_{Ak})}{(v_{Ak},v_{Ak})} math

math v_{1k}\approx v_{Ak}+\varepsilon \sum_{i\neq k}^{N}\frac{(v_{Ai},Bv_{Ai})}{(v_{Ai},v_{Ai})}\frac{1}{\lambda _{Ak}-\lambda _{Ai}}v_{Ai} math

Se supone que no hay degeneración para ningún autovalor.

La razón por la que no hay componente de v1k en la dirección vAk es que podemos elegirla cero debido a que un autovector no está definido completamente, (elegimos la norma que queremos).

1.) Para el espacio de funciones [0,L] con condiciones de contorno de primera o segunda especie homogéneas, sabemos que existen para todos los casos bases ortogonales de autofunciones de este operador con autovalores reales. Dichas bases son math sin(k_nx); cos(k_nx) math con math k_n=\frac{n\pi }{L} math math k_n=(n+\frac{1}{2})\frac{\pi }{L} math con n=1,2,... Las cuatro combinaciones posibles, una para cada par de condiciones de contorno, forman base de dicho espacio. Los autovalores son -(k_n)^2 reales. El operador es autoadjunto.
 * Ejercicio 18:**

2.) Sea A el operador derivada segunda. A será autoadjunto si (Av,u)=(v,Au) math (\phi ,A\psi )=\int_{0}^{L}\phi^*\frac{\partial^2 \psi}{\partial x^2}dx=\phi^*\frac{\partial \psi}{\partial x}|^L_0-\int_{0}^{L}\frac{\partial \phi^*}{\partial x}\frac{\partial \psi}{\partial x}dx=(\phi^*\frac{\partial \psi}{\partial x}-\psi\frac{\partial \phi^*}{\partial x})|^L_0+\int_{0}^{L}\frac{\partial^2 \phi^*}{\partial x^2}\psi dx=\int_{0}^{L}\( \frac{\partial^2 \phi}{\partial x^2})^*\psi dx=(A \phi,\psi) math Concluimos que el operador derivada segunda es autoadjunto.

math (\phi^*\frac{\partial \psi}{\partial x}-\psi\frac{\partial \phi^*}{\partial x})|^L_0=0 math Porque ambas funciones cumplen las mismas condiciones de contorno y para las cuatro combinaciones posibles, tanto en x=0 como en x=L, o bien se anula la función o se anula la derivada.

Aplicar método de Fourier a math \frac{\partial u}{\partial t}=k\frac{\partial^2 u}{\partial x^2} math con C.C. u(x=0,t)=0=u(x=L,t)
 * Ejercicio 19:**

Sabemos que existe una base de autofunciones ortogonales del operador derivada segunda (por ser éste autoadjunto): math \frac{d^2 X_n(x)}{dx^2}=\lambda_n X_n(x) math Descomponemos u en dicha base: math u(x,t)=\sum_{n}^{ }T_n(t)X_n(x) math Sustituimos u en la ecuación diferencial, teniendo en cuenta la ecuación de autovalores: math \sum_{n}^{ }\dot{T_n}(t)X_n(x)=k\sum_{n}^{ }T_n(t)\lambda_n X_n(x) math Como la base de X_n es ortogonal, la igualdad se cumple término a término: math \dot{T_n}=k\lambda_nT_n math La solución de esta EDO es: math T_n=A_ne^{k\lambda_nt} math Siendo la solución general: math u(x,t)=\sum_{n}^{ }A_ne^{k\lambda_nt}X_n math

Condiciones iniciales arbitrarias (sólo se necesita una): u(x,0)=f(x) Se descompone f en la base ortogonal de autofunciones del operador derivada segunda de x math f(x)=\sum_{n}^{ }\frac{\int_{0}^{L}f(x)X_n(x)dx}{\int_{0}^{L}X_n(x)X_n(x)dx}X_n(x) math Igualando término a término la solución general en t=0 y f(x): u(x,0)=f(x) se obtiene el coeficiente A_n: math A_n=\frac{\int_{0}^{L}f(x)X_n(x)dx}{\int_{0}^{L}X_n(x)X_n(x)dx} math y la solución particular: math u(x,t)=\sum_{n}^{ }\frac{\int_{0}^{L}f(x)X_n(x)dx}{\int_{0}^{L}X_n(x)X_n(x)dx}e^{k\lambda_nt}X_n math

Además sabemos que la base que diagonaliza el operador con las C.C dadas en el espacio de funciones definidas en [0,L] es: math X_n=\sin(\frac{n\pi}{L}x) math con autovalor math \lambda_n=-\frac{n^2\pi^2}{L^2} math

Podemos sustituir en la solución general y particular: math u(x,t)=\sum_{n}^{ }A_ne^{-k\frac{n^2\pi^2}{L^2}t}\sin(\frac{n\pi}{L}x) math math u(x,t)=\sum_{n}^{ }\frac{2}{L}[\int_{0}^{L}f(x')\sin(\frac{n\pi}{L}x')dx']e^{-k\frac{n^2\pi^2}{L^2}t}\sin(\frac{n\pi}{L}x) math

Halla G(z) si (zI-A)G(z)=I, y A es autoadjunta de espectro conocido,z escalar.
 * Ejercicio 20:**

math \frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)g(x)=\int_{-\infty }^{\infty }dk (\widehat{f}(k))^*\widehat{g}(k) math (En el segundo miembro supongo que es el complejo conjugado de la transformada) math (\widehat{f}(k))^*=\frac{1}{2\pi}\left [ \int_{-\infty }^{\infty }dx f(x)e^{-ikx} \right ]^*=\frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)e^{ikx} math
 * Ejercicio 21:** Comprobar que:

Partiendo del segundo miembro, sustituyo las transformadas y trato de llegar al primer miembro: math \int_{-\infty }^{\infty }dk (\widehat{f}(k))^*\widehat{g}(k)=\int_{-\infty }^{\infty }dk \left [ \frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)e^{ikx}\right ]\left [ \frac{1}{2\pi}\int_{-\infty }^{\infty }dx' g(x')e^{-ikx'}\right ]=\frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)\int_{-\infty }^{\infty }g(x')dx'\left [ \frac{1}{2\pi}\int_{-\infty }^{\infty }dk e^{ik(x-x')}\right ]=\frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)\int_{-\infty }^{\infty }g(x')dx'\delta(x-x')=\frac{1}{2\pi}\int_{-\infty }^{\infty }dx f^*(x)g(x) math

Primer paso, sustituir. 2º reordenar las integrales y ver que la integral en dk es una delta. 3º Integrar la delta en dx'

math g(x)=\int_{-\infty }^{\infty }dx'K(x-x')f(x') math
 * Ejercicio 22:** Hallar TF de

math \widehat{g}(k)=\frac{1}{2\pi}\int_{-\infty }^{\infty }g(x)e^{-ikx}dx=\frac{1}{2\pi}\int_{-\infty }^{\infty }\int_{-\infty }^{\infty }dx'K(x-x')f(x')e^{-ikx}dx=\int_{-\infty }^{\infty }dx'f(x')\left [ \frac{1}{2\pi}\int_{-\infty }^{\infty }dxK(x-x')e^{-ikx}\right ]=\int_{-\infty }^{\infty }dx'f(x')\left [ e^{-ikx'}\widehat{K}(k)\right ]=\left [ \int_{-\infty }^{\infty }dx'f(x') e^{-ikx'}\right ]\widehat{K}(k)=2\pi\widehat{f}(k)\widehat{K}(k) math Primer paso, sustituir. 2º ver que la integral en dx es la TF de la función K(x-x'). 3º sustituir TF(K(x-x')) por su valor. 4º ver que la integral en dx' es 2pi por la TF de f(x) Finalmente: math \widehat{g}(k)=2\pi\widehat{f}(k)\widehat{K}(k) math

math (\sigma _i+\sigma_j)^n=\sigma_i^n+\sigma_j^n math
 * Ejercicio 26:** Demostrar que:

math \left\{\begin{matrix} \sigma_x^2=I\\ \sigma_y^2=I\\ \sigma_z^2=I \end{matrix}\right. math

Para x,y math \begin{pmatrix} 0 &1 \\ 1& 0 \end{pmatrix}+\begin{pmatrix} 0 &-i \\ i& 0 \end{pmatrix}=\begin{pmatrix} 0 &1-i \\ 1+i&0 \end{pmatrix}\rightarrow \begin{pmatrix} 0 &1-i \\ 1+i&0 \end{pmatrix}^2=2I math math (\sigma _x+\sigma_y)^2=2I=\sigma_x^2+\sigma_y^2=I+I=2I math

Para x,z: math \begin{pmatrix} 0 &1 \\ 1& 0 \end{pmatrix}+\begin{pmatrix} 1 &0 \\ 0& -1 \end{pmatrix}=\begin{pmatrix} 1 &1 \\ 1&-1 \end{pmatrix}\rightarrow \begin{pmatrix} 1 &0 \\ 0& -1 \end{pmatrix}=\begin{pmatrix} 1 &1 \\ 1&-1 \end{pmatrix}^2=2I math math (\sigma _x+\sigma_z)^2=2I=\sigma_x^2+\sigma_z^2=I+I=2I math

Para y,z: math \begin{pmatrix} 0 &-i \\ i& 0 \end{pmatrix}+\begin{pmatrix} 1 &0 \\ 0& -1 \end{pmatrix}=\begin{pmatrix} 1 &-i \\ i&-1 \end{pmatrix}\rightarrow \begin{pmatrix} 1 &-i \\ i&-1 \end{pmatrix}^2=2I math math (\sigma _y+\sigma_z)^2=2I=\sigma_y^2+\sigma_z^2=I+I=2I math

math S=a_1\begin{pmatrix} 0 &1 \\ 1&0 \end{pmatrix}+a_2\begin{pmatrix} 0 &-i \\ i& 0 \end{pmatrix}+a_3\begin{pmatrix} 1 &0 \\ 0 & -1 \end{pmatrix}=\begin{pmatrix} a_3 &a_1-ia_2 \\ a_1+ia_2 &-a_3 \end{pmatrix} math math \begin{vmatrix} a_3-\lambda &a_1-ia_2 \\ a_1+ia_2 &-a_3-\lambda \end{vmatrix}=-(a_3^2-\lambda^2)-(a_1^2+a_2^2)=0\Rightarrow \lambda=\pm \sqrt{a_1^2+a_2^2+a_3^2} math
 * Ejercicio 27**: Hallar los autovalores de S

Sabiendo la transformada de una derivada, se transforma u con respecto a la posición y con respecto al tiempo: math \dot{u}(x,t)=\kappa u''(x,t)\rightarrow iw\widehat{\widehat{u}}(k,w)=-\kappa k^2\widehat{\widehat{u}}(k,w) math Para simplificar notación: math \widehat{\widehat{u}}(k,w)=v(k,w) \rightarrow v(k,w)[\kappa k^2+iw]=0 math
 * Ejercicio 30**: TF de la ecuación del calor.

math \left\{\begin{matrix} \ddot{u_1}=c^2u_1''-K(u_1-u_2)\\ \ddot{u_2}=c^2u_2''-K(u_2-u_1) \end{matrix}\right. math TF en las dos variables, con la notación del ejercicio anterior: math \left\{\begin{matrix} -w^2v_1=-c^2k^2v_1-K(v_1-v_2)\\ -w^2v_2=-c^2k^2v_2-K(v_2-v_1) \end{matrix}\right. math Para desacoplarlas, se suman y se restan ambas ecuaciones y queda un sistema en dos variables independientes: math \left\{\begin{matrix} -w^2(v_1+v_2)=-c^2k^2(v_1+v_2)\\ -w^2(v_1-v_2)=-c^2k^2(v_1-v_2)-2K(v_1-v_2) \end{matrix}\right. math
 * Ejercicio 31**: TF a un sistema. Desacoplar y relación de dispersión:

Las variables independientes son la suma y la diferencia de las dos transformadas: math \left\{\begin{matrix} v_3=(v_1+v_2)\\ v_4=(v_1-v_2) \end{matrix}\right.\rightarrow \left\{\begin{matrix} v_3[c^2k^2-w^2]=0\\ v_4[c^2k^2+2K-w^2]=0 \end{matrix}\right. math La relación de dispersión para cada variable es lo que va entre corchetes.

math w=\pm \sqrt{c^2k^2+w_0^2} math
 * Ejercicio 32:** Sistema de evolución unitaria con relación de dispersión:

No entiendo este ejercicio:
 * Ejercicio examen 5b:** Si se conoce el espectro de A, hallar autovalores de B con B=A(daga)·A

Si la base de autovectores de A no es ortogonal, no puede ser la base de B: Ejemplo:

math A=\begin{pmatrix} 0 & 2\\ -1& 0 \end{pmatrix} math sus autovectores son math \begin{pmatrix} 2\\ \sqrt{2}i \end{pmatrix} \mathrm{y} \begin{pmatrix} -2\\ \sqrt{2}i \end{pmatrix} math que no son ortogonales.

B es: math B=A^\dagger A=\begin{pmatrix} 0 & -1\\ 2& 0 \end{pmatrix}\begin{pmatrix} 0 & 2\\ -1& 0 \end{pmatrix}=\begin{pmatrix} 1 &0 \\ 0& 4 \end{pmatrix} math que no tiene como autovectores los de A. (??)

**BLOQUE III**
Membrana elástica:

v=u-To para tener condiciones iniciales iguales a cero. La base ortogonal de autofunciones del laplaciano que se ajusta a las condiciones de contorno del problema es: math X_nY_m=cos(k_nx)cos(k_my) math con math k_n=\frac{n\pi}{a} \textrm{con n=0,1... y }k_n=\frac{n\pi}{b}\textrm{con m=0,1... } math
 * Ecuación del calor en recinto rectangular adiabático, con foco de calor:**

Nos queda por tanto, determinar los coeficientes de fourier: T math v=\sum_{n,m}^{\infty }T_{nm}X_nY_m math Sustituyendo en la ecuación del calor+ecuación de autovalores+igualar término a término: math \dot{T}_{nm}=-\alpha (k_n^2+k_m^2)T_{nm}+f_{nm} math (ecuación para los coeficientes de fourier)

FOCO DE CALOR CTE math f=B=cte\Rightarrow \sum_{nm}^{ }f_{nm}X_nY_m=BX_0Y_0\Rightarrow \begin{cases} & f_{00}=\frac{B}{ab} \\ & f_{nm}=0 \end{cases} math El denominador ab del modo (0,0) viene de normalizar la autofunción de dicho modo. La solución para los coeficientes de fourier de los modos distintos del (n=0,m=0) son una exponencial con coeficientes que se determinan a partir de la condición incial, en este caso se anulan.

La ecuación para el modo (n=0,m=0): math \dot{T}_{00}=f_{00}=B\Rightarrow T_{00}=\frac{B}{ab}t math math u=\frac{B}{ab}t+T_0 math

FOCO PUNTUAL math f=\beta \delta (x-\frac{a}{2},y-\frac{b}{2})\Rightarrow \left\{\begin{matrix} f_{nm}=\frac{4\beta}{ab}cos(k_n\frac{a}{2})cos(k_m\frac{b}{2}) & \textit{si }n,m\neq 0\\ f_{n0}=\frac{2\beta}{ab}cos(k_n\frac{a}{2}) & \textit{si }n\neq 0\\ f_{0m}=\frac{2\beta}{ab}cos(k_m\frac{b}{2}) & \textit{si }m\neq 0\\ f_{00}=\frac{\beta}{ab} & \end{matrix}\right. math

La solución para los coeficientes de fourier son: math \left\{\begin{matrix} T_{nm}=\frac{1}{\alpha(k_n^2+k_m^2)}[f_{nm}-A_{nm}e^{-\alpha(k_n^2+k_m^2)t}]\\ T_{00}=\frac{\beta}{ab}t+A_{00} \end{matrix}\right. math con condiciones iniciales iguales a cero se determina Anm=fnm y Aoo=0, quedando finalmente: math v=\sum_{nm }^{ \textit{n y m no 0} }\frac{f_{nm}}{\alpha(k_n^2+k_m^2)}[1-e^{-\alpha(k_n^2+k_m^2)t}]X_nY_m+\frac{\beta}{ab}t math

La función generatriz es: math g(x,t)=e^{\frac{x}{2}(t-\frac{1}{t})}=\sum_{n=-\infty }^{\infty }J_nt^n math Se deriva respecto de x en su forma exponencial y en su desarrollo en serie: math \frac{\partial g}{\partial x}=\sum_{n=-\infty }^{\infty }\frac{dJ_n}{dx}t^n math math \frac{\partial g}{\partial x}=\frac{1}{2}(t-\frac{1}{t})e^{\frac{x}{2}(t-\frac{1}{t})}= \frac{1}{2}(t-\frac{1}{t})\sum_{n=-\infty }^{\infty }J_nt^n=\sum_{n=-\infty }^{\infty }t^n\frac{1}{2}[J_{n-1}-J_{n+1}] math Se igualan ambas expresiones término a término para cada potencia de t. (independencia lineal) math \frac{dJ_n}{dx}=\frac{1}{2}[J_{n-1}-J_{n+1}] math
 * Derivada de una función de Bessel en función de funciones de Bessel:**


 * Autofunciones y autovalores del Laplaciano en cilíndricas para CC de 1ª especie:**



Para la coordenada angular no se determina el origen, es función de seno y coseno: math V_{nml}(r,\theta ,z)=J_m(\frac{x_{nm}}{\rho }r)[A_msin(m\theta )+B_mcos(m\theta )]sin(l\frac{\pi}{L}z) math


 * Reactor esférico: Laplaciano en esféricas CC de 1ª especie homogéneas.**


 * Problemas puntuados, hoja 2:**