logo

logo

viernes, 2 de diciembre de 2011

Ecuacion de Calor

La ecuación del calor es una importante ecuación diferencial en derivadas parciales que describe la distribución del calor (o variaciones de la temperatura) en una región a lo largo del transcurso del tiempo. Para el caso de una función de tres variables en el espacio (x,y,z) y la variable temporal t, la ecuación del calor es
\frac{\partial T}{\partial t} -\alpha\left(\frac{\partial^2T}{\partial x^2}+\frac{\partial^2T}{\partial y^2}+\frac{\partial^2T}{\partial z^2}\right)=0
donde α es la difusividad térmica, que es una propiedad del material.
La ecuación del calor es de una importancia fundamental en numerosos y diversos campos de la ciencia. En las matemáticas, son las ecuaciones parabólicas en derivadas parciales por antonomasia. En la estadística, la ecuación del calor está vinculada con el estudio del movimiento browniano a través de la ecuación de Fokker–Planck. La ecuación de difusión, es una versión más general de la ecuación del calor, y se relaciona principalmente con el estudio de procesos de difusión química.

La ecuación del calor predice que si un cuerpo a una temperatura T se sumerge en una caja con agua a menor temperatura, la temperatura del cuerpo disminuirá, y finalmente (teóricamente después de un tiempo infinito, y siempre que no existan fuentes de calor externas) la temperatura del cuerpo y la del agua serán iguales (estarán en equilibrio térmico).

Ecuaciones de Laplace

En cálculo vectorial, la ecuación de Laplace es una ecuación en derivadas parciales de segundo orden de tipo elíptico, que recibe ese nombre en honor al físico y matemático Pierre-Simon Laplace.
Introducida por las necesidades de la mecánica newtoniana, la ecuación de Laplace aparece en muchas otras ramas de la física teórica como la astronomía, la electrostática, la mecánica de fluidos o la mecánica cuántica.

En tres dimensiones, el problema consiste en hallar funciones reales doblemente diferenciables, una función \scriptstyle u de variables reales x, y, y z, tal que
En coordenadas cartesianas

{\partial^2 u\over \partial x^2 } +
{\partial^2 u\over \partial y^2 } +
{\partial^2 u\over \partial z^2 } = 0.
En coordenadas cilíndricas,
  {1 \over \rho} {\partial \over \partial \rho}
  \left( \rho {\partial u \over \partial \rho} \right) 
+ {1 \over \rho^2} {\partial^2 u \over \partial \theta^2}
+ {\partial^2 u \over \partial z^2 } =0
En coordenadas esféricas,
  {1 \over r^2} {\partial \over \partial r}
  \left( r^2 {\partial u \over \partial r} \right) 
+ {1 \over r^2 \sin \varphi} {\partial \over \partial \varphi}
  \left( \sin \varphi {\partial u \over \partial \varphi} \right) 
+ {1 \over r^2 \sin^2 \varphi} {\partial^2 u \over \partial \theta^2} =0
Muchas veces se escribe de la siguiente manera:
\nabla^2 u = 0 \,
donde \nabla^2 es el operador de Laplace o "laplaciano"
que también se escribe como:
\nabla \cdot \nabla u = 0,
donde \scriptstyle \nabla \cdot es la divergencia, y \scriptstyle \nabla es el gradiente
o sino, algunas veces la notación puede ser:
\Delta u = 0,\,
donde Δ también es el operador de Laplace.
Las soluciones de la ecuación de Laplace se denominan funciones armónicas.
Si del lado derecho de la igualdad se especifica una función, f(x, y, z), es decir, si la ecuación se escribe como:
\Delta u = f\,
entonces se tiene la "ecuación de Poisson", por lo que la ecuación de Laplace es un caso particular de esta. La ecuación de Laplace también es un caso particular de la ecuación de Helmholtz.
La ecuación de Laplace, así como también la ecuación de Poisson, son los ejemplos más simples de ecuaciones en derivadas parciales elípticas.

Tlabla de la transformada de Laplace



Ecuaciones de Schrodinger

La ecuación de Schrödinger, en su forma más general, indica la variación que sufre un estado física, a lo largo del tiempo, cuando el sistema que describe se encuentra sometido a un hamiltoniano de la forma . En estas condiciones, la ecuación de Schrödinger se escribe de la forma


En la mayor parte de las ocasiones, el hamiltoniano puede escribirse como suma de los operadores de energía cinética y de energía potencial. Además, normalmente se puede descomponer el operador de energía cinética como la suma de la energía cinética de cada partícula, que suele poderse escribir en función del momento lineal (de igual forma que en mecánica cuántica),


Es también común escribir la ecuación de Schrödinger en base de posiciones. En esta base, se define la función de onda , que está relacionada con la probabilidad de que en el tiempo $ t$ se encuentre la primera partícula en la posición , la segunda en , etc. Además, el operador momento se puede escribir como una derivada espacial, es decir . Así, pues, la ecuación de Schrödinger toma la forma de una ecuación diferencial en derivadas parciales



La forma en que Erwin Schrödinger derivó su ecuación, partiendo de una analogía entre las ecuaciones de Hamilton-Jacobi y la óptica geométrica, es la versión para una sola partícula, que se escribe de la forma




Para el caso tridimensional se puede escribir así:

Una clase importante de problemas, son aquellos para los cuales es constante.
Este tipo de problemas se llaman de estado estacionario, la densidad de probabilidad no depende del tiempo.
Esto implica que

Para lo cual, se puede plantear:

(con E constante)
En efecto:



Con lo cual, la ecuación de Schrodinger para el estado estacionario, es la siguiente:

No debemos olvidar que la solución será independiente del tiempo, pues se trata de estados estacionarios.
Así que la solución buscada será solo función de la posición, y no del tiempo.

Polinomios de Chebyshev

En matemática se conoce como polinomios de Chebyshev, en honor a Pafnuty Chebyshev, a una sucesión de polinomios ortogonales que están relacionados a la fórmula de De Moivre y que se definen recursivamente con sencillez, como los números de Fibonacci o los de Lucas. Normalmente se distingue entre los polinomios de Chebyshev de primer tipo que se indica como Tn y los polinomios de Chebyshev de segundo tipo que se indican mediante Un. Se usa la letra T debido a las transliteraciones alternativas del nombre de Chebyshev como Tchebyshef o Tschebyscheff.
Los polinomios de Chebyshev Tn o Un son de grado n y la sucesión de los plinomios de de Chebyshev de cualquier tipo compone una sucesión polinómica.
Los polinomios de Chebyshev son importantes en la teoría de la aproximación porque las raíces de los polinomios de primer tipo, también llamadas nodos de Chebyshev, se usan como nodos en la interpolación polinómica. La interpolación polinómica resultante minimiza el problema del fenómeno de Runge y se acerca al polinomio de mejor aproximación de una función continua bajo la norma uniforme. Esta aproximación lleva directamente al método de la cuadratura de Clenshaw-Curtis.
En el estudio de ecuaciones diferenciales surgen como solución a las ecuaciones diferenciales de Chebyshev
(1-x^2)\,y'' - x\,y' + n^2\,y = 0
y
(1-x^2)\,y'' - 3x\,y' + n(n+2)\,y = 0
para los polinomios de primer y segundo tipo, respectivamente. Estas ecuaciones son casos especiales de la ecuación diferencial de Sturm-Liouville.

Los polinomios de Chebyshev del primer tipo se definen mediante la relación de recurrencia
T_0(x) = 1 \,
T_1(x) = x \,
T_{n+1}(x) = 2xT_n(x) - T_{n-1}(x). \,
Un ejemplo de función generatriz de Tn es
\sum_{n=0}^{\infty}T_n(x) t^n = \frac{1-tx}{1-2tx+t^2}.
Los polinomios de Chebyshev de segundo tipo se definen mediante la relación de recurrencia
U_0(x) = 1 \,
U_1(x) = 2x \,
U_{n+1}(x) = 2xU_n(x) - U_{n-1}(x). \,
Un ejemplo de función generatriz de Un es
\sum_{n=0}^{\infty}U_n(x) t^n = \frac{1}{1-2tx+t^2}.  

Funcion Gamma

En matemáticas, la función Gamma (denotada como  \scriptstyle \Gamma(z)\,\! ) es una función que extiende el concepto de factorial a los números complejos. La notación fue ideada por Adrien-Marie Legendre. Si la parte real del número complejo z es positivo, entonces la integral
 \Gamma(z) = \int_0^\infty t^{z-1} e^{-t}\,dt
converge absolutamente, esta integral puede ser extendida a todo el plano complejo excepto a los enteros negativos y al cero.
Si n es un entero positivo, entonces
 \Gamma(n) = (n-1)!\,
lo que nos muestra la relación de esta función con el factorial. De hecho, la función Gamma generaliza el factorial para cualquier valor complejo de n.
La función Gamma aparece en varias funciones de distribución de probabilidad, por lo que es bastante usada tanto en probabilidad y estadística como en combinatoria.

Si la parte real del número complejo z es positiva (Re(z) > 0), entonces la integral

\Gamma(z) = \int_0^\infty t^{z-1} e^{-t}\,dt \,\!
converge absolutamente. Usando la integración por partes, se obtiene la siguiente propiedad:
\Gamma(z+1)=z \, \Gamma(z)
Esta ecuación funcional generaliza la relación n! = n(n − 1)! del factorial. Se puede evaluar Γ(1) analíticamente:
 \Gamma(1) = \int_0^\infty e^{-t} dt = \lim_{k \rightarrow \infty} \left. -e^{-t} \right |_0^k = -0 - (-1) = 1.
Combinando estas dos relaciones se obtiene que el factorial es un caso especial de la función Gamma:
\Gamma(n+1) = n \, \Gamma(n) = \cdots = n! \, \Gamma(1) = n!\,
para los números naturales n.
La función Gamma es una función meromorfa de z\in\mathbb{C} con polos simples en z = -n\,\,(n = 0,\,1,\,2,\,3,\,\dots) y residuos  \operatorname{Res}(\Gamma(z),-n) = \frac{(-1)^{n}}{n!}.1 Estas propiedades pueden ser usadas para extender Γ(z) desde su definición inicial a todo el plano complejo (exceptuando los puntos en los cuales es singular) por continuación analítica.

Obtención de la ecuación funcional usando integración por partes

Obtener Γ(1) es sencillo:
\Gamma(1) = \int_0^\infty e^{-x} x ^{1-1} dx = \int_0^\infty e^{-x} dx = -e^{-\infty} - (-e^0) = 0 - (-1) = 1
Ahora obtendremos una expresión para Γ(n + 1) como una función de Γ(n):
\Gamma(n + 1) = \int_0^\infty e^{-x} x ^{n + 1 - 1} dx = \int_0^\infty e^{-x} x ^n dx
Usamos integración por partes para resolver la integral
\int_0^\infty e^{-x} x ^n dx = \left[\frac{-x^n}{e^x}\right]_0^\infty + n \int_0^\infty e^{-x} x ^{n - 1} dx
En el límite inferior se obtiene diréctamente \frac{-0^n}{e^0} = \frac{0}{1} = 0.
En el infinito, usando la regla de L'Hôpital:
\lim_{x \rightarrow \infty} \frac{-x^n}{e^x} = \lim_{x \rightarrow \infty} \frac{-n! \cdot 0}{e^x} = 0.
Por lo que se anula el primer término, \left[\frac{-x^n}{e^x}\right]_0^\infty , lo que nos da el siguiente resultado:
\Gamma(n + 1) = n \int_0^\infty e^{-x} x ^{n - 1} dx
La parte derecha de la ecuación es exactamente nΓ(n), con lo que hemos obtenido una relación de recurrencia:
Γ(n + 1) = nΓ(n).
Apliquemos la fórmula a unos pocos valores:
\Gamma(2) = \Gamma(1 + 1) = 1\Gamma(1) = 1! = 1\,
\Gamma(3) = \Gamma(2 + 1) = 2\Gamma(2) = 2 \cdot 1! = 2! = 2\,
\Gamma(4) = \Gamma(3 + 1) = 3\Gamma(3) = 3 \cdot 2! = 3! = 6\,
\Gamma(n + 1) = n\Gamma(n) = n\cdot(n-1)! = n!   

 

 

Relación con otras funciones

  • En la representación integral de la función Gamma, tanto el límite superior como el inferior de la integración están fijados. La función gamma incompleta superior γ(a,x) e inferior Γ(a,x) se obtienen modificando los límites de integración superior o inferior respectivamente.
 \Gamma(a,x) = \int_x^{\infty} t^{a-1}\,e^{-t}\,dt .\,\!
 \gamma(a,x) = \int_0^x t^{a-1}\,e^{-t}\,dt .\,\!
  • La función Gamma está relacionada con la función beta por la siguiente fórmula
\Beta(x,y)=\frac{\Gamma(x) \; \Gamma(y)}{\Gamma(x+y)}. \,\!
\psi(x) =\psi^0(x) = \frac{\Gamma'(x)}{\Gamma(x)}
\psi^{(n)}(x) = \left(\frac{d}{dx}\right)^n \psi(x) = \left(\frac{d}{dx}\right)^{n+1} \log\Gamma(x)
\zeta(z) = \frac{1}{\Gamma(z)}\int_{0}^{\infty} \frac{u^{z-1}}{e^u - 1} \; \mathrm{d}u \,\!.
Fórmula válida sólo si \operatorname{Re}(z) > 1. También aparece en la ecuación funcional de ζ(z):

\pi^{-z/2} \; \Gamma\left(\frac{z}{2}\right) \zeta(z) = \pi^{-\frac{1-z}{2}} \; \Gamma\left(\frac{1-z}{2}\right) \; \zeta(1-z).