web analytics

Autovectores: ¡otro inútil capricho de los matemáticos!

Cuando el profesor de Álgebra llega al capítulo de autovectores, es probable que muchos pensaran (¡o pensásemos!) algo como el título de esta entrada.

Honestamente, que el sufrido profesor le suelte a uno que, dada una matriz cuadrada A, queremos encontrar todos aquellos valores λ y vectores v que cumplen

A v = λ v

o equivalentemente

( A – λv = 0
pues ciertamente, parece un problema entre tantos posibles, sacado de la manga con el único aparente objetivo de torturar a los alumnos de primer curso de cualquier carrera de ciencias o ingeniería.


Sin embargo, hay pocas herramientas tan extremadamente útiles como el cálculo de autovalores (los λ) y autovectores (los v) de una matriz. Me atrevería a decir que hay pocas ramas científicas y técnicas en las que el análisis de autovalores no tenga una aplicación en un tema fundamental, directa o indirectamente.Para hacernos una idea, olvidémonos de las fórmulas de arriba. En cambio, veamos con ejemplos qué ocurre dependiendo de qué signifique la matriz A.

Imaginemos un cuerpo sólido, de casi cualquier tipo. Pues bien, si partimos el sólido en una serie finita de «trozos», podemos modelar cuánta masa tiene cada uno y cómo de «fuertemente unido» está a sus «trozos» vecinos. Haciendo esto sistemáticamente podemos formar con los primeros números una matriz de masas M y con los segundos una matriz de rigidez K. Usando un principio de elasticidad básico, podemos plantear la segunda Ley de Newton (aquello de F=ma) para todas las partes del sólido (con coordenadas x) y nos daría: \( – \mathbf{K} \mathbf{x} = \mathbf{M} \ddot{\mathbf{x}} \)

Y ahora viene lo curioso: esta forma tan sencilla nos permite predecir con gran precisión cómo vibrará, y a qué frecuencias, cualquier objeto sólido. Operando, y llamando ω a las frecuencias, tenemos:

\( \mathbf{M}^{-1} \mathbf{K} \mathbf{x} = \omega^2 \mathbf{x} \)
Que no es más que un problema de autovalores, donde las λ del principio (autovalores) ahora son el cuadrado de las frecuencias (angulares) de resonancia del cuerpo y la matriz A es \( \mathbf{M}^{-1} \mathbf{K} \). Pero eso no es todo: los autovectores x además nos indican, para cada modo de vibración (para cada autovalor), de qué forma exacta se va a mover el cuerpo.
 
Mejor verlo con ejemplos. El primero, muy sencillo, corresponde al primer modo de vibración (al de frecuencia más baja, y por tanto, más fácil de excitar) de una viga metálica empotrada en una pared y con un extremo libre:
Primer modo de vibración de una viga empotrada en voladizo (créditos)

Pero como dije, exactamente el mismo método nos permite analizar cuerpos tan complejos como este modelo de una moto BMW K1200S. El siguiente vídeo muestra su modeo de vibración a 8Hz (¡tranquilos, está exagerada por 10000, sino no habría quien aguantase encima!):

 

Otra aplicación universal de los autovectores es determinar los ejes de un sistema de coordenadas a partir de una serie de datos. Dicho así, parece muy abstracto (¡y lo es!), así que veamos casos concretos.

Imagina que tomas una base de datos de fotos de caras de personas. Si se ordenan todos los píxeles de las fotos de una determinada forma (de matriz, como no) podemos calcular los autovectores, que en este caso se llaman eigenfaces (¡no pienso traducirlo!), y al volver a interpretarlos como imágenes obtendríamos imágenes fantasmagóricas como estas:

Eigenfaces: Nunca un autovector te había mirado con esa carita (fuente)

Lo importante del asunto es que, automáticamente, los autovectores nos dicen las características más relevantes de cualquier conjunto de datos (en esto se basado el PCA). Esas caras se pueden interpretar por tanto como una representación de las facciones más distintivas de cada una de las personas del conjunto de fotos usado.

Otra aplicación del mismo principio, menos espectacular pero quizás más didáctica, es la de obtener los ejes principales de una matriz de dispersión (o de covarianza) de un conjunto de muestras. En cristiano: ver en qué direcciones tienden a estar alineados un montón de puntitos.

Un ejemplo en dos dimensiones: si calculamos la matriz de covarianza de los puntos de la figura, sus dos autovectores nos indican las direcciones marcadas por flechas, cuya longitud está dada por los autovalores. Y el autovector del mayor autovalor nos dice la dirección principal en la que se alinean los puntos. ¿Fácil, verdad?

Nube de puntos 2D y sus autovectores escalados por sus autovalores (fuente)

Y para terminar, otra aplicación sorprendente de los autovectores: la física cuántica. El concepto de autovalores se puede aplicar a la ecuación de Schrödinger u otras más complejas (Hartree-Fock) para averiguar cómo se comportan las partículas más microscópicas como electrones «orbitando» en un átomo, incluso dentro de una molécula compleja.

En este caso, los autovalores tienen la interpretación de la energía de cada estado, y los autovectores nos indican las funciones de onda que describe el objeto estudiado (p.ej. el tipo de órbita).

Autovectores, u órbitas, de un electrón en un átomo de hidrógeno (fuente).

En teoría de grafos, también tienen los autovectores una aplicación crucial: aplicadas a la matriz de conectividad (Laplaciana) del grafo, nos dan información crítica sobre su estructura.

De hecho, usas una variación de este método a diario: el método Page Rank de Google está basado en la teoría de autovectores para decidir qué páginas son realmente más relevantes a la hora de resolver búsquedas.

Ejemplo de Page Rank (leer mucho más, en inglés)

Y tú, ¿para qué es lo más raro que has empleado los autovalores y autovectores?

Con esta entrada participo en la edición 2.X del Carnaval de Matemáticas (web del Carnaval), hospedado en esta edición en Resistencia Numantina. En Twitter: #CarnaMat2_X

Puede que también te guste...

Shares