Entradas

4.3 Derivación numérica y derivación finitas

Imagen
DERIVACIÓN NUMÉRICA La  derivación numérica  es una técnica de análisis numérico para calcular una aproximación a la derivada de una función en un punto utilizando los valores y propiedades de la misma. La principal idea que subyace en las técnicas de derivación numérica está muy vinculada a la interpelación y se podría resumir en lo siguiente: Si de una función f(x) se conocen sus valores en un determinado soporte de puntos, puede ‘aproximarse” la función f(x) por otra función p(x) que la interpole en dicho soporte y sustituir el valor de las derivadas de f(x) en un punto x* por el valor de las correspondientes derivadas de p(x) en dicho punto x*. En ese entonces el concepto de límite no estaba desarrollado de forma explícita y Ia primera derivada de una función f(x) en el punto x* se consideraba como el valor del cociente incremental. Por definición la derivada de una función   es: Las aproximaciones numéricas que podamos hacer (para h > 0) serán: ...

4.2.2 Polinomios de interpolacion de lagrange

Imagen
POLINOMIOS DE INTERPOLACION DE LAGRANGE Empezamos con un conjunto de n+1 puntos en el plano (que tengan diferentes coordenadas x) : ( x 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ),....,(x n , y n ). Nuestro objetivo es encontrar una función polinómica que pase por esos n+1 puntos y que tengan el menor grado posible. Un polinomio que pase por varios puntos determinados se llama un polinomio de interpolación. Vamos a ver una forma de la solución que es el llamado polinomio de interpolación de Lagrange. (Lagrange publicó su fórmula en 1795 pero ya había sido publicada en 1779 por Waring y redescubierta por Euler en 1783). La fórmula general para el polinomio de interpolación de Lagrange es Don de usamos polinomios básicos de Lagrange:   Expandiendo el producto para verlo mejor: POLINOMIOS DE INTERPOLACION DE LAGRANGE EN MATLAB del polinomio de Lagrange en MATLAB, podemos emplear la funcion 'poly' construida con este proposito, la que construye un ...

4.2.1 Polinomio de interpolacion con diferencias divididas de newton

POLINOMIO DE INTERPOLACION CON DIFERENCIAS DIVIDIDAS DE NEWTON En  análisis numérico , la  interpolación polinómica  es una técnica de  interpolación  de un conjunto de datos o de una función por un  polinomio . Es decir, dado cierto número de puntos obtenidos por  muestreo  o a partir de un  experimento  se pretende encontrar un polinomio que pase por todos los puntos. Dada una función  f  de la cual se conocen sus valores en un número finito de abscisas  x 0 , x 1 ,..., x m , se llama  interpolación polinómica  al proceso de hallar un  polinomio   p m ( x ) de grado menor o igual a m. Motivación del polinomio interpolador La interpolación polinómica es un método usado para conocer, de un modo aproximado, los valores que toma cierta función de la cual sólo se conoce su imagen en un número finito de  abscisas . A menudo, ni siquiera se conocerá la expresión de la función ...

4.1.2.4 Regresión no lineal

REGRESIÓN NO LINEAL En  estadística ,  la regresión no lineal  es un problema de inferencia para un modelo tipo: y  =  f ( x ,θ) + ε basado en datos multidimensionales  x , y , donde  f  es alguna función  no lineal  respecto a algunos parámetros desconocidos  θ . Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor  curva de ajuste  (habitualmente, con el método de los  mínimos cuadrados ). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros así como pruebas de bondad de ajuste. El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la  regresión polinomial , la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función  f  toma la forma: f ( x ) =  ax 2  +  bx  +  c ...

4.1.2.3 Regresión lineal multiple

Imagen
REGRESIÓN LINEAL MÚLTIPLE El modelo de regresión lineal múltiple es idéntico al modelo de regresión lineal simple, con la única diferencia de que aparecen más variables explicativas:  Modelo de regresión simple:  y = b0+ b1 ⋅ x + u   Modelo de regresión múltiple:  y =b 0 + b1 ⋅ x1 +b 2 ⋅ x2 + b3 ⋅ x3 + ... + bk ⋅ xk + u Siguiendo con nuestro ejemplo, si consideramos el peso como variable dependiente y como posibles variables explicativas:  estatura  ƒ pie  ƒ l_brazo  ƒ a_espalda  ƒ d_craneo  El modelo que deseamos construir es:  peso = b0+b1* estatura+b2*pie+b3*1_brazo+b4*a_espalda+b5*d_craneo Al igual que en regresión lineal simple, los coeficientes b van a indicar el incremento en el peso por el incremento unitario de la correspondiente variable explicativa. Por lo tanto, estos coeficientes van a tener las correspondientes unidades de medida. REGRESIÓN LINEAL MÚLTIPLE EN MATLAB En el siguiente...

4.1.2.2 Regresión polinomial

REGRESIÓN POLINOMIAL El procedimiento Regresión Polinomial está diseñado para construir una modelo estadístico que describa el impacto de un solo factor cuantitativo X en una variable dependiente Y. Se ajusta a los datos un modelo polinomial que involucra a X y potencias de X. Se realizan pruebas para determinar el orden apropiado del polinomio. Se puede graficar el modelo ajustado con intervalos de confianza y/o predicción. También se pueden grafican residuos e identificar observaciones influyentes. * Variables y modelo: identificación de las variables de entrada y el modelo que se ajustó. Por omisión, se ajusta un modelo cuadrático de la forma Y = β0 + β1X + β2X2 (1) aunque se puede seleccionar un polinomio de diferente orden usando las Opciones de Análisis.  * Coeficientes: los coeficientes estimados, errores estándar, estadístico t, y valor P. Las estimaciones de los coeficientes del modelo se pueden usar para escribir la ecuación ajustada, que en el ejemplo es M...

4.1.2.1 Regrecion lineal simple

Imagen
REGRECION LINEAL SIMPLE El objeto de un análisis de regresión es investigar la relación estadística que existe entre una variable  dependiente  ( Y ) y una o más variables  independientes  (   , ... ). Para poder realizar esta investigación, se debe postular una relación funcional entre las variables. Debido a su simplicidad analítica, la forma funcional que más se utiliza en la práctica es la relación  lineal .  Cuando solo existe una variable independiente, esto se reduce a una línea recta: donde los coeficientes  b 0 y  b 1 son parámetros que definen la posición e inclinación de la recta.  (Nótese que hemos usado el símbolo especial  para representar el valor de  Y  calculado por la recta.  Como veremos, el valor real de  Y  rara vez coincide exactamente con el valor calculado, por lo que es importante hacer esta distinción.) El parámetro  b 0, conocido como la “ordenada en el ...