Optimizacion sin Restricciones: metodo del gradiente

En este video explico la programacion y demuestro la razon de convergencia del metodo. Breve, muy breve historia. Iteracion basica del metodo. ¿Por que se le llama direccion de maximo descenso? Caso ideal y ejemplo. Busqueda lineal exacta. Resultados graficos. ¿Por que es lento el metodo? Programacion del metodo en Matlab. Razon de convergencia
f_co.m

function z = f_cu(x,A,b,c)
z=0.5*(transpose(x)*A*x)-transpose(b)*x+c;
end
        

grad_cu.m
function z = grad_cu(x,A,b,c)
z=A*x-b;
end
        

lambda_cu.m
function z = lambda_cu(g,A)
z=(transpose(g)*g)/(transpose(g)*A*g);
end

met_grad.m
A=[4 2;2 3];
b=[1;-1];
c=1;
x=[3;-2];
f=f_cu(x,A,b,c);
g=grad_cu(x,A,b,c);
l=lambda_cu(g,A);
k=0;
while norm(g)>=10^(-3) && k<=100
  fprintf("%1.0f \t (%1.3f,%1.3f) \t %1.3f \t %1.3f \t  %1.5f \n",k,x(1),x(2),l,norm(g),f)
  x=x-l*g;
  f=f_cu(x,A,b,c);
  g=grad_cu(x,A,b,c);
  l=lambda_cu(g,A);
  k=k+1;
end