Oi para todos, Eu
estou um tanto intrigado com o que consta no excelente livro sobre Análise Real
(em R) publicado em 2000 por Robert Bartle e Donald Sherbert (dois grandes
autores), "Introduction to Real Analysis". No livro há uma prova daquele famoso teorema o qual diz que, se f é definida em um intervalo I e a é um ponto interior de I no qual as n-1 primeiras derivadas de f são nulas e a derivada de ordem n é diferente de zero, então:
Se n é par e a n-ésima derivada é >0, então f tem um mínimo relativo em a; Se n é par e a n-ésima derivada é <0, então f tem um máximo relativo em a; Se n é ímpar, então f não tem nem um máximo nem um mínimo relativos em a.
A prova baseia-se no Teorema de Taylor e os autores assumem – e é isto justamente o que me intriga – que a derivada de ordem n de f existe e é contínua em uma vizinhança de a. Ora, na realidade, parece-me que o teorema não requer uma hipótese tão forte, não é necessário assumir a continuidade de f^n em um a vizinhança de a. Nem sequer é necessário assumir que f^n exista em toda uma vizinhança de a. A simples existência de f^n já é suficiente para o teorema dos pontos extremos ser válido. Certo?
Eu realmente gostaria de saber porque autores consagrados assumem uma hipótese mais forte do que a necessária. (Apesar disto, recomendo intensamente este livro, é excelente)
Artur |