Seja D=a²+b²+c² onde a e b são inteiros consecutivos e
c=ab. Então prove que a raiz quadrada de D é sempre um inteiro
ímpar.
Se xyz=1 então (1/1+x+xy)+(1/1+y+yz)+(1/1+z+xz) é igual
a?R:1
Se 1-y for usado como aproximação de 1/1+y com
| y | menor que 1, a razão do erro cometido para o valor exato é:
R:y²
|