Números Reais

Nessa postagem tratamos dos números reais. Primeiro apresentamos um texto explicativo e, no final, indicamos um vídeo. Um número real é um valor que representa uma quantidade ao longo de uma linha contínua, ou seja, um ponto sobre uma linha reta infinita, chamada de reta numérica ou reta real, onde os pontos correspondentes aos números inteiros são igualmente espaçados. A figura abaixo mostra um trecho dessa reta:
Trecho da reta real
Fonte: Wikipédia

O conjunto dos números reais R, é uma expansão do conjunto dos números racionais Q, englobando não somente os inteiros e os fracionários, positivos e negativos, mas também todos os números irracionais I. Exemplos de números irracionais são a raiz quadrada de 2 e a constante Pi. A expansão decimal de um irracional é sempre infinita e não periódica.

Histórico

Frações simples foram usadas pelos egípcios por volta de 1000 a.C.. O conceito de irracionalidade foi implicitamente aceito pelos primeiros matemáticos indianos (entre 750–690 a.C.), que sabiam que as raízes quadradas de certos números como 2 e 61 não podiam ser exatamente determinadas. Por volta de 500 a.C., os matemáticos gregos liderados por Pitágoras perceberam a necessidade de números irracionais, em particular a irracionalidade da raiz quadrada de 2.

A Idade Média trouxe a aceitação de números zero e dos números negativos, inteiros e fracionários, primeiro pelos matemáticos indianos e chineses e depois pelos matemáticos árabes, que também foram os primeiros a tratar números irracionais como objetos algébricos. O matemático egípcio Abu Kamil (850–930) foi o primeiro a aceitar números irracionais como soluções para equações quadráticas ou como coeficientes em uma equação, geralmente na forma de raízes quadradas, raízes cúbicas e raízes quartas.

No século XVI, Simon Stevin criou a base da notação decimal moderna e insistiu que não havia diferença entre números racionais e irracionais a esse respeito. No século XVII, Descartes introduziu o termo "real" para descrever as raízes de um polinômio. Nos séculos XVIII e XIX, houve muito trabalho sobre números irracionais. Johann Heinrich Lambert (1761) deu a primeira prova falha de que π não pode ser um número racional. Adrien-Marie Legendre (1794) completou a demonstração e mostrou que π não é a raiz quadrada de um número racional. Paolo Ruffini (1799) e Niels Henrik Abel (1842) construíram provas do teorema de Abel-Ruffini: que afirma que as equações gerais de grau cinco ou superior não podem ser resolvidas por uma fórmula geral que envolve apenas operações aritméticas e raízes.

O desenvolvimento do cálculo no século XVIII usou todo o conjunto de números reais sem defini-los de maneira clara. A primeira definição rigorosa foi publicada por Georg Cantor em 1871. Em 1874, ele mostrou que o conjunto de todos os números reais é não enumerável, mas o conjunto de todos os números algébricos é enumerável.


Indicamos agora o vídeo do Prof. Procópio tratando de forma interessante do assunto:

Comentários

Postagens mais visitadas