Presente em quase todos os aspectos do nosso cotidiano, o pensamento estatístico surgiu da necessidade de organização de conjuntos amplos de dados, como a quantia anual de nascimentos, óbitos ou colheitas registradas em um território, conforme testemunham os recenseamentos datados de 5000 a.C. atribuídos aos egípcios.
Através dos anos esse pensamento foi modificado e refinado, passando de simples técnica de arrolamento a um corpo de procedimentos capaz de aglutinar os dados coletados segundo critérios facilitadores de interpretações e previsões que extrapolam esses mesmos dados. A publicação do livro Observações naturais e políticas sobre os registros de óbito, em 1662, escrito pelo comerciante inglês John Graunt, foi um marco dessa evolução, e conta com o protótipo das Tábuas de Mortalidade, utilizadas contemporaneamente inclusive como suporte em discussões previdenciárias, e compostas por colunas que indicam idade, número de sobreviventes dentro da faixa de idade considerada, tempo médio vivido no intervalo etário em questão e outras funções.
A relevância desses procedimentos é igualmente expressiva para os mais diversos âmbitos da Engenharia de Materiais. Como exemplo, podemos imaginar uma situação em que desejamos investigar a resistência de um determinado material quando exposto a um meio degradante específico a temperaturas diversas e posterior flexão.
Primeiramente, é preciso submeter o conjunto amostral a ensaios que reproduzam essas condições a fim de observar o comportamento do material; mas antes mesmo de iniciá-los surge a pergunta: qual deve ser o tamanho desse conjunto? E a resposta ao impasse provém, justamente, da estatística; que oferece uma gama de modelos para a escolha do tamanho da amostra levando em consideração o tipo de objeto estudado – como o modelo de superpopulação, utilizado na análise de populações infinitas.
Concluídos os ensaios, inicia-se o processo de análise dos dados obtidos através de um intenso tratamento estatístico que compreende dois momentos distintos, assim delimitados de acordo com as características das técnicas utilizadas no decorrer de cada um. O primeiro consiste em um tratamento estatístico descritivo, no qual são calculadas médias, medianas, variância, desvio padrão e coeficientes de variação, possibilitando uma visão geral acerca da distribuição dos comportamentos representados pelos dados.
A etapa final da análise, por sua vez, é operada sobre a anterior com o intuito de validar os dados coletados mediante avaliação da sua qualidade. Para atingir esse objetivo, dispomos de uma ferramenta muito popular denominada análise de variância, através da qual ponderamos as diferenças entre as médias calculadas e, consequentemente, a adequação do corpo de resultados obtidos. Entretanto, a aplicação desse instrumento pressupõe a distribuição normal dos dados bem como a aleatoriedade dos erros experimentais, do contrário, os resultados não podem ser considerados válidos. E para assegurar tais condições, técnicas como a análise de resíduos e os testes de Shapiro-Wilk e de Cochran podem ser empregados.
Assim, ainda que muito variados entre si, esses instrumentos de análise servem ao propósito comum da sistematização de dados, permitindo que as informações coletadas a partir de uma amostra possam ser extrapoladas para a população a qual pertence o subconjunto amostral.
Gostou desse post? Entre e contato com a gente e nos dê o seu feedback!