Herdando por acidente

Em 2000 professor e biólogo, Michael J. Skinner, estava em seu laboratório com a sua equipe fazendo testes em ratos com o intuito de avaliar o efeito danoso que agrotóxicos poderiam vir a ter em mulheres gestantes.  Os machos da primeira geração a nascer dessa prática, apresentaram ter testículos reduzidos e espermatozoides com menor atividade energética. Com o experimento concluído, a pesquisa se seguiu em fazer um novo cruzamento, mas pelo caso de uma troca acidental de ratos, o cruzamento seguinte foi efetuado com a prole gerada do procedimento anterior, e o curioso no final disso, foi que a linhagem seguinte nasceu com a mesma deformidade de seus pais. O evento deixou o Prof. Skinner severamente intrigado, pelo período de gestação em que a primeira geração foi exposta, a deformidade não poderia ter lhes alterado geneticamente e se tornado hereditariamente persistente.  Para avaliar a persistência de tal característica, ele continuou a fazer cruzamentos com a mesma linhagem isolada e notadamente, a alteração morfológica se manteve por mais cinco gerações. Até aquela época, a palavra “Epigenético” ainda era pouco usada.

Como sabemos, fator epigenético é uma informação extragenética que a partir de alterações no DNA (ou até de outros elementos que trabalham junto a ele) pode inibir ou ativar a função que certos genes desempenham para os organismos. Diversos fatores podem provocar a manifestação epigenética, na verdade as células em sim já possuem vários sistemas para administrar esses fatores para que não influenciem no DNA e que assim os genes continuem seu trabalho normalmente, mas ainda assim, alguns sistemas podem falhar na revisão e permitir que a informação epigenética possa ser fixada e propagada.

Os trabalhos do Prof. Skinner após os eventos 2000/2001, se fixaram em uma forma de informação epigenética, a que ele chamaria de “Epimutações”, ele acreditava na possibilidade de que esse tipo de informação poderia ser proveniente da exposição de substâncias cotidianas as quais teriam uma influência em nossas condições emocionais, como temperamento, estresse e ansiedade.  Além disso, apresentar hereditariedade, de acordo com o período de exposição à substância (propensão muito maior durante o período gestativo), e manifestações secundárias anatômicas ou fisiológicas.  Conforme Michael Skinner foi processando essa nova ideia e tirando novas conclusões de seus trabalhos, duas questões foram apresentadas: “É possível que a saúde de nossos filhos possa ter tido predeterminação a partir da gestação de nossos bisavós” e “O quanto isso possa definir a evolução da espécie”.

Michael Skinner tem publicações em revistas e artigos desde de 2005 evidenciando algumas de suas teorias. Em outros experimentos cruzando ratos e os expondo a outros compostos, conseguiram criar linhagens com outros padrões de comportamento, taxas metabólicas, fertilidade prematura. E a partir das avaliações feitas, olhos começaram a se voltar ao próprio homem. Como poderíamos comparar os efeitos das modificações transgeracionais na espécie humana? A revista Scientific American nº 148 disponibilizou uma matéria em divulgação a pesquisa do Prof. Skinner e a colaboração de outros pesquisadores em ajudar nessas questões. O que se pode concluir na relação entre epimutações e saúde foi que realmente, os indícios de que epimutações estão em ação são certos. Entrevistas com mulheres e coletas de dados feitos em lugares que apresentaram episódios de grande exposição às substâncias como dioxina e DDT ou em lugares que tiveram crises de escassez de alimento, apresentaram aumento no risco de infertilidade, pressão alta e predisposição às doenças cardíacas em até duas gerações seguintes. Distúrbios reprodutivos e metabólicos aparentam ser as manifestações mais comuns em humanos, apesar de que condições emocionais, como o estresse, já são suficientes para afetar as gerações seguintes.

A questão evolutiva ainda se encontra incerta, pois muitas das epimutações que ocorreram em ratos se corrigiram poucas gerações depois e ainda se encontram dificuldades em saber como avaliar isso na espécie humana. Se você procurar na internet, o mais provável é encontrar matérias falando que epimutações são quase irrelevantes para a mutação. Mas aí é que Michael Skinner entra de frente nesse argumento, que mesmo apesar de todas as variáveis que impedem a fixação desse tipo de informação, também encontramos muitos que podem induzir. Levando em consideração a quantidade variedades de mudanças transgeracionais que um ambiente pode induzir incluindo o fato de que uma mudança epigenética pode ter até mil vezes mais chance de ocorrer do que uma mutação normal, o que torna mais plausível ela ser subsequente de uma outra futura mutação que gerará melhores condições de sobre vivência para um organismo, o que ao mesmo tempo poderia explicar os curiosos casos de mutações mais avançadas do que o que seria previsto. E mesmo que alguns considerem essas especulações muito subjetivas e pouco metodológicas, Michael Skinner diz: “Nada está impedindo que isso possa acontecer”, aliás, até pouco tempo epigenética era algo que pouco se via a oferecer.

Expansão e contração na família Polypteridae

Polipterídeos, popularmente conhecidos como bichires, são considerados o grupo mais basal de todos os actinopterígios (peixes de nadadeiras raiadas), divergindo dos mesmos há 400-390 MA. Eles possuem muitos traços que hoje em dia são encontrados exclusivamente em fósseis ou outros grupos. Pulmões bilobados sem traquéia, base das nadadeiras pares carnosas, nadadeira caudal dificerca/ heterocerca (há uma discussão enorme em relação a isso), brânquias externas nas larvas. Naturalmente, também possuem sua própria história evolutiva e carregam traços derivados, como suas pínulas dorsais.

Grupos mais basais, que mudaram pouco desde sua história evolutiva, geralmente são considerados relictos, clados que tiveram uma diversificação muito maior na escala de tempo geológica, mas hoje se resume a poucas espécies, sobreviventes de um cataclismo ou mudanças ecológicas que dizimaram a maioria absoluta de seus coespecíficos (celacanto, tuatara, límulo, ornitorrinco, samambaiaçu, gingko) e nunca foram capazes de recuperar sua diversidade e nichos ecológicos outrora conquistados, seja por incapacidade de se adaptar ao novo ecossistema e/ ou pelo aparecimento de competidores mais eficazes. Muitos ainda só existem, porque seu nicho ecológico ainda não sofreu alteração significativa que os prejudicasse. Se não ocorrerem mudanças no ambiente que sejam favoráveis aos relictos, ou os próprios organismos não mudarem, é bem provável que daqui a alguns milhões ou dezenas de anos, estes táxons desapareçam.

Mas uma pesquisa publicada na revista Evolution, em 2013, mostra que no caso de Polypteridae, a história não seja a mesma de muitos relictos. (Poucas espécies unidas por um ancestral comum extremamente remoto ou clado monotípico). Conhecidos desde o período Cretáceo, com registros na África e na América do Sul (atualmente restritos apenas na primeira) assumiram vários nichos ecológicos na época (Serenoichthys kemkemensis, 6 cm, Bawitius bartheli, 300 cm). Mas com a extinção K-T, ocorrida há 65 milhões de anos uma única linhagem conseguiu sobreviver a essa transição. Abordagens paleontológicas e neontológicas mostram que esta linhagem sobrevivente iniciou sua divergência há aproximadamente 19 MA no Mioceno, com a maioria das divergências interespecíficas surgindo no Plioceno e no Pleistoceno.

Acredita-se que essa diversificação tenha a ver com mudanças paleoclimáticas e tectônicas ocorridas no Neoceno, como por exemplo, a desertificação e ruptura de muitas bacias hidrográficas. Mudanças que proporcionaram a diversificação de muitos outros clados na época, como Hippopotamidae e Ariidae, sugerindo que muitos outros grupos aquáticos possam ter sido influenciados por essas mudanças na época.

Algo surpreendente para um grupo considerado “primitivo”. Ou nem tanto, se lembrarmos que o conceito de “fóssil vivo” não passa de uma expressão informal, sem rigor no âmbito científico. Se os bichires não tivessem se adaptado às mudanças ecológicas que lhe foram impostas, no lugar de ver esses animais pessoalmente, conheceríamos apenas seu esqueletos e reconstituições artísticas em museus.

 

João Victor Lucas

De onde vem o altruísmo

A ocitocina (ou molécula do amor, se você preferir) é um neurotransmissor que está envolvido com a gestação e amamentação em mamíferos. Entre algumas de suas funções estão a de estimular contrações da musculatura uterina durante o trabalho de parto e também a ejeção do leite materno pelas glândulas mamárias. Mas o que isso tem a ver com conceitos como amor, afeto, carinho e confiança? Para responder esta pergunta, precisamos analisar estudos sobre outros efeitos da ocitocina. Além de executar as funções citadas acima, foi evidenciado que ela também participa incentivando ações de cooperação, cuidado parental, busca por afiliação e outras formas de comportamento social em nós, mamíferos. A generosidade e o altruísmo humanos também são influenciados pela produção (ou até inalação) de ocitocina. De fato, experimentos realizados com o intuito de compreender essa influência demonstraram que a inalação desta substância foi suficiente para amplificar a generosidade de um grupo de adultos ao dividirem uma quantia em dinheiro com estranhos, por exemplo. Neste experimento, os sujeitos tinham a opção de dar uma pequena quantia para um completo estranho, ou até não dar nada caso quisessem. Mesmo assim, o grupo de pessoas que inalaram ocitocina foi 80% mais generoso do que o grupo controle (que recebeu um placebo). Isso mostra como o nosso julgamento de ganho versus perda é afetado por sentimentos de confiança e empatia.

Outro achado sobre a “molécula do amor” consiste na sua capacidade de reduzir a intensidade de reações como medo e ansiedade. E como se faz para averiguar isso? Utilizando ressonância magnética funcional para observar como o cérebro reage a estímulos visuais aversivos sob efeito de ocitocina e depois comparando com os cérebros que não receberam uma dose do hormônio. E isso foi feito, como mostra este artigo do The Journal of Neuroscience (http://www.jneurosci.org). Os cientistas obtiveram evidências de que a administração de ocitocina foi suficiente para reduzir a resposta do sistema nervoso autônomo simpático nos sujeitos, consequentemente diminuindo os sintomas fisiológicos da emoção de medo. Então é por isso que nos sentimos seguros, bem cuidados e protegidos quando estamos perto de alguém que amamos? Bom, talvez seja apenas uma questão de tempo até termos a resposta para essa pergunta, mas por enquanto só o que podemos dizer é que a ocitocina tem alguma coisa a ver com isso.

Por fim, vamos pensar em uma possibilidade divertida: Se inalar um pouco desse neurotransmissor pode fazer alguém ser mais altruísta, generoso ou até deixar de ser ansioso (além de se tornar mais propenso a desenvolver laços emocionais), porque ainda não podemos simplesmente comprar poções do amor pela internet? Porque não é assim que funciona (ainda bem!). Diversas inconsistências nos resultados de estudos sobre a influência da ocitocina no comportamento humano levam à conclusão de que seu efeito depende do contexto, e sobretudo de quais indivíduos estão envolvidos no processo³. Não basta dar uma dose de “moléculas do amor” pra uma pessoa e isso a transformará no seu mais novo namorado(a). Isso quer dizer que existem outros fatores que compõem a formação de laços entre nós, humanos. E talvez esses laços sejam combinações únicas entre tais fatores.

Referências:

1- http://www.sciencedirect.com/science                                 2- http://journals.plos.org/plosone/article                           3- http://www.cell.com/trends/cognitive-sciences/

Tudo é feito de átomos

Atomos-y-electricidad-7

Você já parou para pensar qual é a informação mais importante do mundo? Se a humanidade fosse dizimada hoje por um cataclismo e pudéssemos deixar apenas uma única informação para os poucos sobreviventes, qual seria ela? Segundo Richard Feynman, no seu livro Lectures on Physics, a informação mais preciosa seria: tudo é feito de átomos e qualquer coisa pode ser descrita como uma relação entre eles. De fato, a ideia de átomos é muito importante e permeia a cabeça de alguns pensadores desde antes de Cristo. Ela surge, pelo que sabemos, com Leucipo e foi aprimorada por seu aprendiz, Demócrito. Na verdade, Leucipo se perguntou se a matéria era contínua, ou seja, se partimos um pedaço de madeira várias e várias vezes em partes cada vez menores, chegaremos a um ponto que ele não poderá ser mais partido ou não existe um ”chão” para a matéria? Podemos pensar nisso como um mergulho infinito para dentro da matéria.

Os átomos permaneceram esquecidos por alguns séculos, pois não haviam maneiras práticas de investigar essa ideia. Mas no século XVII, Robert Hook conseguiu observar coisas incríveis através dos primeiros microscópios eficientes. Entre elas estava os olhos compostos de uma mosca que são formados por dezenas de olhos individuais. Ele notou que um olho simples da mosca tinha um tamanho da ordem de um micrômetro (10-6 metros). Ora, um olho não pode ser formado por um único átomo, afinal os olhos não são a unidade fundamental da matéria de nenhum ponto de vista plausível. Logo, os átomos devem ter um tamanho muito menor que um micrômetro.

Benjamin Fraklin também investigou, mais tarde, a intrigante ideia do tamanho das unidades fundamentais da matéria. O modo como ele o fez foi bastante simples, mas também extremamente genial. Na época, conheciam-se algumas propriedades da trioleína, que é um ácido graxo, entre elas a incrível capacidade de se espalhar de uma maneira muito uniforme por uma superfície. Era sabido que água e óleos não se misturam com facilidade, e dada essa propriedade da trioleína, Benjamin pegou um volume conhecido do óleo e o jogou sobre uma superfície calma de um lago na Inglaterra. Quando todo o óleo se espalhou pela superfície do lago, ele mediu a área da mancha que a trioleína fez no lago e dividiu o volume que ele havia jogado sobre a água do lago pela área obtida nas suas medições. Pense nisso como um problema simples de geometria espacial onde a área da base, ou seja, a área da mancha de óleo, vezes a altura, ou seja, a espessura da camada de óleo, dão o volume total.  O resultado encontrado por ele foi da ordem de um nanômetro (10−9 metros). Isso significava que os átomos devem ter pelo menos um nanômetro de espessura. De fato, Benjamin Franklin se aproximou bastante do valor mais aceito atualmente pela sociedade científica, que é de cerca de um angstrom (10-10 metros).

Um pouco depois de Fraklin, Pierre Laplace, um francês, e Thomas Young, um inglês, atacaram o problema do átomo. Nessa época, as ideias de Newton já eram bem conhecidas por toda a elite intelectual, e isso foi crucial para o desenvolvimento da teoria de Young-Laplace que, como veremos mais adiante, sugere de maneira extremamente elegante que átomos existem baseando numa observação muito simples: a transição de fase líquido-vapor.

O raciocínio inicia-se do ponto de vista molecular, ou seja, postulando a existência dos tais átomos. Ao analisar as moléculas da água, é intuitivo que todas as forças de atração e repulsão atuantes nelas se anulam, exceto na interface liquido-ar. Vale lembrar que as ligações de hidrogênio, que são interações intermoleculares, atuam mantendo as moléculas de água coesas entre si. Nessa fronteira entre a água e o ar, a força resultante é para baixo, pois não há nenhuma molécula do líquido puxando essas moléculas da superfície para cima. A essa força damos o nome de tensão superficial. Além da força de tensão superficial, as moléculas de água também se comportam de acordo com o calor latente de vaporização, que é a energia térmica necessária para levar uma certa massa de água do estado líquido para o de vapor. Quando você está tentando esquentar água na sua casa, por exemplo, não basta acender um fósforo por 5 segundos debaixo da panela para que a água comece a ferver. A energia que as moléculas de água necessitam para se soltarem das amarras das forças intermoleculares é alta e invariável.

Depois de algumas racionalizações relativamente simples aliadas a um experimento, as quais você poderá conferir no final do texto se tiver interesse, Young e Laplace chegaram a uma fórmula que, como todas as equações científicas, informa algo importante sobre a natureza. Porém, essa equação específica, sugere algo extremamente sofisticado: partindo da ideia de que um líquido sofre uma força de tensão superficial e que está sujeito as amarras do calor latente de vaporização, a única forma dessas duas quantidades físicas existirem em conjunto com líquidos e gases ao mesmo tempo no nosso universo, é se a matéria for descontínua, ou seja, se os átomos existirem.

Agora que passeamos por algumas ideias e experimentos estimulantes, podemos parar para pensar em todo o conhecimento e em toda a tecnologia que a ideia dos átomos propiciou à humanidade. Desde carros, celulares e computadores, à física quântica, nanotecnologia, medicina moderna, astrofísica, remédios eficientes e viagens espaciais. Tudo isso existe ou funciona porque pessoas tentaram demonstrar que átomos são uma ideia crucial para entendermos o universo. Tudo é feito de átomos. Os dedos da sua mão têm átomos de hidrogênio iguais aos que ficam dentro de uma estrela como o Sol. O nitrogênio que forma o seu DNA é exatamente igual ao nitrogênio do ar atmosférico. Mas então por que meu dedo não se parece com o núcleo do Sol ou as cadeias de DNA das minhas células não tem a densidade do ar atmosférico? A resposta para isso é, como sabemos, que o modo como os átomos interagem uns com os outros, mudam significativamente a maneira como percebemos a matéria. Somos seres que evoluíram, pelo menos nos últimos milhões de anos, para sobreviver na savana africana. Tínhamos que lidar com problemas de meia escala, ou seja, nem com coisas muito pequenas como átomos, nem com coisas muito grandes como distâncias intergalácticas. Os nossos sentidos não estão adaptados à noção de átomos e moléculas e provavelmente nunca estarão. Mas temos uma carta na manga: nosso córtex pré-frontal extremamente desenvolvido. Podemos usá-lo para investigar escalas as quais não estamos adaptados a perceber e ter o privilégio de conhecer mundos incríveis. A escala atômica é tão importante para a humanidade hoje que foi considerada a informação mais importante já produzida.

Aqui está a explicação um pouco mais detalhada sobre as ideias de Young e Laplace para quem tem um pouco mais de curiosidade. Vale a pena tentar entender todas as etapas do raciocínio, e se surgir qualquer dúvida, podem perguntar nos comentários. Como havíamos visto o raciocínio inicia-se do ponto de vista molecular, ou seja, postulando a existência dos tais átomos. Ao analisar as moléculas da água, é intuitivo que todas as forças de atração e repulsão atuantes nelas se anulam, exceto na interface liquido-ar. Vale lembrar que as ligações de hidrogênio, que são interações intermoleculares, atuam mantendo as moléculas de água coesas entre si. Nessa fronteira entre a água e o ar, a força resultante é para baixo, pois não há nenhuma molécula do líquido puxando essas moléculas da superfície para cima. A essa força damos o nome de tensão superficial. Como trata-se de um ambiente tridimensional dinâmico, vale a pena definirmos algumas quantidades. Primeiro iremos tomar cada molécula como um cubo, para facilitar o raciocínio. Sendo assim, um cubo de aresta d tem volume = d³. E definido £ como a densidade da molécula, sua massa é: m = £ d³, já que densidade é massa sobre volume. Outra quantidade importante é o calor latente de vaporização do fluido, C, que tem unidades de energia sobre massa. Tendo essas quantidades em mente, a energia térmica necessária para transformar n moléculas de água com massa £ d³ da fase líquida para a gasosa é C £ d³. Calma aí, parece que agora tudo começou a ficar complicado, certo? Não se você seguir as unidades, aliás, as unidades sempre são um excelente mapa para entender equações. Havíamos notado que o calor latente de vaporização, C, tem unidades energia/massa e que d³ £ tem unidade de massa. Logo, se multiplicarmos energia massa/massa, teremos energia. Essa energia que obtemos nessa conta é a energia necessária para levar 1 grama de água do estado líquido para o de vapor. Agora vem um insight razoável, que tem como base a termodinâmica: essa energia que acabamos de obter nesse cálculo, também pode ser definida como uma aproximação do trabalho necessário para transformar água líquida em vapor. Então temos que F d ~ C £ d³, logo F ~ C £ d² (eq. 1) onde F é a força e d é o deslocamento das partículas.

Para determinar o trabalho W, Young e Laplace fizeram a seguinte experiência: colocaram um arame sobre uma superfície calma de um liquido e empurraram o arame por uma distância x, usando uma força F. Essa força F é exatamente igual à força de tensão superficial ¢. E como a distância entre os centros das moléculas, tomando-as como um cubo de aresta d, é d, pois elas estão dispostas lado a lado, a área da superfície superior é d². Então se o trabalho W = F d, mas também é ¢d², pois é a força aplicada à superfície do líquido de área d², a força F= ¢d (eq. 2).

Agora juntando as equações 1 e 2 temos: ¢ d= C £ d², então d = ¢/C £, onde £ é a densidade da água, C é o calor latente de vaporização, d é o tamanho das moléculas e ¢ é a força de tensão superficial. Baseando-se nessa equação, se d=0, ou seja, se a matéria fosse contínua, e a densidade do líquido for finita, o que é aceitável, ¢ tenderia a 0. Daí concluímos que se ¢, a força de tensão superficial, é finita, o calor latente de vaporização tenderia ao infinito, ou seja, não existiriam gases, pois seria necessária uma quantidade infinita de energia para vaporizar um líquido. Atribua valores arbitrários a essas quantidades para ficar mais fácil de notar essas relações. Por exemplo, se ¢ = 54, e C = 10³³³³³³³³³³³³, o quociente ¢/C tende a 0. Por outro lado, se a tensão superficial ¢ tendesse a zero, e C fosse finito, só existiriam gases, pois seria necessária uma quantidade ínfima de energia para vaporizar um líquido e existem quantidades palpáveis de energia no universo em forma de calor. Em resumo, não existiria transição de fase líquido-vapor, e como não observamos isso, d é diferente de 0. A matéria é descontínua. Os átomos se mostram uma ideia necessária e satisfatória.

 

Giordano Bruno

A importância do método científico

Se você for uma pessoa que acompanha o que acontece no mundo contemporâneo com certeza já viu como a informação pode divergir, pode ter escutado um milhão de linhas de raciocínio, algumas com certezas bem profundas, mas sempre falhas em determinado ponto ao tentar ter o conhecimento.  Mas mesmo não podendo explicar questões corriqueiras, você continuou levando sua a vida normalmente, afinal, como lidar com o mundo, será uma questão bem pessoal, e enquanto alguns seguem dogmas e desígnios absolutos, outros consideram a dúvida e o poder de questionar e resolver mistérios uma benção.

A verdade é que conhecimento e informação se fazem de todas as formas e não existe autoridade ou jurisdição que vá delimitar isso. Mas existe uma linha específica de pensamento em que se pode colher informações de maneira  muito mais eficiente e de forma bastante prática, observando como os fatos podem ter uma mecânica em que atuam independente da nossa consciência sobre eles.  Pensamento esse conhecido como método científico, nome que provavelmente não lhe é nenhuma novidade, e que elabora as suas descobertas através fatos que podemos palpar e descrever. O modo como ele se ordena é:

  1. Observação: Ver o que está acontecendo;
  2. Questionamento: O que você quer descobrir dentro daquilo que está acontecendo;
  3. Formular Hipótese: Que será a possível resposta daquele problema que você quer resolver, resposta elaborada por uma linha de raciocínio coerente;
  4. Experimento: Testar o que você observou a partir da resposta que você formulou;
  5. Conclusão: Observar o que aconteceu no final e comparar com o que você esperava.

De forma resumida o método se baseia em pegar um problema concreto, pensar em uma forma de resolvê-lo e assim solucionar a problemática de forma visível e com justificativas coerentes. Esse é o caminho que físicos, químicos e biólogos entre outros realizam que podem melhorar nossas vidas. E se quiser uma prova disso, observe tudo o que o cerca e verá que provavelmente pelo menos 70% do seu dia depende de alguma coisa que só pôde ser criada devido a elaboração anterior do método científico. A ciência em si está longe de querer elaborar e impor verdades frente às pessoas, mas sim trazer reflexões que só tem a acrescentar a sua vida.

Até esse ponto da prosa você pode ter entendido que devemos confiar em todo discurso que sai da boca de quem trabalha com essa estratégia metodológica, mas não. O objetivo é sermos críticos com toda a informação que nos cerca. Não só pra saber se devemos confiar no que nos dizem, mas pra poder levar a sua vida de forma mais segura, afinal o ponto mais importante dessa prática é o questionamento.

Você pode ser metodológico com o modo como o médico está tratando o seu pai e o que ele considera ser a sua doença. Pode ser com modo como alguém está sendo julgada e pelo que fez, como você pode fazer a sua firma funcionar melhor, como você pode estudar de forma mais prática para aquele vestibular. Você pode observar o temperamento agressivo de um filho ou amigo, se perguntar o que está provocando isso, o que você pode fazer pra ajudar, como você pretende que ele se sinta no final e ai colocar mãos a obras, se o que você deduziu ser o problema dele estiver errado, mude a hipótese e tente outra solução, e o método prova sua eficiência outra vez.

Você ainda pode ter um receio de usar em situações mais específicas, como para debater com um médico que está diagnosticando o problema de coluna do seu pai, e deixar isso nas mãos dele. Mesmo assim isso não é justificativa pra não entender o que ele está fazendo, principalmente quando vivemos na era da informação e da divulgação científica, onde vários pesquisadores tentam trazer esses assuntos mais complicados e explica-los de forma mais suave para que dúvidas sérias como essa não atormentem mais pessoas leigas (Aliás, quantas pessoas não são prejudicadas por um diagnóstico errado?). Explicações essas elaboradas a partir do método científico provenientes de fontes que não são informações privilegiadas de ninguém, e que existem justamente para fornecer melhor compreensão.

E caso tenha surgido a dúvida: “então tudo que é divulgado, eu tenho que levar com a  suspeita de ser algo maléfico?” e a resposta a isso é não. Sim! Tudo deve ser passivo de um pensamento crítico, mas isso significa que você deve ir atrás da resolução da informação e saber como ela se constrói, e em você levar isso de uma forma coerente, razoável e lógica e não com a pretensão de achar uma teoria da conspiração. Fazendo isso provavelmente terá uma informação muito mais bem embasada.

Alguns ainda podem achar que esse método pode ser manipulável, de má fé (Afinal o que é imune a isso?) e outros podem tê-lo conhecido por representantes de má fé, mas independente dessas variáveis, é satisfatório dizer que ele é, no mínimo, coerente e fazemos uso dele ilimitadamente. Colocar isso em prática conscientemente e escutar aqueles que trabalham junto a isso não é esforço algum. Conhecimento, é a única coisa que será proporcionada, e como o antigo sábio Einstein já disse, “O mundo é do tamanho do nosso conhecimento”.

 

José Rodolfo de Lima e Silva

Por que Ecoevolucionando?

O projeto Ecoevolucionando surgiu como uma iniciativa de divulgar a importância do conhecimento sobre a evolução, a genética e a ecologia no ambiente acadêmico, mas que também tomou rumos mais abrangentes, como informar não só as pessoas inseridas no mundo acadêmico, mas também quem está de fora dele, sobre a importância do conhecimento científico das mais diversas áreas. Afinal, a ciência tem se mostrado um excelente método em busca do que é de fato real. Quando usamos ciência para curar pessoas, elas saram; quando usamos ciência para nos locomover de modo mais eficiente, cruzamos oceanos em apenas algumas horas ou chegamos à lua. Ela simplesmente funciona, apesar de está sujeita a algumas limitações.

Uma dessas limitações é inerente ao próprio método científico: não há verdades inquestionáveis. Na verdade, o desenvolvimento científico surge exatamente do questionamento de hipóteses que aparentam ser plausíveis,  e quando essas hipóteses são colocadas à prova e resistem aos testes empíricos, ganham o status de hipótese científica; a medida que quanto mais testes corroboram essa hipótese, ela vai ganhando força e pode chegar ao status de teoria científica.

É óbvio que se alguém constatar alguma falha nessa hipótese ou teoria científica, e mais um vez, novos testes forem feitos baseados nessa nova ideia de que a teoria está errada e apontarem nessa direção, ela vai se enfraquecer ou simplesmente ser descartada. A ciência não tem medo de errar, pelo contrário, a falseabilidade (capacidade de ser posto à prova) de uma ideia é um dos alicerces do pensamento científico.

E é exatamente por isso que o método funciona tão bem. Ele não está preso a dogmas ou a desejos pessoais dos cientistas. Seu único objetivo é conhecer a verdade sobre um certo aspecto da realidade da maneira mais sensata, racional e empírica possível. De modo que está sempre se atualizando conforme novas informações são trazidas e postas à prova pelos acadêmicos.

Tendo em vista que a ciência busca a verdade como ela é e não como gostaríamos que ela fosse, e que a sua eficiência vem se mostrando bastante satisfatória, um grupo de alunos da UFPE decidiu mostrar esse modo de ver o mundo, não só para ajudar nas questões econômicas, políticas, profissionais, sociais, intelectuais e de saúde de cada indivíduo, mas também para dar a oportunidade das pessoas terem uma visão de mundo completamente extasiante, livre e estimulante. Afinal, a ciência não está ligada apenas a foguetes e medicamentos complexos, ela realmente oferece um estímulo pessoal a cada um em busca da verdadeira face do nosso universo.