Saturday, December 18, 2010

Lâmpadas economizadoras, Computadores e Dores de Cabeça

As lâmpadas economizadoras e de LED nunca devem ser usadas para iluminar o local de trabalho, pois provocam sintomas de doença neuropsicológica, como dores de cabeça, cansaço visual e ansiedade, na grande parte das pessoas.
Progresso - é quando a lâmpada custa 5 vezes mais que a electricidade que poupa.

Existem duas diferenças importantes entre as lâmpadas economizadoras (fluorescentes compactas e de LED) e as lâmpadas incandescentes e de halogéneo, no que diz respeito ao sistema de visão e a percepção das imagens pelos humanos: a composição espectral da sua radiação, e as características temporais da mesma.

Espectros de várias fontes da luz

Aqui estão dois espectros típicos de LEDs brancos, a figura foi obtida aqui:
E este é um espectro típico de uma lâmpada fluorescente moderna, obtido aqui:
Espectro de uma lâmpada incandescente, obtido aqui, comparado com o espectro idealizado da radiação solar :

Para comparação, está aqui o espectro da radiação solar, obtido aqui:
E aqui uma comparação de espectros fotografados de vários tipos de lâmpadas (incandescente, três fluorescentes compactas e uma de LED), obtido nesta página:
Como o leitor pode facilmente confirmar, os espectros de lâmpadas incandescentes e de halogéneo (estas têm uma temperatura mais elevada do filamento, então a sua luz aparenta ser mais branca) são os mais próximos do da luz natural, pois são contínuos e assemelham-se ao do espectro solar, enquanto os espectros de lâmpadas fluorescentes compactas e de LED têm uma forma bem deferente, o que dificulta o reconhecimento e a comparação de cores. Ora numa grande parte das aplicações a identificação correcta de cores não é importante, o que justifica o uso de lâmpadas fluorescentes (compactas ou não) e de LED.

Contudo, e a outra diferença, nomeadamente, a das características temporais das emissões, que inspira uma maior preocupação em termos da saúde pública. 

Variações temporais da intensidade e dores de cabeça

Os humanos, como todos os outros seres vivos, possuem um sistema de visão subconsciente (aqui está um artigo de "The New York Times", que descreve experiências científicas que demonstraram a existência deste sistema: em duas palavras, uma pessoa cuja zona de processamento visual no córtex cerebral esta completamente destruída, consegue navegar o percurso num corredor, cheio de obstáculos, mas não consegue explicar como o faz, graças ao seu sistema de visão subconsciente), que está intimamente ligado ao centro cerebral que controla e movimento, e proporciona reacções instintivas e rápidas de evitar os objectos em queda, obstáculos, e ainda o reconhecimento de intenções (hostil vs amigável) de outras pessoas.

Ora as lâmpadas fluorescentes e de LED, bem como os monitores de computador emitem radiações moduladas com uma frequência de 100Hz (lâmpadas fluorescentes e de LED) ou de 50-120Hz (monitores, a frequência depende do monitor e do modo de funcionamento usado). Estas alterações rápidas de intensidade estão interpretadas pelo sistema de visão subconsciente como eventuais sinais de movimento rápido, provocando reacções tanto das células receptoras da córnea, como dos neurónios, causando gastos desnecessários de energia e o desgasto das estruturas  cerebrais, provocando os sintomas como dores de cabeça, cansaço visual e ansiedade. As lâmpadas de LED exibem uma profundidade de modulação mais elevada, sendo mais perigosos nesse sentido, pois a sua intensidade emitida fica directamente proporcional a intensidade da corrente, e esta última passa pelo zero com a frequência de 100Hz (utilizando rede de 230V a 50 Hz). 

Estes fenómenos não acontecem com as lâmpadas incandescentes ou de halogéneo, pois o seu filamento mantém-se quente e continua a emitir, mesmo quando a corrente eléctrica atinge os seus valores mínimos, durante as suas variações periódicas (a frequência destas variações é de 50 Hz).

Mercúrio contido nas lâmpadas fluorescentes compactas

Segundo este documento Americano, cuja intenção é de persuadir os consumidores de usar estas lâmpadas, o conteúdo médio do mercúrio numa CFL é de 4 mg (miligramas) de mercúrio metálico, sendo 5 mg o limite legal. O mercúrio de uma CFL partida, dentro de casa, evapora-se muito lentamente (pois a pressão de vapores de mercúrio à temperatura de ambiente é muito baixa), criando vapores de mercúrio dentro da habitação. Ora uma exposição crónica aos vapores do mercúrio, por inalação, mesmo em concentrações tão baixas como 0,7 micrograma por metro cúbico do ar, provoca envenenamento pelo mercúrio, mesmo em adultos, pois cerca de 80% dos vapores de mercúrio inalados são absorvidos no sistema respiratório humano. Feitas as contas, os 4 miligramas de mercúrio são capazes de produzir concentrações perigosas de vapores em 5000 metros cúbicos de ar, ou seja, 170 quatros com 30 m3 de volume. Por outro lado, as concentrações de mercúrio dentro do organismo, consideradas perigosas, são de 200 microgramas por litro, sendo então necessários 16 miligramas de mercúrio metálico, absorvidos pelo adulto de 80kg, para provocar o seu envenenamento. Nestas circunstâncias, as recomendações oficiais de arejar o quarto durante 15 minutos, depois de ter partido uma CFL, não nos parecem suficientes para eliminar o perigo de envenenamento. Um dado importante a ter em consideração é que a exposição ao mercúrio é cumulativo dos vários fontes, e bio-acumula com o tempo, ou seja, uma exposição ligeira mas durante muito tempo pode equivaler a uma exposição perigosa ou mesmo letal, única.     

Conclusões e recomendações
  • A proibição do uso de lâmpadas incandescentes, decretada pelos promotores da fraude de Aquecimento Global Antropogénico (AGW) em Bruxelas, prejudica a saúde pública.
  • As lâmpadas fluorescentes ou de LED não devem ser usadas para iluminar as zonas mais importantes, onde a pessoa olha a maior parte do tempo durante o seu trabalho, sob pena de consequências negativas para produtividade e para saúde de trabalhadores (as modulações de radiação afectam pelo menos 1/3 da população).
  • As pessoas cuja produtividade no trabalho com computador fica afectada pelas dores de cabeça, cansaço visual ou ansiedade, devem instalar uma lâmpada incandescente ou de halogéneo, junto ao computador, a iluminar uma parte do seu campo de visão (por exemplo, a folha de papel com o texto que está a ler), com uma intensidade superior à do monitor. Assim, o estimulo variável, mais fraco (o monitor), fica suprimido pelo estímulo constante (a luz da lâmpada incandescente), mais forte, e os efeitos nocivos da luz modulada desaparecem.
Saber mais:

[1]. Um artigo científico que discute os mesmos assuntos: "flicker" (alterações rápidas de intensidade) de lâmpadas fluorescentes, com frequência de 100Hz, que afecta os neurónios cerebrais, provocando dores de cabeça, cansaço nos olhos e ansiedade. A. Wilkins, "Right Light for Sight: Health and Efficiency in Lighting Practice", http://www.iaeel.org/iaeel/archive/Right_light_proceedings/Proceedings_Body/BOK1/200/1057.PDF.
[2]. Os mesmos assuntos discutidos em relação aos LED: "LED Lighting Flicker and Potential Health Concerns: IEEE Standard PAR1789 Update", A. Wilkins, J. Veitch, B. Lehman, http://www.essex.ac.uk/psychology/overlays/2010-195.pdf. Menciona, entre outras coisas, que as dores de cabeça podem ser  provocadas pelas fontes da luz moduladas a 100Hz (incluindo as lâmpadas fluorescentes, compactas ou não, e de LED) em 35% da população.
[3]. Ataques de epilepsia provocados pelos estímulos visuais, incluindo as modulações da intensidade de iluminação, e cerca de 1 de 4000 jovens ou 1 em 10000 pessoas da população geral: http://www.essex.ac.uk/psychology/overlays/2005-168.pdf.
[4]. As características de uma lâmpada de LED, em formato de uma lâmpada fluorescente não compacta, com 1500 mm de comprimento: a profundidade de modulação da intensidade da luz (Illumination modulation index) é de 17%, ou seja, continua a existir o efeito nocivo de modulação, existente nas lâmpadas fluorescentes: http://www.olino.org/us/articles/2010/03/21/klv-led-tube-light-klv-t8-151-a. Aqui está o gráfico da intensidade em função do tempo, que mostra a modulação da luz desta lâmpada, a uma frequência de 100Hz, e com 17% da profundidade:
[5]. Uma outra lâmpada, desta vez a profundidade de modulação é de 18%: http://www.olino.org/us/articles/2010/03/14/led-light-europe-led-tube-light-150-cm-cold-white.
[6]. Tipicamente, a importância de modulação da luz proveniente do monitor não é reconhecida, aqui está um exemplo de conselhos "Como diminuir o cansaço visual por uso do PC" ... 
[7]. Uma lâmpada compacta de LED, a profundidade de modulação é de 23%: http://www.olino.org/us/articles/2010/11/22/soluxima-led-lamp-slx-5wb2l-e27-warm-white#more-6151.
[8]. Outra lâmpada compacta de LED, a profundidade de modulação é de 100% : http://www.olino.org/us/articles/2010/11/21/glo-gls-led-bulb-update#more-5989. Aqui está o gráfico da intensidade em função do tempo, que mostra a modulação da luz desta lâmpada, a uma frequência de 100Hz, e com 100% da profundidade:
[9]. Mais uma lâmpada compacta a LED, a profundidade de modulação é de 34%: http://www.olino.org/us/articles/2010/12/18/creative-lighting-solutions-luxo-medium-flood-ww#more-6380.
[10]. Um artigo que aborda aspectos médicos de luz modulada emitida pelos LED (em Inglês): http://www.mondoarc.com/technology/LED/1079132/led_flicker_safety_issues.html
  

Sunday, December 12, 2010

Nosso artigo publicado

 
 

O nosso artigo "Climate Change Policies for the XXIst Century: Mechanisms, Predictions and Recommendations" encontra-se disponível na internet (acesso livre), aqui - o texto: http://www.naun.org/multimedia/NAUN/energyenvironment/19-660.pdf
e aqui - a página de resumos.

Uma versão anterior, apresentada num congresso, e publicada no site do 6th IASME / WSEAS International Conference on ENERGY & ENVIRONMENT (EE '11), Cambridge, UK, February 20-25, 2011: http://www.wseas.us/e-library/conferences/2011/Cambridge/EE/EE-02.pdf

.

Wednesday, November 10, 2010

Tuesday, November 9, 2010

Climate Change in the XXIst Century: Mechanisms and Predictions

Report at the WSEAS|CIEO International Conference Faro, Algarve, Portugal, 3-5 November 2010

Climate Change in the XXIst Century: Mechanisms and Predictions

IGOR KHMELINSKIIa and PETER STALLINGAb
aFCT, DQF and CIQA, Universidade do Algarve, Campus de Gambelas, Faro, PORTUGAL
ikhmelin@ualg.pt
bFCT, DEEI and CEOT, Universidade do Algarve, Campus de Gambelas, Faro, PORTUGAL
pjotr@ualg.pt


Abstract: Recent experimental works demonstrated that the Anthropogenic Global Warming (AGW) hypothesis, embodied in a series of Intergovernmental Panel on Climate Change (IPCC) global climate models, is erroneous. These works prove that atmospheric carbon dioxide contributes only very moderately to the observed warming, and that there is no climatic catastrophe in the making, independent on whether or not carbon dioxide emissions will be reduced. In view of these developments, we discuss climate predictions for the XXIst century. Based on the solar activity tendencies, a new Little Ice Age is predicted by the middle of this century, with significantly lower global temperatures.

Key-Words: global warming, IPCC climate models, total solar irradiance, galactic cosmic rays, solar cycles, climate change, Little Ice Age



1   Introduction: IPCC climate scenarios are erroneous
The terrestrial climate system is quite complex. A complete theory needs to account for the phenomena taking place on the Sun, which provides the energy in the form of electromagnetic radiation that puts the climate engine in motion, and the atmosphere and the oceans, that redistribute the energy, with biosphere and humanity affecting the amount of solar energy circulating in the climate system. The energy is eventually re-emitted into outer space in the form of infrared (IR) radiation, maintaining the climate system in an approximate dynamic equilibrium. Surface temperature T is one of the most important climatic variables, which affects the distribution and the very existence of all of the diverse life forms on land, including human civilization, dependent for its existence on availability of potable water and agricultural productivity. The existence of amenable surface temperatures depends on the greenhouse effect, caused by gases present in the atmosphere. The most important greenhouse gas is water vapour (H2O), followed by carbon dioxide (CO2), methane (CH4), ozone and halocarbons. These gases absorb IR radiation, that would otherwise immediately escape into space, reemitting part of it back towards the surface. Therefore, they provide some additional thermal insulation for the surface, resulting in the average surface temperature that is ca. 32 K (32 ºC) higher than it would be otherwise. Some 30 years ago, when the growth in atmospheric concentration of CO2, which we shall denote as [CO2], caused by increased human use of fossil fuels, has coincided with the growth in average global temperature (global warming), concerns were risen that the observed warming may be caused by CO2, due to increased greenhouse effect, with possible adverse climatic consequences. These concerns led to the creation of the Intergovernmental Panel on Climate Change (IPCC), an entity under the UN, to evaluate risks of climate change caused by human activity. This entity produces reports, the latest of 2007, describing the current state of climate science as perceived by IPCC experts [1].
     As it happens, the only evidence that ever indicated that global warming may be caused by growing atmospheric [CO2] was that of the climate models. These are implemented in software, running on supercomputers, and first make use of real climate information to tune various parameters present in the models, attempting next to produce predictions/ projections on the future climate based on different scenarios of atmospheric [CO2] evolution and other relevant human-generated perturbations, such as changes in land use. Climate models used by the IPCC to asses the effect of atmospheric carbon dioxide on climate predict an average global warming of 3.5 K per doubled [CO2]. Such doubling may happen by the end of this century if carbon dioxide emissions continue unabated at the same rate [1]. The consequences of such a temperature increase might be quite serious, as the temperature rise would be even more pronounced in the temperate and cold climatic zones, with some undesirable consequences for humanity.
     However, any and every climate model belongs to the domain of theories; a theory remains valid while there is no experimental evidence that contradicts it. Now, recent experimental publications evaluated the dependence between the surface temperature anomaly and the anomaly in the long-wave (infrared) plus short-wave (ultraviolet and visible) radiation escaping from Earth to the outer space [2,3]. Here anomalies are defined as excursions from what is considered an equilibrium value. This dependence may be expressed by a linear relation, with the regression coefficient that we shall denote by α, which indicates the increase in escaping radiation for every degree of temperature rise. The authors of [2,3] place the experimental value of α, obtained from relevant satellite data, at between 4.5 and 8 Wm-2K-1. On the other hand, the IPCC models uniformly produce values that are negative, the average for the set of climate models considered being -2.3 Wm-2K-1 [2]. We note an obvious contradiction between the AGW hypothesis and the experiment, as regards the regression coefficient α, both in its numeric value and, even more importantly, its sign (positive vs. negative).
     We shall shortly demonstrate that the coefficient α is of critical importance in evaluating the effect of any perturbation on the terrestrial climate, be it caused by growing atmospheric CO2 concentration, changes in the solar activity, presence of volcanic ash in the higher atmosphere, or any other factor. The reason is that without feedbacks it is fairly easy to evaluate the effect ΔT0 on the average global temperature T of any perturbation Ω. This effect is obtained assuming that we isolated this perturbation Ω from any other phenomena taking place in the climate system. On the other hand, the practical outcome ΔT of a perturbation is determined by the product of ΔT0 with the feedback parameter β, ΔT = ΔT0 × β, the latter uniquely dependent on the regression coefficient α. This climate feedback parameter β describes the entire complexity of the multiple interconnected phenomena defining the response of the climate system to a perturbation, and is therefore notoriously difficult to obtain theoretically, as evidenced by more than 20 years of the IPCC numerical modelling research.
     Continuing, the values of the climate feedback coefficient, β, that exceed unity, as predicted by the IPCC climate models, correspond to amplification of perturbations by the climate system, with the value of β = 2.7 (corresponding to the model value of α = -2.3 Wm-2K-1) yielding a predicted temperature change for doubled [CO2] of ΔT = 2.4 K, instead of ΔT0 = 0.9 K for the no-feedback case [2]. The various model values of β, as obtained in each of the individual climate models, range from about 1.7 to 5.6 or more, and universally exceed unity, predicting an inherently unstable climate system that significantly amplifies every perturbation. Contrary to model predictions, the experimental values of β = 0.3...0.6 correspond to a reduction of perturbations by an inherently stable climate system that significantly reduces any perturbation, resisting the imposed changes. These experimental β = 0.3...0.6 yield ΔT values for doubled [CO2] between 0.3 and 0.5 K [2,3]. These ΔT values, estimated from measurements performed on the real terrestrial climate system, are an order of magnitude below the predictions of the IPCC climate models, which range between 1.5 and 5 to 7 degrees of the average temperature increase for doubled [CO2], with the most probable value of 3.5 K, as reported by IPCC in 2007 [1]. We therefore conclude that the Anthropogenic Global Warming (AGW) hypothesis, embodied in the IPCC climate models, has nothing in common with the real climate, as it fails to predict the value of the crucial parameter of the climate system, namely the climate feedback coefficient, β, which universally defines the response of the climate system to perturbations. Given this verdict, we must expressly disregard every and all of the other results and predictions/projections/scenarios of these models, and every and all of the recommendations based on the aforementioned results and projections/scenarios. Indeed, these models can't be trusted even for qualitative trends, as they miss the correct sense (model amplification, β > 1, vs. experimental reduction of perturbations, β < 1) of the climate feedback coefficient. We also conclude that the terrestrial climate system is inherently stable, having the climate feedback coefficient β well below unity, contrary to IPCC predictions, and that, for this very reason, there is no imminent climatic catastrophe in the making, anthropogenic (man-made) or otherwise.
     Having eliminated [CO2] as the primary and defining driver of current climatic evolution, for complete lack of evidence, we will look at other factors affecting climate, in order to both explain the warming of the last century and provide a climate forecast for the future. Thus, carbon dioxide can only contribute to the climate change in this century with a very moderate warming, significantly lower than the 0.74 K recorded during the last century. Indeed, of these 0.74 K, knowing the [CO2] increment during the XXth century, and the value of the climate feedback parameter, we can only attribute between 0.1 and 0.2 K to the anthropogenic climate change caused by growth in the atmospheric carbon dioxide, product of fossil fuel combustion. Of these two estimates, the lower value of 0.1 K should be closer to the reality, corresponding to the more realistic higher value of α, as explained below. The remaining warming has therefore been caused by other factors, which may include changes in land use, changes in concentrations of atmospheric aerosols, changes in solar activity, long-term periodicity in the atmospheric and oceanic circulation patterns, and others. Note that the first two of these additional factors have anthropogenic contributions.


2   Results and discussion: climate in this century

2.1   Phenomenological approach
Looking at the global temperature record of the last 1.5 centuries, we readily note that warming has not been monotonous. As an example, consider the sea surface temperature data, shown in Fig. 1 and plotted using the Hadley Centre data [4]. Indeed, we note in the monthly global average sea surface temperature record that apart from a general warming trend (with the linear regression coefficient corresponding to a warming of only 0.48 K per century during the time period considered – this shows that continents warm faster than the oceans, the latter lagging behind) we observe a periodic contribution, with a period of about 60 years. The three maxima of this periodic contribution had occurred at about 1884, 1943 and 2004, whereas the two minima at about 1913 and 1973. In fact, newspapers in the seventies were full of predictions of imminent ice age global freezing and of a new ice age, issued by leading climate experts, including some of the present-day advocates of the AGW hypothesis, inspired by a distinct cooling tendency that has lasted for about 30 years, perfectly discernible in the sea, land and global surface temperatures. Note that similar periodic oscillations appear in other temperature records, global as well as regional. We shall not discuss their origin here, limiting ourselves to using them for prediction purposes.   
     Comparing the two warming periods between 1913-1943 and between 1973-2004, we note that the linear temperature trends are exactly the same. This constitutes yet another proof, if that were needed, that the AGW hypothesis is incorrect. Indeed, the fossil fuel consumption in the second half of the XXth century exceeded that of the first half by at least the factor of 5, with the anthropogenic contributions to atmospheric carbon dioxide equally increasing by a factor of 5 between the first and the second half of the XXth century [5]. Were the warming indeed caused by growth in atmospheric CO2, as stipulated by the AGW hypothesis, the period of 1973-2004 would have produced at least 5 times as much warming than the 1913-1943 period, contrary to the experimental data shown in Fig. 1, where we see exactly the same amount of warming in these two time periods.

Figure 1. Global average sea surface temperatures from 1870 to 2009 [4].


    Therefore, at present the climate system is in the cooling phase of the 60-year oscillation, which will predictably last till about 2034. The current cooling trend has caught the AGW climate modellers by surprise, as they are predicting continuous and ever accelerating warming, as long as atmospheric CO2 is growing [1]. Obviously, no such thing is happening, demonstrating once again that the climate change is determined by factors other than atmospheric carbon dioxide. Following this phenomenological treatment, we predict global cooling until about 2034, after which the climate system will be warming once again. Considering the last 150 years of climate history, for which instrumental temperature record exists (see Fig. 1), we note no tendency of acceleration in the warming rates, therefore, using our phenomenological model, we predict that the Earth will warm during the XXIst century by the same amount as it has during the XXth century, that is, by about 0.7 K, in stark contrast to the catastrophic scenarios produced by IPCC/AGW modellers based on their erroneous models.

2.2   Solar Activity approach
As we already noted, all of the energy that gets the terrestrial climate machine moving comes from the Sun. This makes the Sun and the phenomena such as periodic changes in the elements of the Earth's orbit around the Sun potentially the most important contributors to the climate change. The solar activity has been monitored by astronomers for hundreds of years, in the simple form of counting sunspots. Figure 2 shows the yearly sunspot count record for the last 300 years.

Figure 2. Sunspot count from 1700 to 2009 [6].

     However, the total solar irradiance (TSI) variations corresponding to the 11-year sunspot cycle shown in Fig. 2 (Schwabe cycle) correspond to only about 0.1% of the TSI value, according to precise satellite measurements performed since 1980. This translates into ca. 1 Wm-2, too little to account for the observed climate change [7]. Total solar irradiance was reconstructed for the entire period starting from 1610, taking into account astronomic data on solar-like stars. Such stars were found to emit measurably less in the state similar to the Maunder minimum (ca. 1645-1715), when the cycling switches off. This allowed to evaluate the slowly changing secular component of the total solar irradiance that could not be yet extracted from the TSI data directly [7]. The resulting reconstruction of the total solar irradiance, tracking the amplitude of the Schwabe cycle, is shown in Fig 3.
     Addition of the slow-changing secular component provides a better although still insufficient match between total solar irradiance and climate change, as now the total irradiance change between the Maunder minimum and the contemporary maximum is about 0.24%, which translates into ca. 3 Wm-2 and explains at least 30% of the climate change that occurred since 1970, with a larger percentage explainable during preceding periods [7].
     A much better correlation between total solar irradiance and climate change was found when irradiance reconstruction tracked the period length of the Schwabe cycle instead of its amplitude [9,10]. The relevance of the cycle period length as the main parameter determining total solar irradiance is supported by the fact that the Schwabe cycles close to Maunder and Dalton (1790 to 1830) minimums were significantly longer, thus, longer cycles correspond to lower TSI and colder climate. Some of the historic TSI reconstructions attribute almost the totality of the climate change of the XXth century to changes in solar irradiance, conditioned by the remaining uncertainty in the amplitude of secular changes of the solar irradiance, with estimates that vary from 2 to 7 Wm-2 [9-11].

Figure 3. Total solar irradiance reconstruction since 1610 [8].
     Still, there is at least one additional mechanism whereby the solar activity affects our climate system, which complements the total solar irradiance changes [12-14]. According to this mechanism, galactic cosmic rays (GCR) ionize the lower atmosphere, with the negative ions promoting nucleation of nanoparticles, facilitating the formation of water drops in the atmosphere, and therefore increasing the cloud cover. The intensity of GCR, as demonstrated by historic data on 14C isotope abundance, increases in low solar activity periods, and decreases in high solar activity periods, when the GCR are swept away by solar wind and thus reach the Earth at lower intensities. As shown by direct measurements in 1978-1996, the low-altitude cloud cover directly follows the GCR variations. In its turn, GCR variations are anticorrelated to the solar activity as expressed by sunspot number. Thus, in periods of higher solar activity the GCR intensity and the cloud cover decrease, while the TSI increases, with the two mechanisms acting in synchrony and causing warming [14].
     In a separate development, satellite data yielded a 0.16 Wm-2year-1 trend in the total solar irradiance at the terrestrial surface from 1983 to 2001, with the total increment of 2.9 Wm-2 during the same period [15]. This increment was produced by reductions in the cloud cover (due to reduction of GCR in the period of high solar activity) and reductions in atmospheric aerosols (due to reductions in atmospheric pollution generated by developed countries), and is much larger than any changes in incoming TSI at the outer atmospheric boundary due to solar activity changes during the same period. Recalling the experimental range α = 4.5...8 Wm-2K-1, we deduce that the 2.9 W m-2 increase in surface irradiance produced ΔT = 0.36...0.64 K of global warming during the same period. This result shows that the more correct value of α should be close to the higher value of 8 Wm-2K-1, as otherwise the estimated warming is significantly larger than the 0.4 K in fact recorded during the last 20 years of the XXth century. Thus, we conclude once more that the climate change observed during the XXth century may be fully explained by changes in the solar irradiance reaching the terrestrial surface, whereas the role of carbon dioxide and other greenhouse gases has been almost negligible. Given the estimate of α = 8 Wm-2K-1, we estimate the warming contribution of carbon dioxide of 0.2 K for the current century, provided we don't restrict its emissions.

Figure 4. Climate scenario for the current century: the approaching Little Ice Age, taken from [16], with permission.

2.3   Climate change in this century
Based on the evolution of the duration of the Schwabe cycle and on the satellite measurements of the total solar irradiance during the last 30 years, astronomers predicted the amplitudes of the next three Schwabe cycles, of about 70, 50 and 35 sunspots at the maximum, as compared to 110 of the last complete cycle. This means that a new Little Ice Age will be developing during the XXIst century, with the lowest solar activity achieved around 2040 and the temperatures hitting the bottom at around 2055, at some 1.0 K below the present value for the global average temperatures. This is comparable to what occurred during the Maunder minimum, see Fig. 4 [16,17], being due to the existence of a bicentennial solar activity component, which produces changes in TSI that are significantly larger than those occurring during the Schwabe cycle, accompanied by increased intensity in GCR and cloud cover. This bicentennial component has produced notable climate differences, such as between the present solar maximum and the Maunder and Dalton minimums (Fig. 5), causing Little Ice Ages once in about every 200 years, as the historical record for the last 7500 years shows, with 18 of such cooling events documented [18].

Figure 5. "Windmill by a Frozen River" by Lodewijk Johannes Kleijn, evidencing weeks of freezing cold in Netherlands in the 19th century, after the lowest point of the Dalton minimum, which has been less intense than the Maunder minimum.

3   Conclusions
Anthropogenic Global Warming hypothesis and IPCC climate projections/scenarios have nothing in common with the terrestrial climate system and thus must be expressly ignored when considering climate change and its consequences.
     Anthropogenic carbon dioxide has contributed ca. 0.1 K to the climate change that occurred during the XXth century, and will contribute another 0.2 K in this century, provided its emissions continue unabated.
     A simple phenomenological model, proposed by us and based on climate change patterns of the last 150 years, predicts global cooling in the next 20 years.
     Sun is the principal climate driver. The climate predicted for the XXIst century, based on the solar activity predictions, is equivalent to a new Little Ice Age, with the lowest temperatures in the middle of the century. Therefore, human society should prepare a response to deal with global cooling that will be occurring in the next decades. In this respect, an urgent review of building codes is needed. This will prepare a significant percentage of homes to cold, when it comes. In this context, any warming contribution of anthropogenic carbon dioxide will be a welcome factor stabilizing the climate, therefore any measures targeting reductions of CO2 emissions should be immediately suspended.


References:
[1] Intergovernmental Panel on Climate Change (2007), Climate Change 2007: The Physical Science Basis, report, 996 pp., Cambridge University Press, New York City, 2007.
[2] R. Lindzen, Y.-S. Choi, Geophys. Res. Lett. 36, 2009, pp. L16705. doi:10.1029/2009GL039628.
[3] R. W. Spencer, 2008. Satellite and Climate Model Evidence Against Substantial Manmade Climate Change, http://www.drroyspencer.com/research-articles/satellite-and-climate-model-evidence/. Journal of Climate, submitted.
[4] N. A. Rayner, D. E. Parker, E. B. Horton, C. K. Folland, L. V. Alexander, D. P. Rowell, E. C. Kent, A. Kaplan, Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century, J. Geophys. Res. Vol. 108, No. D14, 2003, p. 4407. doi:10.1029/2002JD002670.
Hadley Centre SST data set HadISST1. http://hadobs.metoffice.com/hadisst/data/download.html
[5] Wikipedia, Fossil Fuel.        
http://en.wikipedia.org/wiki/Fossil_fuel
[6] SIDC-team, World Data Center for the Sunspot Index, Royal Observatory of Belgium, Monthly Report on the International Sunspot Number, online catalogue of the sunspot index: http://www.sidc.be/sunspot-data/, yrs 1700-2009.
[7] J. Lean, J. Beer, R. Bradley, Reconstruction of solar irradiance since 1610: implications for climate change. Geophysical Research Letters 23: 1995, pp. 3195–3198.
[8] J. Lean, Solar Irradiance Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology, Data Contribution Series # 2004-035. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA, 2004. ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/solar_variability/lean2000_irradiance.txt
[9] E. Friis-Christensen, K. Lassen, Length of the solar cycle: an indicator of solar activity closely associated with climate, Science, 254, 1991, pp. 698-700.
[10] D. V. Hoyt, K. H. Schatten, A discussion of plausible solar irradiance variations, J. Geophys. Res., 98, 1993, pp. 18895-18906.
[11] S. K. Solanki, M. Fligge, Solar Irradiance Since 1874 Revisited, Geophysical Research Letters, vol. 25, no. 3, 1998, pp. 341-344.
[12] H. Svensmark, Influence of Cosmic Rays on Earth's Climate, Phys. Rev. Lett. 81, 5027–5030 (1998).
[13] H. Svensmark, J. O. P. Pedersen, N. D. Marsh, M. B. Enghoff, U. I. Uggerhøj, Experimental evidence for the role of ions in particle nucleation under atmospheric conditions, Proc. R. Soc. A 463, 2007, pp. 385–396.
[14] H. Svensmark, Cosmic Rays And Earth’s Climate, Space Science Reviews 93: 155–166, 2000.
[15] R. T. Pinker, B. Zhang, E. G. Dutton, Do Satellites Detect Trends in Surface Solar Radiation? Science, Vol. 308. no. 5723, 2005, pp. 850-854. doi: 10.1126/science.1103159.
[16] H. Abdussamatov, 2008, The Sun defines the Climate, http://www.gao.spb.ru/english/astrometr/abduss_nkj_2009.pdf,  http://www.gao.spb.ru/english/astrometr/index1_eng.html
[17] Kh. I. Abdusamatov, Optimal Prediction of the Peak of the Next 11-Year Activity Cycle and of the Peaks of Several Succeeding Cycles on the Basis of Long-Term Variations in the Solar Radius or Solar Constant, Kinematics and Physics of Celestial Bodies, Vol. 23, No. 3, 2007, pp. 97–100. 
[18] E. P. Borisenko, V. M. Pasetskii, Climate variations during the last millennium, Moscow, Mysl, 1988. http://www.pereplet.ru/gorm/dating/climat.htm

Thursday, October 28, 2010

As Consequências Económicas de Energias Renováveis: Caso de Portugal



As duas componentes de energias renováveis economicamente inviáveis são as energias eólicas e as energias fotovoltaicas.  As fotovoltaicas contribuem relativamente pouco para a produção, deste modo vamos considerar apenas as eólicas. A começar pelos números:

Energias eólicas
  • Potência  instalada, MW: 3535
  • Custos de capital, Euros/kW: 1100
  • Custo das instalações, Milhões de Euros: 3888
  • Custo dos empréstimos, contratados a 10 anos e 5% de juros, Milhões de Euros/Ano: 630
  • Energia eólica produzida em 2010 (estimativa), GWh: 9480
  • Custos de operação e manutenção, Euros/kWh: 0,07
  • Custos de operação e manutenção em 2010, Milhões de Euros/Ano: 660
  • Total de custos directos a economia, Milhões de Euros/Ano: 1290
  • Consumo doméstico de electricidade, % do total: 28
  • Consumo de electricidade pelos sujeitos de actividades económicas, % do total: 72
  • Factor médio ponderado dos preços de energia nos custos de actividades económicas: 6
  • Prejuízos totais (directos+indirectos) para economia, provocados pelo uso de energias renováveis, Milhões de Euros/Ano: 5600
  • Taxa média dos impostos em Portugal, incluindo IVA, IRC etc, %: 40
  • O dinheiro que deixa de entrar nos cofres do Estado na forma de impostos, Milhões de Euros/Ano: 2200

Conclusões

Entre os gastos em custos de capital para instalação dos renováveis, e nos subsídios à produção, e as perdas nas receitas fiscais, geradas pela produção das energias renováveis, o Estado Português deita ao vento, anualmente, mais de 2000 Milhões de Euros do dinheiro nosso, excedendo metade do défice orçamental deste ano, que está a ser corrigido pela redução dos salários e aumento dos impostos.
Vamos apenas relembrar que as "energias verdes", absurdamente caras e economicamente inviáveis, estão a ser introduzidas sob os pretextos de combate ao Aquecimento Global Antropogénico, e de substituição de combustíveis fósseis, ambos falsos. Notemos de passagem que o Painel Intergovernamental das Alterações Climáticas nada consegue saber sobre o clima futuro, razão pela qual as suas previsões catastróficas não têm qualquer credibilidade.

Nota adicional

Os custos reais para o consumidor são o dobro da nossa estimativa acima apresentada de 1300 Milhões de Euros anuais: os chamados Custos de Interesse Económico Geral (CIEG) em 2011 atingem 2500 Milhões de Euros anuais, pois ainda temos que pagar às centrais térmicas, por não produzirem a electricidade produzida pelas centrais eólicas e vendida ao consumidor pelo mais que o dobro do preço normal.

Na realidade, todos os custos acrescidos de energias renováveis, até esta data, estiveram a ser suportados pelos consumidores domésticos, muito embora estes consomem menos de um terço da energia eléctrica produzida, e nunca pediram que lhes fosse fornecida energia eléctrica mais cara, em vez da mais barata.

Realidade longe das previsões
  
Esta análise da produção de energia eléctrica, entre 2008 e 2011, pelas instalações eólicas da Grã-Bretanha, mostra que a energia eólica é altamente volátil, necessitando da grandes instalações hidra-acumuladoras, extremamente caras, para seu funcionamento. Deste modo, os planos de substituição de centrais térmicas pelas centrais eólicas, além de não trazer qualquer benefício ecológico ou económico, são tecnicamente infundados.

Notas adicionais

Custos das renováveis na Alemanha, dos moinhos de vento instalados nas águas do mar Báltico: €200/MWh, contra €40/MWh de energia convencional. O artigo completo do James Boxell foi publicado pela Financial Times.

A dívida tarifária dos consumidores de electricidade em 2013 ascende aos 3 mil milhões de euros, e vai crescer nos próximos anos. 
_

Tuesday, October 12, 2010

Fossil fuels are dwindling - you got to be kidding!




We know that oxygen gas present in the atmosphere and allowing us to breath has been produced as a by-product of photosynthesis, which occurs in plants, allowing them to produce organic matter, used as food by animals. Plants use carbon dioxide gas, present in the atmosphere, incorporating its carbon into organic matter, and liberating oxygen gas. Free oxygen gas is present in the atmosphere because some of the organic matter produced over the ages has not been consumed, forming on geological time scales deposits of coal, oil and natural gas, commonly known as fossil fuels. Therefore, knowing the amount of oxygen in the atmosphere, we can deduce the amount of fossil fuels buried underground, expressed as equivalent carbon. To do that, we shall write a simplified chemical equation of photosynthesis that most schoolchildren are able to understand:

hv + CO2 = C + O2

Here, hv represents the solar light energy, CO2 - carbon dioxide gas, C -  equivalent organic carbon, which is mostly incorporated into a sugar, glucose, and O2 - oxygen gas. This equation states that one molecule of carbon dioxide gas yields one carbon atom, incorporated into organic matter, and one molecule of oxygen gas, which is equivalent to mass conservation - atoms don't disappear, nor are they created from nothing. Using the Periodic Table, we obtain that for each 12 grams of carbon incorporated into organic matter by plants, 32 grams of oxygen gas are liberated. Using Wikipedia, we can find the data on the total amount of oxygen present in the atmosphere, and calculate that it corresponds to about 2 tons of oxygen per each square meter of the Earth's surface area. Doing a proportion, we get that there exist, buried, some 0.8 tons of carbon, on average, per square meter of the Earth's surface area. Of these, once more using Wikipedia, the known and confirmed deposits of coal, oil and natural gas correspond to less than 3 kilograms per square meter, which makes about 0.3% of the total. These known deposits will sustain world economy for at least a century, therefore, we still have fossil fuels for thousands of years to come, under any thinkable development scenario of the world economy and demographics.

Make your own conclusions on whether we need very expensive windmills or extremely expensive photovoltaic installations, recalling that, contrary to what IPCC says, CO2 - the "pollutant" that plants need to feed us - does not affect the climate to any measurable extent. To make things worse, even if it did, IPCC would not know - they can't possibly know anything about future climate. 

To learn more:
  1. Optimism on US stocks of fossil fuels.
  2. On grim perspectives of renewable energies in Europe

 

Note added in proof

on 2011/12/19 

Prof. Nikolai Bazhin called my attention to the fact that geologists provided a better estimate of the total amount of organic carbon buried underground, based on the amounts and types of sedimentary rocks in the Earth crust, and the contents of organic carbon in such rocks. As experience tells, of the total amount of organic carbon, which they estimate at 27 tons/m2 (10% uncertainty), only about 1 % is contained in economically viable deposits of coal or petroleum. This leaves us with at least 270 kg/m2 of coal and petroleum, against the known deposits of 3 kg/m2. Continuing extraction at present rates, we shall have sufficient fossil fuels for about 9 thousand years. 

Reference

Peter Warneck "Chemistry of the Natural Atmosphere", Vol. 71, International Geophysics Series, Eds. R. Dmowska, J. R. Holton, H. T. Rossby, Second Ed., Academic Press, 1999, pp. 666-672.

 

New developments - shale gas

on 2012/12/09
Quoting: "... the Earth can now provide us with about 250 years’ worth of gas supplies".
No doubt that there is yet much more of oil and gas to explore.

on 2013/02/11
Britain has shale gas for 1500 years - an article in The Times

_

Thursday, September 9, 2010

Climate Change, Climate Models and Climate Predictions: Riddles Solved

Climate Change, Climate Models and Climate Predictions: Riddles Solved

Igor Khmelinskii

DQF, FCT, and CIQA, Universidade do Algarve, Campus de Gambelas, 8005-139
Faro, Portugal


The Intergovernmental Panel on Climate Change (IPCC) in its Fourth Assessment Report uses various suitably parameterized finite-difference computer models, concluding that currently occurring climate change is caused by anthropogenic carbon dioxide (CO2), and therefore advocating measures to drastically reduce anthropogenic emissions of CO2, for fear that these will cause a climatic catastrophe 1. We demonstrate that essential physics is missing in the aforesaid models, which therefore lack any credibility as regards climate predictions. We also show that the climate system is entirely deterministic, and thus may be comprehensively understood and predicted using models that include complete physics. These findings prove that the Anthropogenic Global Warming hypothesis is not a valid theory, its models deficient in physics essential for long-term weather and climate predictions. This in turn renders unnecessary any measures aimed at reducing anthropogenic emissions of CO2, for complete lack of scientific evidence that such emissions may be causing significant climate change, and allows humanity to avoid economic and social costs of such measures. Moreover, such measures are counter productive in light of the beginning global cooling, much more dangerous than warming, due to inevitable losses in agricultural productivity, and which we should rather try to slow down than accelerate 2,3.

The evidence of the fatally incomplete physics of the IPCC climate models is provided by the 25 years of pioneering research and development experience of Prof. P. Corbyn and co-workers, who are consistently producing accurate long-range forecasts of the extreme weather events, mostly for UK and Ireland, based on their Solar Lunar Amplification Magnetic (SLAM) theory 2. This approach correlates external factors (EFs), such as solar activity and solar magnetic field conditions and exact location of the Moon, with past extreme weather events, and then looks for the same set of EFs to reproduce in the near future, and thus predicts future extreme weather events up to 12 months in advance, indicating date, location and type of event, with ca. 90% success rates. Probability of such accurate predictions occurring by chance is zero, as demonstrated by the well known inability of the traditional climate models used by meteorologists to predict weather for more than 10 days in advance – one can confirm this by searching internet for weather forecasts – and by their generally recognized inability to produce long-range forecasts, traditionally attributed to stochastic nature of the climate system. Indeed, as we will shortly see, popular wisdom should be better in long-range forecasts than traditional meteorology: popular wisdom correctly assumes the deterministic approach and states that certain weather events are bound to produce other well-defined weather events. The unquestionably outstanding long-range predictive success of the SLAM theory, vs consistent failure of traditional meteorology, thus provides us with three important pieces of information:
  1. the terrestrial climate system is completely deterministic, its current state determined by the acting EFs and its previous state;
  2. physical phenomena essential for weather and climate prediction are missing from both traditional meteorological models and IPCC climate models;
  3. the missing physics is essential for weather and climate, as traditional weather models drift away from the real terrestrial climate system already on the time scale of 1-2 weeks. 
Now, given the deterministic nature of the climate system, climate prediction is equivalent to very-long-range weather prediction, and may be conceivably achieved using models that include complete physics. Another approach could be that currently used by Prof. Corbyn's group, namely, looking for climate that has occurred in the past when FEs were the same as they will be some time in future. Obviously we need sufficiently detailed knowledge of past climate and past and future states of the EFs in order to use this approach.

Let us consider how the EFs, acting by physical mechanisms unknown to both traditional meteorologists and IPCC climate modelers, affect their respective models. Traditionally, the inability of the models to predict weather for more than about 2 weeks in advance is attributed to the stochastic nature of the climate system, whereby any small deviations from the imperfectly known initial state of the climate system develop exponentially in time in the models, obliterating any causality and predictive capacity of these models within a relatively short time span. However, being aware of the physics lacking in these models, and of the deterministic nature of the climate system, we conclude that the stochastic nature of the traditional climate models necessarily results from the EFs being variable in time – indeed, the loss of predictability within a couple of weeks implies that the EFs in the Sun-Earth-Moon system do change significantly within such a time period – the most evident reason for such rapid change being the Moon orbiting the Earth, with the period of ca. 4 weeks. Turning now to the IPCC climate models, we note that these use incomplete (and therefore incorrect) physics, similar to that of weather models, with added greenhouse effects, solar constant variations with solar activity changes, etc. Although these models were tuned to reproduce the temperature history of the 20th century, by way of adjusting several parameters that are poorly defined by the available experimental data, and succeed in attributing most of the observed warming to growth in atmospheric CO2 concentrations, they consistently fail to reproduce any of the other measurable properties of the climate system. With the missing physics in mind, we should not be surprised, for example, by the intuitively absurd and experimentally unconfirmed results of the IPCC models as regards changes in the outgoing flux of infrared radiation upon global warming: indeed, the models consistently predict that the Earth will emit less infrared radiation if warmed, whereas the experimental results confirm that it does emit more 4, exactly as intuitively expected taking into account the Stefan-Boltzmann law 5. Indeed, it is this very property of the IPCC climate models that results in predictions of a climate catastrophe, due to positive "climate feedbacks" introduced into models in an attempt to explain warming by growing atmospheric CO2, other possible causes either unknown or ignored. We see that the failure to include complete physics has produced models that have nothing in common with the real climate system of our home planet – they do explain the past warming by largely attributing it to atmospheric CO2, but they fail to reproduce other properties of the climate system, and therefore have no predictive capacity. They in effect model some imaginary non-existent climate system, with properties essentially different from those of our real climate system, and thus probably even disobeying fundamental principles of physics that every natural system does obey. Obviously, it may be possible to approximately reproduce the natural evolution of any one parameter in such deficient models, by suitable  parameterization of effects difficult or impossible to properly include in the simulations, such as cloud formation phenomena, as in fact happens in the IPCC climate models. On the other hand, it is impossible to comprehensively reproduce the behavior of the climate system in its entirety without knowing complete physics acting in it, as shown by utter failure of the traditional models in long-range predictions – which necessarily leads to a still bigger failure in the very-long-range predictions, that is, predictions of the climate change, at the very least influenced by (same as the weather is – see the discussion above) and/or caused by changes in EFs. On the other hand, the SLAM theory attributes almost the entire warming of the 20th century to the EFs, leaving very little margin for any affect of the changes of concentrations of atmospheric CO2 and/or other greenhouse gases 2.

We therefore conclude that failure to include complete physics may and does produce arbitrarily large deviations in the results of the IPCC climate models that describe the future of the climate, as compared to the real climate system. We describe as arbitrarily large, for example, the predicted exponential growth of temperature in the climate scenarios that presume no reduction in CO2 emissions. We shall illustrate this statement by a simple example from daily experience. Imagine we are observing a car on a motorway and want to predict its location in function of time. Knowing some "physics" (cars can't reverse on a motorway etc), we will obtain a fairly accurate and highly probable prediction, up to the moment when the car arrives to the nearest junction, the point where the behavior of our system becomes "stochastic" – at the junction the driver may either get off the motorway, or stay on it (missing/unknown "physics" in our model). However, if we had the complete "physics" (knowing, for example, that the car belongs to Mr. A, who is going to visit his girlfriend, Ms. B, as he usually does each Friday), we would produce a much better forecast of the car location in time, with the stochastic contribution disappearing completely, and would also produce a much better long-range forecast, easily and correctly predicting that Mr. A's car will stay on Ms. B's driveway till Sunday evening, as it usually does. Naturally our predictions would be completely wrong (arbitrarily large difference) if we were erroneously informed that Mr. A goes to meet his friends for a beer each Friday (wrong/incomplete "physics" in our model). Similarly, EFs unknown to the modelers may, as logically demonstrated, and will, as demonstrated on the specific example of the "climate feedbacks", produce arbitrarily large deviations in the models as compared to the real climate system. The IPCC climate models, therefore, have zero predictive ability, due to the failure to include complete physics, and thus must be expressly disregarded when discussing the future of the terrestrial climate. Indeed, not knowing what the EFs are and how and to what extent they affect the weather and the climate, both traditional meteorologists and IPCC modelers are unable to produce models that faithfully reproduce the behavior of the real terrestrial climate system. The consequence of this inability for the short-term predictions of the meteorological models is that their predictive ability is lost as soon as the EFs change significantly, which does happen within a couple of weeks. On the other hand, the predictive ability of the IPCC models is absent in any time interval they consider, as the EFs unknown to and unaccounted for by the modelers, along with the incorrectly parameterized known physics (as otherwise the models fail to produce the CO2 warming effects expected by the modelers) will make any prediction of such incomplete and incorrect models drift away from the state of the real climate system, to an arbitrary extent, already on the time scales much shorter than those required for climate predictions. The incorrect parameterization mentioned follows, for example, from the fact that the CO2 global warming effect deduced from the experimental data is about 1 order of magnitude lower than that following from the IPCC climate models 4.

We conclude that the Anthropogenic Global Warming hypothesis, embodied in the IPCC climate models, is not a valid theory, due to irreparable fundamental flaws in the models, namely, their failure to include complete physics. Therefore, we find no scientific justification for reducing anthropogenic emissions of CO2. On the contrary, these emissions should be kept growing, in the (probably largely vain) hope to mitigate the global cooling and the eventual new Little Ice Age, already in progress and predicted to be in full swing by the middle of this century, with the distinct solar activity patterns leading to such conclusions documented and correctly interpreted by several research groups 2,3.

1. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, 2007, Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor and H.L. Miller (eds.), Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.
2. http://www.weatheraction.com/
3. Kh. I. Abdusamatov, Optimal Prediction of the Peak of the Next 11-Year Activity Cycle and of the Peaks of Several Succeeding Cycles on the Basis of Long-Term Variations in the Solar Radius or Solar Constant, Kinematics and Physics of Celestial Bodies, Vol. 23, No. 3, 2007, pp. 97–100.
4. R. Lindzen, Y.-S. Choi, On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett. 36, 2009, L16705, 6 pp. doi:10.1029/2009GL039628.
5. http://en.wikipedia.org/wiki/Black_body#Stefan.E2.80.93Boltzmann_law



This paper was submitted to Nature, and rejected with the following verdict:
9th September 2010

Dear Professor Khmelinskii

Thank you for submitting your manuscript entitled "Climate Change, Climate Models and Climate Predictions: Riddles Solved", for consideration. I regret that we are unable to publish it in Nature.

As you may know, we decline a substantial proportion of manuscripts without sending them to referees, so that they may be sent elsewhere without delay. Decisions of this kind are made by the editorial staff when it appears that, even if certified as being technically correct during peer review, there would not be a strong case for publication in Nature. These editorial judgements are based on such considerations as the degree of advance provided, the breadth of potential interest to researchers and timeliness.

In this case, we do not feel that your paper has matched our criteria for further consideration. More specifically, while we have no doubt that your findings will prove stimulating to fellow specialists, I regret that we are unable to conclude that your paper provides the sort of firm conceptual advance in our understanding of climate - or the underlying factors influencing climate change and/or variation - that would justify publication in Nature. We therefore feel that the paper would find a more suitable outlet in another journal.

I am sorry that we cannot respond more positively on this occasion.

Yours sincerely

Dr Michael White
Senior Editor 
Nature
San Francisco

Wednesday, July 7, 2010

Até aonde serão capazes de ir os eco-terroristas?



O jornalista da RTP Sr. Vasco Matos Trigo, na discussão que decorreu recentemente na Fundação Calouste Gulbenkian a propósito da visita a Portugal do Sr. Pachauri, pronunciou-se no sentido de que a comunicação social não deveria reflectir pontos de vista incorrectos face ao aquecimento global antropogénico, fraude esta que está a ser promovida na RTP2 pelo próprio Sr. Vasco Trigo.

Ora, este apelo já foi ouvido do outro lado do Oceano Atlântico, onde o Sr. Obama prometeu proibir, por lei ou decreto presidencial, a expressão de qualquer opinião que ponha em causa a fraude global originada pelo IPCC e promovida, com grandes vantagens monetárias pessoais, pelo Sr. Gore e todos os que fazem ou querem fazer negócios fraudulentos com o dinheiro dos contribuintes – quer seja em créditos de carbono, impostos sobre o consumo de combustíveis, ou em desenvolvimento das energias renováveis, todos estes "negócios" são subsidiados pelos cidadãos contribuintes.

E o Sr. Trigo, já investiu nas energias renováveis ou créditos de carbono, ou está apenas a valorizar a importância daquilo que está a fazer no seu emprego? Qual será o preço aceitável para que ele venda a Democracia e a Liberdade?

Porque será que os nossos jornalistas não querem saber do incontável número de pessoas que morrem de fome nos países pobres, uma vez que os preços dos alimentos no mercado mundial duplicaram devido à produção agrícola de biodiesel, subsidiada pelos governos dos países desenvolvidos (e "civilizados"), incluindo Portugal, que subsidia o biodiesel produzido na agricultura em pelo menos 100 milhões de euros, e isto apenas ao longo do ano de 2010, sob a forma de descontos no IVA ...

E o mais chocante foi que estas declarações não provocaram sinais de indignação de nenhum dos ilustres convidados presentes.

_

Saturday, June 19, 2010

Aquecimento global antropogénico, biocombustíveis e mortes de fome

Os trabalhos de investigação e desenvolvimento com o objectivo de produzir biocombustíveis são motivados pelo papão do Aquecimento Global Antropogénico, promovido pelo PAIC (Painel Intergovernamental das Alterações Climáticas da ONU, IPCC em Inglês) e utilizado como justificação de muitos projectos megalómanos, economicamente inviáveis e moralmente condenáveis, incluindo as energias renováveis, créditos de carbono e biocombustíveis.

Nesta última categoria incidem os trabalhos do colega João Varela, relatados pelo próprio no dia 18 de Junho de 2010 na palestra intitulada "Organismos marinhos — Fontes promissoras de biocombustíveis e compostos bioactivos". O autor propõe usar micro-algas para produzir biodiesel, num processo que utiliza luz solar numa instalação localizada no deserto, água salgada do mar, dióxido de carbono e adubos. Quanto a viabilidade económica, os projectos mostram-se completamente inviáveis, apresentando preços pelo menos 5 vezes superiores aos combustíveis naturais. Assim, terão de ser fortemente subsidiados, tanto na fase de instalação como na fase de exploração, esbanjando o dinheiro dos contribuintes.

Por outro lado, os custos reais serão ainda mais elevados, havendo várias razões para isso. Pois o autor não propôs qualquer solução para obtenção do dióxido de carbono, necessário para manter os rendimentos elevados de micro-algas. Obviamente, a solução implícita seria de ir a boleia dos projectos megalómanos, dispendiosos e completamente fúteis, na medida que o dióxido de carbono não apresenta qualquer perigo ambiental,  de captação do dióxido de carbono gerado nas centrais térmicas, muito embora não se vislumbra a possibilidade de instalação de uma central térmica no meio do deserto, pois estas necessitam de grandes quantidades de água doce para arrefecimento. Ainda a produção de nitrato de amónia, fonte de nitrogénio necessário para crescimento rápido de micro-algas, é um processo energicamente dispendioso, que utiliza combustíveis fosseis. O recurso a combustíveis renováveis neste último processo, embora reduza o consumo de combustíveis fósseis, ocupa áreas agrícolas, com consequências moralmente inaceitáveis, pois implica a produção agrícola de combustíveis. Fica por resolver a questão de reciclagem de águas com salinidade elevada, e com concentrações elevadas de nitratos, que resultaria da evaporação dos reservatórios abertos num ambiente desértico, ou de custos de limpeza de tubos de vidro e de desinfecção das águas, no caso de utilização de instalações fechadas.  

As justificações de desenvolvimento de biocombustíveis são ainda baseadas em estimativas tendenciosas do tamanho de jazidas de petróleo e do carvão, semelhantes às publicadas de Wikipedia, falsificada pelos visados do escândalo Climategate, ou das do governo do Estados Unidos, totalmente rendido às ideias do lobby do Aquecimento Global Antropogénico. De facto, não existe qualquer problema com fornecimento de petróleo ou de carvão, nem seja previsível que estes problemas possam aparecer. Pois observando a experiência histórica, o tamanho de jazidas conhecidas e confirmadas de petróleo tem estado a crescer, na medida que as jazidas conhecidas foram extraídas. Ora ninguém vai procurar jazidas novas, enquanto as existentes produzem o necessário, já que as novas descobertas podem fazer baixar os preços, desvalorizando os investimentos feitos anteriormente. É fácil de perceber estes factos do ponto de vista geológico, já que apenas 4% da superfície terrestre foram alguma vez pesquisados a propósito de petróleo. Apenas um país, o Iraque, deve ter pelo menos 60 mil milhões de toneladas de petróleo, por extrair.

Além disso, a eficiência teórica máxima de aproveitamento de energia solar em fotossíntese é de apenas 11%, enquanto a eficiência de células fotovoltaicas hoje em dia ultrapassa este valor em pelo menos 3 vezes, mostrando pouca eficácia da abordagem proposta.  

O futuro de fornecimento de energia está nos reactores nucleares que conseguem consumir os detritos radioactivos, extraindo até 50 vezes mais energia do urânio do que os reactores antigos, mas não em qualquer tipo de produção biológica, economicamente inviável e moralmente reprovável, por estimular o crescimento dos preços no mercado de bens alimentares, conducente a fome e a morte em massa de pessoas nos países pobres.

Thursday, June 3, 2010

A TERRA JÁ FOI SALVA, HÁ 2010 ANOS


O que não quer publicar o Jornal de Negócios (comentário às Edições Especiais de Negócios Mais, de 22 e 28 de Abril, dedicados ao assunto de Aquecimento Global). 

Para benefício dos leitores iremos esclarecer certos aspectos do problema do Aquecimento Global Antropogénico e avaliar as medidas para combater o problema climático que alegadamente existe, segundo o PAIC/ONU (Painel Intergovernamental das Alterações Climáticas das Nações Unidas).

Os relatórios quinquenais do PAIC/ONU

Estes relatórios são compostos, maioritariamente, pela análise de estudos científicos dedicados às consequências das alterações climáticas. Estes estudos, na sua maioria, até apresentam resultados e conclusões válidas, embora os tópicos dos mesmos sejam completamente irrelevantes, pois estuda-se aquilo que "poderia acontecer se o clima ficasse muito mais quente nos próximos 100 anos". A pouca relevância é consequência directa da falta de fundamentos científicos das previsões apocalípticas do PAIC/ONU, como demonstraremos adiante. Deste modo, as centenas de milhões de euros anualmente gastos em estudos climáticos poderiam ser aproveitadas para estudos muito mais prementes e relevantes, ajudando a combater a fome, a malária, a falta de água potável e muitos outros problemas reais.

Entretanto, estes relatórios são usados como cortina de fumo, para encobrir precisamente a ausência de bases científicas das conclusões neles contidas e para manipular a opinião pública, através da comunicação social. Pretendem justificar quer os gastos desnecessários em energias renováveis (cujos preços superam os das energias tradicionais em cerca de 10 vezes), quer os esquemas de negócios em "créditos de carbono" os quais, supostamente, devem reduzir as emissões atmosféricas de dióxido de carbono (CO2), tudo custeado pelo consumidor/contribuinte dos países desenvolvidos.

Adicionalmente, as conclusões contidas nestes relatórios não reflectem o conteúdo científico dos mesmos, como ficou demonstrado pela sua alteração administrativa para ideias contrárias às anteriormente apresentadas. Este caso está documentado nas mensagens de correio electrónico publicadas no âmbito do escândalo "Climategate", discutido adiante. Ora, na versão preparada pelos cientistas concluiu-se, pela ausência de indícios, que o aquecimento global pode ser antropogénico, tendo os mesmos indícios aparecido, miraculosamente, na versão final do relatório.     

A metodologia "científica" adoptada nos estudos do problema: relação entre teoria e prática  

O desenvolvimento da ciência ocorre através da interacção entre a teoria e a prática. Os resultados das experiências práticas levam os cientistas a formular hipóteses que se transformam em teorias, aceites pela grande maioria dos cientistas, desde que não surja nenhum resultado experimental que contradiga a teoria, levando à criação de novas hipóteses e assim por diante. Basta um resultado não explicado pela teoria, para que esta deixe de ser válida. Além disso, nenhuma teoria pode ser provada definitivamente, pode ser apenas rejeitada por novos resultados experimentais.

Os modelos climáticos computacionais do PAIC/ONU, neste contexto, fazem parte do domínio teórico. Devem ser comparados com os dados reais da evolução climática, os quais podem rejeitar, ou não, estes modelos. De facto, nenhuma das previsões concretas e testáveis destes modelos se verifica na realidade. Nestas condições, a insistência do PAIC/ONU em continuar a considerar os seus modelos climáticos como verdade final e absoluta, declarando que "não há lugar para as discussões, chegou o tempo de agir",  mais se assemelha com uma fé religiosa cega e incondicional, ou com uma doutrina política totalitária e absolutista do que com investigação científica. Com esse espírito, um dos cientistas envolvidos na criação destes modelos afirmou que "... é a Natureza que está errada; os meus modelos estão certos".

Além disso, estes modelos climáticos são inerentemente imprecisos sob o ponto de vista matemático, não existindo qualquer possibilidade de correcção deste defeito. Por este motivo nunca devíamos tentar usá-los em previsões de qualquer espécie, facto este que os criadores dos modelos conhecem desde o princípio, mas preferem ignorar.

Teorias alternativas

Existem teorias alternativas que explicam o aquecimento global de forma mais consistente que o efeito de estufa, provocado pelo CO2 antropogénico. Uma destas afirma e com provas experimentais muito concretas, tais como dados do recuo dos glaciares. Sabe-se que este recuo já ocorria no Século XIX, prosseguiu com a mesma intensidade no Século XX e que o aquecimento nada tem a ver com o CO2. Ele já ocorria nos 150 anos precedentes ao rápido crescimento das concentrações do CO2 e com a mesma intensidade. Entretanto, o PAIC/ONU faz de conta que desconhece estas teorias alternativas, não lhes dando qualquer atenção e seguindo o dogma do aquecimento global provocado pelo CO2 antropogénico como a única possibilidade existente. Só que não dispõe de nenhuma prova deste seu dogma.

O próprio Sr. R. Pachauri, director do PAIC/ONU, admitiu, implicitamente, a ausência total de provas quando foi por nós desafiado durante recente discussão na Fundação Calouste Gulbenkian, para apresentar uma única prova de que o aquecimento global é provocado pelo dióxido de carbono. Não soube responder a este desafio, esquivando-se e comentando uma afirmação nossa, ao invés de responder ...

Os modelos nada provam

Os modelos climáticos do PAIC/ONU não podem servir de prova que o aquecimento global está a ser provocado pelo dióxido de carbono pois foram "acertados" utilizando coeficientes numéricos ajustáveis, ao gosto do criador do modelo, de modo a poderem explicar o aquecimento real vivido no Século XX com o crescimento das concentrações desse mesmo dióxido de carbono. Usando os modelos como usa, o PAIC/ONU cai na falácia da argumentação "ad ignoratum", bem conhecida desde os tempos romanos: não sabemos nem queremos saber outra razão, então a razão é o dióxido de carbono atmosférico, mas uma outra coisa não pode ser, pois não sabemos qual é. De facto, do mesmo modo foram também "acertados" os modelos que descrevem o comportamento atmosférico do ozono, para "explicar" a redução de ozono pelos CFC's de origem humana e "provar" assim a relação causa–efeito entre as duas coisas, as quais na realidade tanto podem estar, como não, assim relacionadas, pois os respectivos modelos  não provam esta relação.

Impacto no orçamento de famílias

A implementação de uma redução da ordem dos 30% nas emissões de CO2 pelos países desenvolvidos irá aumentar os preços de todos os tipos de energia em cerca de 4 vezes, pois os preços correntes das energias renováveis são cerca de 10 vezes superiores aos das energias tradicionais. Assim, quem gasta actualmente cerca de 300 euros mensais com a energia eléctrica, gás e gasolina, irá ter de pagar cerca de 1200 euros, quer seja sob a forma de preços directos, quer sob a forma de impostos, usados para subsidiar as energias renováveis. De facto, foi previsto pelo projecto-lei sobre o aquecimento global, chumbado recentemente pelo parlamento Australiano, exactamente um crescimento efectivo de 400% nos preços da energia para o consumidor. Além do crescimento dos custos directos teremos também o custo acrescido dos transportes e da energia para as empresas, sendo de esperar um aumento significativo do preço de todos os bens e serviços.

Impacto na economia nacional

As empresas nacionais irão perder a competitividade que ainda lhes resta, suportando o aumento de custos provocados pela subida dos preços da energia, concorrendo com as empresas de países em desenvolvimento. Para sobreviver terão de transferir as suas operações para estes países, alimentando assim o desemprego estrutural e permanente em Portugal e nos outros países desenvolvidos, pois a produção nesses países deixará de ser economicamente viável.

Aspectos científicos

Cientificamente, a única prova que alguma vez existiu da relação causa – efeito entre as crescentes concentrações atmosféricas de dióxido de carbono (fórmula química CO2, designado incorrectamente de "Carbono" quando se fala, por exemplo, em "taxas de carbono" ou "pegada de carbono") e as crescentes temperaturas globais, são os modelos climáticos usados pelo PAIC/ONU. Estes modelos prevêem o crescimento "mais provável" das temperaturas globais em 3,5 ºC, que será provocado pela duplicação de CO2 atmosférico. Por sua vez, esta duplicação poderá acontecer nos próximos 100 anos, caso a humanidade continue a emitir CO2 sem restrições.

Ora estes modelos climáticos não conseguem prever sequer o sinal (positivo ou negativo) e muito menos o valor da retroacção (em Inglês: "feedback") climática. Este parâmetro do sistema climático é crucial, pois define a resposta do sistema a toda a espécie de perturbações, tais como aumento de concentrações atmosféricas de gases com efeito de estufa, cinzas lançadas na atmosfera pelos vulcões, alterações da intensidade de radiação solar, e muitas outras. De acordo com os modelos do PAIC o sistema climático amplia as perturbações. Por exemplo, imaginemos que aumentamos a concentração do CO2 de tal modo que a temperatura média suba 1 ºC pela presença deste. Então, o sistema climático reagirá de modo tal que a temperatura sobe não apenas 1 ºC, mas sim muito mais. Por  exemplo uns 3ºC, ampliando a perturbação. Esta propriedade chama-se “retroacção positiva”. É precisamente esta a propriedade de todos os modelos climáticos do PAIC/ONU que resulta em previsões apocalípticas do aquecimento global galopante e catastrófico, caso "não se faça alguma coisa e já", pois as perturbações pouco significantes logo adquirem uma importância catastrófica. Notemos ainda que as previsões dos modelos PAIC/ONU variam muito, com diferenças entre modelos que atingem as 5 vezes. 

Entretanto, as medições experimentais mostram (ao invés dos modelos, trata-se desta vez da realidade climática e não da sua representação idealizada por cientistas em modelos computacionais) que a retroacção climática real é negativa e bastante elevada. Repetindo a mesma experiência virtual, iremos obter um crescimento real de temperatura não de 1 ºC pelo efeito do CO2 que acrescentámos à atmosfera mas de apenas uns 0,3ºC. Ou seja, a Natureza tem mecanismos de defesa para as perturbações, compensando uma grande parte do seu possível efeito. Eliminam-se assim as razões de preocupação com o aquecimento global, pois mesmo as perturbações significativas na prática perdem a sua importância.

Incapazes de reproduzir correctamente o parâmetro crucial da retroacção climática, os modelos do PAIC deixam de ser uma teoria válida. Deste modo, todas as suas conclusões deixam de ter qualquer relevância e não podem ser usadas em previsões da evolução futura do clima. Entretanto, todos os dados apontam para o facto do CO2 não ser o responsável pelo aquecimento que temos registado. Pelo contrário, mostram que o crescimento das concentrações atmosféricas de CO2 é uma consequência desse aquecimento, provocado pelas alterações de intensidade da radiação solar.

Senão, vejamos:

  • O aquecimento geral que estamos a viver começou há mais de 200 anos. Decorre em períodos de cerca de 60 anos em que durante 30 anos aquece e nos outros 30 arrefece, embora arrefeça menos do que aqueceu.
  • Este aquecimento iniciou-se no fim da chamada "Pequena Idade de Gelo". Este foi um fenómeno real, evidenciado por obras artísticas e literárias. Temos pinturas holandesas e inglesas mostrando o rio Tamisa e os canais de Amesterdão gelados e pessoas divertindo-se a andar de patins e esquis.
  • Dados paleo-climáticos mostram que a concentração de CO2 aumenta sempre após os períodos de aumento da temperatura. Isto demonstra que o CO2 é o efeito do aquecimento e não a sua causa.   
  • Os modelos do PAIC são incapazes de prever ou explicar o período corrente de algum arrefecimento. Este irá durar, previsivelmente, mais uns 20 anos, apesar do crescimento das concentrações de CO2, tal como já aconteceu há 40 anos, nos anos 70, quando se falava nos jornais de uma nova "idade do gelo" iminente.

Não sendo o aquecimento global provocado pelo crescimento do dióxido de carbono atmosférico, tornam-se desnecessárias as medidas dispendiosas propostas para combater um problema que, afinal, não existe.

Efeitos climáticos das medidas propostas pelo PAIC/ONU

Fazendo as contas com os números constantes nos relatórios do próprio PAIC/ONU, iremos "salvar" a Terra de um aquecimento de 0,2 ºC, nos próximos 100 anos. Este número deve ser comparado aos 0,9ºC em 100 anos de aquecimento "natural" que ocorre desde há 200 anos e que irá continuar, quer limitemos as emissões de CO2 quer não. Tendo em conta o valor da retroacção climática, determinado experimentalmente, o efeito de uma redução em 30% das emissões de CO2 pelos países desenvolvidos seria à volta de 0,03 ºC em 100 anos que, mais uma vez, deve-se comparar com os 0,9 ºC em 100 anos que acontecerão independentemente de tudo o resto. Para nós, estas medidas, mesmo existindo o problema (que não é o caso), parecem ter muito pouco efeito, tendo em conta os gigantescos gastos planeados e os enormes sacrifícios exigidos ao contribuinte. 

Previsões do aumento da frequência de eventos climáticos extremos com o aquecimento global

Estas previsões são simplesmente incorrectas. Admitindo que o aquecimento é provocado pelo efeito de estufa, a contribuição do CO2 na zona equatorial será muito pequena. Aqui o gás de efeito de estufa dominante é o vapor de água presente no ar em grande quantidade. Deste modo, a maior variação de temperatura irá acontecer nas zonas polares e a menor na zona equatorial. O aumento da concentração de CO2 irá diminuir a diferença de temperaturas entre as zonas polares e a zona equatorial, o que reduzirá a velocidade dos ventos (que se formam  pela diferença de temperaturas), a força dos furacões e a frequência dos outros eventos extremos. De facto, foi precisamente uma redução da força de furacões que se verificou durante o Século XX, na consequência do aquecimento global.

Previsões de redução da pluviosidade e aumento da falta de água doce com o aquecimento global

São igualmente incorrectas. Um aumento das temperaturas médias provocará um aumento da humidade absoluta do ar, e, consequentemente, aumentará a frequência e a intensidade de chuvas.

Previsões das alterações climáticas em Portugal

Reconhece o próprio Prof. Filipe Duarte Santos da FCUL, o cientista nacional mais conceituado nesta área, que as tentativas de deduzir dos modelos climáticos do PAIC/ONU quaisquer informações sobre o futuro do clima em Portugal deparam-se com erros muito grandes. É que no território continental português cabem nestes modelos apenas 2 pontos (usam nos seus cálculos uma rede quadrada com 300 km de lado). Nestas condições, esquecendo por momentos que os modelos não têm qualquer valor em termos de previsão, como já foi explicado, mas tendo em conta que os 2 pontos do modelo que correspondem ao território nacional englobam características quer de oceano quer de continente e ainda que, com esta resolução espacial, os modelos distinguem com alguma dificuldade a Península Ibérica e o Norte de África, muita imaginação deve ter quem recentemente empreendeu prever as alterações climáticas em Portugal, com base nos modelos PAIC/ONU.

Quanto à qualidade de previsões específicas, mesmo para zonas muito maiores e mais características, os modelos prevêem que a Amazónia irá secar até 2050 e que as chuvas no Saara deveriam ter aumentado entre 1901 e 1996. A realidade é exactamente contrária e em ambos os casos. A pluviosidade na Amazónia tem estado a crescer, enquanto em Saara tem vindo a diminuir...

"Verde" significa "morte"

A produção agrícola de "combustíveis verdes", subsidiada pelos governos dos países desenvolvidos, face às previsões climáticas do PAIC/ONU, já provocou a duplicação dos preços dos alimentos no mercado mundial. Em consequência disso houve mortes em massa provocadas pela fome em mais de 30 nações pobres, consequência directa da propaganda desenfreada das ideias do PAIC.

Mais dióxido de carbono na atmosfera é melhor

O dióxido de carbono atmosférico não é um poluente, mas sim um alimento para as plantas. A duplicação de CO2 atmosférico irá proporcionar um aumento da produção agrícola em cerca de 50% e sem quaisquer custos adicionais. Aliás, sem o dióxido de carbono que existe nos nossos pulmões, necessário para controlar o processo de respiração, em concentrações 100 vezes superiores às concentrações atmosféricas, nós nem sequer estaríamos aqui.

Mais calor é melhor

Os seres vivos morrem muito mais do frio do que do calor e isto aplica-se até aos ursos polares. A civilização Romana atingiu o auge do seu desenvolvimento no período de "óptimo climático Romano", bem mais quente que a actualidade. Reduzindo-se a área de gelos na Gronelândia aparecem a descoberto antigas estradas e outros vestígios de uma cultura Viking que cultivou aí trigo durante a idade média, num período que também era bem mais quente que a actualidade. Aliás, o nome "Gronelândia" dado a essa terra pelos Vikings, significa "Terra Verde", reflectindo as condições climáticas daquela época no sul desta ilha, hoje sem condições para agricultura.

Falsificadores

O Tribunal Superior ("High Court") Britânico ordenou ao Governo do Reino Unido para distribuir pelas escolas 77 páginas de correcções daquilo que o juiz definiu como "erros" contidos no filme "documentário" do Sr. Gore. Na nossa opinião, a quantidade de erros e a sua importância pedagógica, que determinaram a decisão do Juiz, excluem completamente o uso deste material para fins didácticos.

Os heróis do "Climategate", caracterizado pela imprensa Britânica como "o maior escândalo científico dos nossos tempos", movidos pelo excesso de zelo pela "causa nobre" do aquecimento global antropogénico, obviamente, chegaram a falsificar dados científicos, destruindo os dados climáticos originais e tentaram encobrir os seus feitos, destruindo documentos. Estas mesmas pessoas são, por acaso, os principais autores dos capítulos-chave dos relatórios do PAIC/ONU, capítulos estes que avaliam quantitativamente o comportamento do clima global. Ainda, são os responsáveis pela recepção e interpretação dos dados acerca das temperaturas superficiais, vindos de todas as estações meteorológicas, em 3 instituições científicas, únicas no mundo com esta competência. As mensagens de correio electrónico, trocadas pelos visados, foram divulgadas na Internet e provocaram o escândalo. Estas, ao contrário do divulgado pelos média, não são mensagens privadas, mas fazem parte do domínio público, segundo as respectivas leis dos Estados Unidos e do Reino Unido, na qualidade de documentos directamente relacionados com o trabalho de investigação científica, feito com dinheiro público. Estes factos criam dúvidas bem fundadas quanto à autenticidade dos dados climáticos que servem de justificação para toda a histeria envolta do aquecimento global antropogénico.

Desinformação na comunicação social

Muito embora os acontecimentos climáticos pontuais não consigam provar nenhuma tendência climática, estes são invariavelmente comentados como provas óbvias e irrefutáveis do aquecimento global antropogénico, sendo reportados apenas aqueles que podem ser interpretados nesse sentido, mas nunca os que apontam no sentido contrário. Senão, vejamos:

  • O facto de no verão de 2007 ter ocorrido um mínimo acentuado na cobertura de gelo do Oceano Árctico circulou muito em todos os noticiários e desde aí são discutidas as hipóteses de extracção de petróleo naquela zona, num futuro muito próximo. Entretanto, nunca foi referido que nos verões do 2008 e 2009 a cobertura de gelo recuperou, tendo voltado aos valores médios dos últimos 30 anos. Não há dados fora deste período uma vez que data dessa altura o começo das observações por satélite. Os média nem chegaram a referir que o dito parâmetro é muito volátil e que se encontra sujeito a grandes alterações de uns anos para os outros;
  • Não chegou a ser noticiado que duas semanas após o mínimo da cobertura glacial na zona  Árctica, houve um máximo na  Antárctica, em pleno inverno no Sul;
  • Nem que a tendência geral é o crescimento da área gelada na Antárctica;
  • Ao contrário do noticiado, os gelos da Gronelândia não estão em risco de desaparecer, pois, em média, o gelo está a acumular-se nesta ilha, com a velocidade de 5 centímetros por ano; aliás, estes gelos têm dezenas de milhares de anos de idade, não tendo desaparecido nos períodos quentes que houve neste intervalo de tempo, bem mais quentes do que hoje;
  • Não existe qualquer  tendência de aquecimento da Antárctica, pois ao contrário do resto do mundo, as temperaturas aí estão a decrescer. Isso por ventura explica o facto destes gelos já terem quase um milhão de anos, não tendo desaparecido em qualquer dos aquecimentos que houve neste intervalo de tempo;
  • O nível médio dos oceanos não subiu nos últimos 5 anos;
  • As temperaturas médias globais têm descido nos últimos 10 anos.

O que está a acontecer com o clima?

Depois de um período frio – neste caso, a "Pequena Idade de Gelo" (Little Ice Age) segue naturalmente um período de aquecimento global, o que estamos a viver. O Sol, sendo o motor mais importante do nosso clima, provoca quer períodos de glaciação quer períodos quentes. A intensidade da radiação solar começou a crescer ainda no Século XIX, depois do fim da " Pequena Idade de Gelo" e a única razão pela qual a Terra não aqueceu tanto como podia é a elevada actividade vulcânica que se manifestou naquele século. Os efeitos das temperaturas superficiais dos tempos passados são cumulativos, pois temos um "termoacumulador" que mantém alguma estabilidade nas temperaturas: os oceanos. São necessárias centenas de anos para alterar significativamente as temperaturas nas suas profundezas, bastante mais frias que as camadas superficiais. Deste modo, entramos no Século XX com algum aquecimento ainda por acontecer, correspondente ao aumento da intensidade de radiação solar que se realizou durante o Século XIX. Este aumento não se manifestou nas temperaturas devido às cinzas vulcânicas presentes na atmosfera naquele período. Uma parte deste aquecimento retardado já aconteceu durante o Século XX, tendo provocado um aumento adicional das temperaturas globais. Este aumento é inexplicável pelo crescimento corrente da actividade solar e foi interpretado, com muita vontade política, mas erradamente, como sendo provocado pelo crescimento das concentrações atmosféricas de dióxido de carbono.

Olhando mais de perto, todo o assunto nem vale a tinta já gasta em discussões, pois trata-se de um aumento de temperatura "por explicar" de 0,3ºC em 100 anos, coisa nem visível num termómetro da rua ...

Conclusões

  • O problema climático do aquecimento global antropogénico não existe, sendo um fenómeno virtual criado pelo PAIC/ONU.
  • Não precisamos de tomar quaisquer medidas especiais para salvar a Terra do aquecimento catastrófico, além de reclassificar o PAIC/ONU em organismo religioso ou partidário, cortando-lhe o financiamento público, por não serem capazes de produzir um trabalho sério em mais de 20 anos de existência.
  • No Século XXI, espera-nos mais algum arrefecimento, que irá durar aproximadamente até ao ano 2030. O aquecimento total durante o Século XXI será comparável com o que tivemos durante o Século XX, tudo causado pelas alterações de intensidade da radiação solar.



Saber mais

1. Colbert report: Food Control Genocide.
2. Crescimento de preços de alimentos no mercado mundial e mortes de fome em Haiti e outros países.
3. The Global Warming Suicide Cult.
4. Kissinger's 1974 plan for Food Control Genocide - the document.  
_