sábado, 30 de abril de 2016

Por qué necesitamos un límite a la velocidad en Internet

Por Kris De Decker
Crisis Energética
 
La revista en lengua inglesa Low Tech Magazine, ha publicado un interesante artículo titulado “por qué necesitamos un límite a la velocidad en Internet”, que por su interés público y los tremendos cálculos del consumo energético de este gigante que se suponía bastante incorpóreo han de ser de público conocimiento. Se trata de un artículo que trata bastante a fondo la lucha permanente entre los tecno-optimistas que siguen creyendo y confiando en que las mejoras en la eficiencia energética podrán solucionar y solventar cualquier problema al que se tenga que enfrentar nuestra sociedad y los que entienden que en un mundo finito hay límites que no hay mejora de la eficiencia energética que pueda compensar frente al crecimiento desbocado que impone el capitalismo, porque en muchos campos de nuestra moderna civilización, dichos límites ya se pueden estar alcanzando.

El artículo es una reivindicación de William Stanley Jevons y su famosa paradoja sobre un comportamiento humano que hace que siga funcionando el “Maximum Power Principle” enunciado por Howard T. Odum y nos obliga a preguntarnos sobre estos límites y sobre nuestro comportamiento sobre la Tierra. El traductor no comparte necesariamente algunos postulados finales respecto de la “suficiencia” o de las soluciones a limitar la velocidad de Internet ajustando el precio de la energía o sobre que la infraestructura de Internet no está sujeta a dicha “suficiencia” como sí entiende el autor lo están los coches o algunos dispositivos móviles. De hecho, la propia infraestructura mostrará pronto sus límites, no sólo energéticos, sino en complejidad exponencialmente creciente para manejar el número creciente de capas (vamos por al IPv6) que terminan ralentizando a los servidores de los grandes centros de datos, debido a la multiplicación exponencial de preocesos por paquete cada vez que hay que aumentar una capa más. Esta ralentización y complejidad avanza también a mayor velocidad que la velcidad de proceso que van a poder ir obteniendo tecnológicamente, por la mayor eficiencia en las nuevas generaciones de servidores. A esto obliga la conmutación de paquetes, cuando el “Internet de las cosas” se empiece a popularizar. También ya se están dejando entrever problemas de direcciones, cuando "las cosas" terminen exigiendo una dirección para cada una de ellas. todo ello, si es que los límites energéticos no golpean antes a la red de redes que es hoy Internet. Pero de estas últimas complejidades no energéticas, sino de procesos y de tratamientos de datos, hablaremos en otro momento. 
En lo que respecta al ahorro o conservación de energía, los saltos que se han producido en la infraestructura y dispositivos que utilizamos para acceder a Internet han hecho que muchas actividades en línea (online) sean vistas como las que se hacen sin conexión a ella.
Sin embargo, los avances en Internet han provocado un efecto inverso: a medida que la red se va haciendo más eficiente desde el punto de vista energético, su consumo total de energía aumenta. Esta tendencia sólo podrá pararse si se limita la demanda de comunicaciones digitales.
Aunque ésta es una estrategia que empleamos habitualmente, por ejemplo, animando a la gente a que coma menos carne o a bajar el termostato de la calefacción, limitar la demanda es algo controvertido, porque va contra la creencia general en el progreso tecnológico. Y resulta todavía más controvertido cuándo se aplica en Internet, porque muy poca gente establece la relación entre datos y energía
¿Cuánta energía consume Internet? 
Nadie lo sabe, debido a la complejidad de la red y su naturaleza siempre cambiante. Las estimaciones del consumo total de electricidad que supone Internet pueden variar hasta en un orden de magnitud. Una razón para la discrepancia entre los diferentes resultados es que muchos investigadores sólo analizan una parte de la infraestructura que todos llamamos Internet.
En los últimos años, los estudios se han centrado principalmente en el uso de energía de los centros de datos, que alojan a los ordenadores (los “servidores”) que almacenan la información en línea. Sin embargo, se consume más electricidad comparativamente en los terminales o dispositivos finales (los “clientes”, tales como ordenadores de sobremesa, portátiles y teléfonos inteligentes), en la infraestructura de la red (que transmite la información digital entre servidores y clientes) y en los procesos de fabricación de servidores, dispositivos terminales y de red. [1]
Un segundo factor que explica las grandes diferencias de los diferentes estudios es el tiempo en el que se han realizado. Dado que la infraestructura de Internet evoluciona y crece tan rápidamente, los resultados del uso de energía sólo son aplicables al año en que se realizan. Por último, como con todos los estudios científicos, modelos de investigación y métodos y supuestos utilizados como base para los cálculos varían en algunas veces están polarizados debido a diversas creencias o conflictos de interés. No debería sorprender, por ejemplo, que una investigación del uso de Internet por parte de la  American Coalition for Clean Coal Electricity (Coalición Estadounidense para la Electricidad con Carbón Limpio) concluya que hay un consumo mucho mayor de electricidad que un informe preparado por la propia Industria de las Tecnologías de la Información y las Comunicaciones (TIC) [2,3]
Ocho mil millones pedaleando
Considerando todo lo anterior, seleccionamos lo que creímos era el informe más reciente, completo, honesto y transparente sobre la huella total de Internet. Llega a la conclusión de que la red global de comunicaciones consumió 1.815 Twh de electricidad en 2012[4] Ello equivale al 8% de la producción total de electricidad mundial de ese mismo año, que fue de 22.740 TWh[5,6]
Si tuviésemos que alimentar Internet (en 2012) con generadores eléctricos a pedales, cada uno de los cuales pudiese producir 70 vatios de potencia eléctrica, necesitaríamos 8.200 millones de personas pedaleando en tres turnos de 8 horas los 365 días del año. Se incluye en estas cifras el consumo de los dispositivos personales finales, por lo que los que pedalean podrían utilizar sus teléfonos de última generación u ordenadores personales mientras pedalean. La energía solar o eólica no serían una solución, ya que los 1.815 Twh suponen tres veces la electricidad que suministraron todas las plantas de energía eólica y solar del planeta en 2012 [7]
Esos investigadores estimaron que para el 2017, la demanda eléctrica de Internet aumentaría hasta alcanzar los 2.547 Twh (según el escenario de crecimiento esperado) y 3.422 Twh en el peor de los escenarios. Si este último escenario se llega a hacer realidad, el uso de energía vinculada a Internet llegaría casi a duplicarse en apenas 5 años. Nótese que ya se incluyen en dichos resultados  las nuevas mejoras de eficiencia. Sin dichas mejoras, el consumo se duplicaría cada dos años, siguiendo el aumento del tráfico de datos.[8]

Aumento del consumo de energía por usuario
Es importante recalcar que el aumento del consumo de energía en Internet no se debe tanto a la creciente cantidad de usuarios de la red, como podría parecer en principio. Más bien se debe al crecimiento en el consumo de energía por usuario de Internet. El tráfico en la red crece mucho más rápido que el número de usuarios de Internet (45% frente al 6-7% anual)[9]. Hay dos motivos principales para ello. El primero es la evolución hacia los sistemas de procesamiento y computación portátiles que utilizan accesos inalámbricos en Internet. El segundo es el aumento de la tasa de datos de los contenidos a los que se accede, principalmente causado por la digitalización de la televisión y de los videos en “streaming” (que se bajan de forma directa según se ven, nota del t.)
En los últimos años hemos asistido a una tendencia hacia los dispositivos portátiles desde los ordenadores de sobremesa, primero con el ordenador portátil y después con las tabletas y los teléfonos avanzados. Este último va camino de la adopción al 100% de los usuarios: en los países ricos, la población ya usa este tipo de teléfonos en un 84%[9,4]. Estos dispositivos consumen bastante menos electricidad que los ordenadores de sobremesa, tanto durante la operación, como en su proceso de fabricación, lo que les ha dado un aura de sostenibilidad. Sin embargo, tienen otros efectos que sobrepasan a las ventajas mencionadas.
En primer lugar, los teléfonos avanzados gestionan una gran parte de el esfuerzo de computación (y por tanto, del uso de energía), desde el terminal hasta el centro de datos: la rápida adopción de teléfonos avanzados va ligada al crecimiento igualmente rápido de servicios de computación “en la nube”, que permiten a los usuarios obviar las limitaciones de la capacidad de memoria y procesamiento de los dispositivos móviles. [4,11] Dado que los datos deben ser procesados y el resultado de los mismos debe transmitirse del usuario final al centro de datos y de nuevo de vuelta, el uso de energía de la infraestructura de la red también aumenta.

Internet inalámbrico de alta velocidad
Se puede mejorar la eficiencia total de algunas tareas de procesamiento de datos y reducir de esta forma el uso total de energía, porque los servidores de los centros de datos se gestionan de forma más eficiente que nuestros dispositivos terminales. Sin embargo, esta ventaja no se aplica a los teléfonos avanzados que se conectan de forma inalámbrica a Internet utilizando las redes de banda ancha de 3 G ó 4G. El uso de energía en la red es muy dependiente de la tecnología de acceso local: la “última milla” que conecta al usuario a la red troncal de Internet.
Una conexión alámbrica (DSL, cable, fibra) es el método más eficiente energéticamente para acceder a la red. El acceso inalámbrico a través de WiFi aumenta el uso de energía, pero solo de forma ligera. [12,13] Sin embargo, si el uso del sistema inalámbrico se establece a través de la red móvil o celullar y sus torres con las estaciones base, el uso de energía se dispara. El tráfico de Internet a través de redes 3G utiliza 15 veces más energía que una red WiFi, mientras que las redes 4G consumen unas 23 veces más.[14] [Ver también 4, 15]. Los ordenadores de sobremesa se conectaban y conectan habitualmente de forma cableada, pero los portátiles, las tabletas o los teléfonos avanzados se conectan de forma inalámbrica, bien sea a través de WiFi o a través de la red móvil o celular.
 El crecimiento del tráfico de datos de móviles ha estado restringido de alguna forma de descargas WiFi: la conectividad de los usuarios con interfaz 3G estaba restringida, debido a los significativos mayores costes y un funcionamiento lento de la red. [4]  Por ello, se conectaban a las redes WiFi que cada vez estaban más disponibles por doquier. Con el avance de las redes 4G, la ventaja de la velocidad del WiFi desaparece: el 4G dispone de una velocidad comparable o una red mejorada cuya velocidad de intercambio de datos es comparable a la de los WiFi [14] La mayoría de los operadores de red están en proceso de reconvertir a gran escala sus redes a 4G. El número de conexiones mundiales a 4G se ha más que duplicado de 200 millones a 490 millones a finales de 2014 y se prevé que alcancen los 875 millones a finales de 2015.  [11,16,17]

Más tiempo en línea
La combinación de dispositivos portátiles de computación o procesamiento y el acceso inalámbirco a Internet aumentan junto con el tiempo que pasamos en línea.[11] Esta tendencia no comenzó con los teléfonos avanzados. Se esperaba que los ordenadores portátiles redujesen el consumo de energía en Internet, pero lo elevaron, porque la gente aprovechó la facilidad y movilidad de los portátiles para estar en línea mucho más tiempo. “Sólo con el ordenador portátil los ordenadores entraron en el cuarto de estar.”[18]
Los teléfonos móviles avanzados son el siguiente paso en esta evolución. Permiten que los datos se consuman en cualquier lugar y fuera de casa, junto con más procesamiento convencional de ordenadores.[19] Una investigación de campo ha revelado, por ejemplo, que los teléfonoz avanzados se utilizan intensivamente para rellenar los “tiempos muertos” (Pequeños tiempos que no se dedican a ninguna actividad específica y que a menudo se perciben como tiempo improductivo: esperar, transportarse, aburrirse, pausas para el café o “situaciones sociales que no son suficientemente estimulantes” Los teléfonos avanzados han pasado también a jugar un papel importante en el tiempo en cama, y son utilizados hasta la última actividad nocturna y en la primera actividad diurna.
Considerando estas tendencias, queda claro que no todos los teléfonos avanzados sustituyen a un ordenador portátilo o de sobremesa. Ambos se utilizan de forma conjunta o incluso simultáneamente. La conclusión es que gracias a los teléfonos avanzados y al Internet inalámbrico, ahora estamos conectados en cualquier lugar y en cualquier momento, utilizando nuestros dispositivos que son cada vez más eficientes, pero durante más horas, enviando más y más datos a través de la infraestructura mundial.[19,20]
El resultado es más uso de energía, desde los propios dispositivos móviles y (mucho más importante) en los centros de datos y en la infraestructura de red. No olvidar tampoco que llamar a alguien utilizando un teléfono móvil avanzado cuesta más energía que hacerlo a través de un teléfono alámbrico convencional.

Tasas de transferencias de datos en aumento: música y vídeo
Un segundo factorfundamental detrás del creciente consumo de energía por usuario de Internet reside en el aumento incesante de la tasa de transferencia de datos de los contenidos. Internet comenzó como un medio para texto, pero las imágenes, la música y los vídeos han llegado a ser muy importantes. Bajarse una página de texto requiere muy poca energía. Como ejemplo, todo el texto de este blog (el de los autores originales, nota del t.) con unos 100 artículos, se puede empaquetar en menos de 9 Megabytes (MB) de datos. Una única imagen de alta resolución, en comparación, ocupa unos 3 MB o un vídeo de calidad estándar de 8 minutos de Youtube ocupa unos 30 MB, unas tres veces todos los datos exigidos para los textos del blog.

Debido a que el consumo de energía aumenta con cada bit de datos, es esencial lo que vayamos a hacer en línea (online). Y por lo que parece, estamos utilizando la red cada vez más para contenidos que exigen una elevada tasa de bytes, especialmente vídeo. En 2012, el tráfico de vídeo representó el 57% de todo el tráfico de Internet (excluyendo el vídeo intercambiado entre redes P2P (Pier-to-Pier o de pares extremo a extremo, que pueden actuar ambas como clientes o servidores; nota del t.). Se espera que este porcentaje suba al 69% en 2017.[21]
Si el vídeo y el acceso a Internet son los factores clave tras el aumento del consumo de energía en Internet, por supuesto, el vídeo inalámbrico es el peor de todos ellos. Y este es exactamente el que tiene el mayor aumento en la cuota de tráfico. Según el último Cisco Visual Networking Index, el tráfico de vídeo móvil crecerá un 72% del total de datos móviles en 2019 [11]:
“Cuando las capacidades de los dispositivos se combinan con un ancho de banda mayor, se alcanza una amplia adopción de aplicaciones de vídeo que contribuyen a aumentar los datos de tráfico en la red. A medida que aumenten las velocidades de conexión de la red móvil, aumentará el promedio de flujo de bytes de contenidos ,a los que se accede desde estas redes. Los vídeos de alta definición irán alcanzando más peso y la proporción de contenidos de “streaming” (que se tratan instantáneamente), comparados con los contenidos que se bajan primero, se espera que también aumenten. Este cambio hacia el vídeo bajo demanda afectará a las redes móviles tanto como afectará a las redes fijas”.
El consumo de energía no sólo se ve influenciado por los flujos de datos, sino también por el tipo de servicio proporcionado. Aplicaciones como correos electrónicos, búsqueda en la red y descargas de audio y vídeo exigen tiempos cortos de acceso. Sin embargo, en los servicios en tiempo real, tales como videoconferencias y audio y vídeo “streaming”, los retrasos resultan intolerables. Esto exige una red con una operativa mucho más completa y por tanto, más uso de energía.

¿Ahorra energía Internet?
Con frecuencia se justifica que el creciente consumo de energía en Internet es compensado porque la red ahorra más energía que la que consume. Se atribuye a los efectos de sustitución en los que los servicios en línea reemplazan otras actividades más intensas en energía. [13] Se pone como ejemplo las videoconferencias, que se supone iban a ser una alternativa a la necesidad de utilizar aviones o coches; o la descarga o recepción en directo (“streaming”) de contenidos digitales, que se supone serían una alternativa a la fabricación y el envío de DVD'c, CD's, libros, revistas o periódicos.

Veamos algunos ejemplos. Un estudio de 2011 llegó a la conclusión de que “al reemplazar uno de cada cuatro viajes por videoconferencias, ahorraría tanta energía como la que consume todo Internet”, mientras un estudio de 2014 descubrió que hacer videoconferencia se lleva como mucho el 7% de una persona en dicha reunión” [22,23] En relación con los contenidos digitales, un estudio de 2014 concluyó que cambiar todos los DVD's por vídeos visionados directamente de la red mediante “streaming”, representaría un ahorro equivalente a la energía primaria utilizada para hacer frente a la demanda eléctrica de cerca de 200.000 viviendas por año. [24]
Otro estudio de 2010 descubrió que ver un vídeo mediante “streaming” consumía entre el 30 y el 78% de la energía de un DVD tradicional en las redes de alquiler de DVD's (en los que un DVD se envía por correo al cliente que lo tiene que devolver después) [25]
Existen algunos problemas fundamentales con estas aseveraciones. En primer lugar, los resultados están muy influenciados  por la forma en que se calcula la energía que Internet consume. Si miramos la energía utilizada por bit de datos transportado (la “intensidad energética” de Internet), los resultados varían de 0,00064 a 136 kWh por Gigabyte (kWh/GB), una diferencia de cuatro órdenes de magnitud.[13,19]. Los investigadores que han hecho estas observaciones concluyen que las dudas sobre si y hasta qué extremo es más eficiente energéticamente descargarse una película que comprar el DVD o más sostenible verse por videoconferencia en vez de verse viajando para verse cara a cara, no se pueden resolver de forma satisfactoria, en tanto en cuanto existan estas estimaciones tan divergentes respecto a los impactos de sustitución.[13]
Para empeorar las cosas, los investigadores tienen que hacer una variedad de supuestos adicionales que pueden tener una gran influencia en el resultado final. Si la videoconferencia se compara con un viaje en avión, ¿cuál es la distancia del viaje? ¿Está el avión lleno o no? ¿En qué año fue construido? Por otra parte ¿cuánto tiempo dura una videoconferencia? ¿Se realiza a través de una red de acceso alámbrica o inalámbrica? ¿Se utiliza un ordenador portátil o un sistema de alta gama de telepresencia? Cuando se está escuchando música en “streaming” escucha la canción una o trienta veces? Si compra un DVD, va a la tienda en coche o en bicicleta? ¿Es largo ese viaje? ¿Compra sólo el DVD o aprovecha para comprar otras cosas?

Tiempo y distancia
Todas estas cuestiones se pueden contestar de forma que se pueda “acondicionar” el resultado que se desea. Por ello lo mejor es centrarse en los mecanismos que favorecen la eficiencia energética de los servicios en línea y fuera de línea; lo que los científicos llaman un “análisis de sensibilidad”. Para ser honesto, la mayoría de los científicos hacen este tipo de análisis, pero sus resultados no suelen aparecer en el prólogo del documento y mucho menos en el documento de resumen de prensa.
Una diferencia importante entre los servicios en línea y fuera de línea es el papel del tiempo. En línea, el consumo de energía aumenta con el tiempo de actividad. Si se leen dos artículos en vez de un artículo en un medio de noticias digital, se consume más energía. Pero si se compra un periódico, el consumo de energía es independiente del número de artículos que se leen. Un periódico podría ser leído incluso por dos personas, con lo que su consumo de energía se podría reducir a la mitad.
Además del tiempo, está el factor de la distancia. Fuera de línea el consumo aumenta con la distancia, porque el transporte de una persona o un producto se lleva la mayor parte del total del consumo de  energía fuera de línea. Este no es el caso de las actividades en línea, en las que la distancia tiene poco o ningún efecto en el consumo de energía.
Un análisis de sensibilidad ofrece conclusiones muy diferentes dependiendo de quien lo presenta. Por ejemplo, escuchar en “streaming” 27 veces un álbum de música de Internet puede consumir más energía que fabricar y transportar el CD equivalente. [26] Leer un periódico digital en un PC de sobremesa consume más energía que leer la versión en papel, si la lectura del mismo excede de una hora y cuarto considerando que el papel lo lee una persona.[27] O en el estudio mencionado anteriormente sobre las ventajas de hacer videoconferencias, reduciendo la distancia de viajes de participantes internacionales de 5.000 a 3.000 Km hace el viaje de una persona más eficiente energéticamente que la videoconferencia, cuando se utiliza videoconferencia de alta gama. Igualmente, si la conferencia online llevase 75 en vez de 5 horas, sería más eficiente volar 5.000 Km. [23]

Efecto rebote
Las ventajas energéticas de la videoconferencia, parecen más convincentes, porque las reuniones de 75 horas no parecen muy comunes. Sin embargo, todavía tenemos que discutir el problema más importante con los estudios que indican la ventaja energética de los servicios en línea, porque no suelen tener en cuenta el efecto rebote. Este efecto se refiere a la situación en la que el efecto positivo de las tecnologías con mejores niveles de eficiencia, se anula por factores sistemáticos o comportamientos de los usuarios. Por ejemplo, las nuevas tecnologías raras veces reemplazan las existentes tal cual, sino que por el contrario, se utilizan de forma conjunta unas y otras, negando así los posibles ahorros.[28]
No todas las llamadas por videoconferencia sustituyen los viajes físicos. También pueden reemplazar a una llamada telefónica o un correo electrónico yen estos casos el consumo de energía aumenta, no disminuye.[23] De la misma forma no todos los vídeos o música vistos o escuchados en directo a través de la red sustituyen a los DVDs o CDs físicos. La conveniencia del “streaming” y la ventaja de los dispositivos portátiles terminales con acceso inalámbrico, conducen a más horas viendo vídeos o escuchando música.[24], en detrimento de otras actividades que podrían ser la lectura, la contemplación del medio o mantener una conversación con otra persona física.
Dado que la infraestructura de la red de Internet se va haciendo más eficiente cada año -el uso por bit de datos transportado sigue disminuyendo-, con frecuencia se deduce de ello que las actividades en línea se harán más eficientes con el tiempo, comparadas con las actividades fuera de línea [3]. Sin embargo, como hemos visto, la tasa de bits de los contenidos digitales sigue también aumentando.
Esto no sólo se debe a la creciente popularidad de las aplicaciones de vídeo, sino también al aumento de la tasa de bits de los propios vídeos en sí. Por tanto, las futuras mejoras de la eficiencia en la infraestructura de la red, traerán vídeos y videoconferencias de mayor calidad, no más ahorros de energía. Según estos estudios, las tasas de transferencia de bits aumentan más rápidamente que la eficiencia energética, de forma que las ganancias de las alternativas en línea en realidad van a pérdidas.[23,24,25]

La eficiencia impulsa el uso de energía
El efecto rebote se presenta frecuentemente como un asunto controvertido, como algo que puede darse o no. Pero al menos en lo que respecta a la computación o sistemas informáticos y a Internet, esto es una ley de hierro. El efecto rebote se manifiesta sin duda alguna por el hecho de que la intensidad energética en Internet (la energía consumida por unidad de información transmitida) disminuye, mientras que el uso total de la energía en Internet sigue aumentando.
El obvia también la evolución de los microprocesadores. El consumo eléctrico en la fabricación de una microprocesador ha caído de 0,028 kWh por Mhz en 1995 a 0,001 kWh/Mhz en 2006, como resultado de las mejoras en los procesos de fabricación[29]  Sin embargo, ello no ha provocado un descenso paralelo del consumo de los microprocesadores. Las mayores prestaciones funcionales de los microprocesadores (más rápidos) han contrarrestado las ganancias por eficiencia por Mhz de velocidad. De hecho, el efecto rebote es conocido como la Ley de Moore, que se da en el progreso de los ordenadores o computadores.[28,29]
En otras palabras, aunque las mejoras en eficiencia energética se presentan de forma generalizada como una solución al creciente consumo de energía, en realidad son las causantes del mismo. Cuando los ordenadores se basaban todavía en válvulas de vacío en vez de transistores o de chips, la energía utilizada por una máquina podría ser de unos 140 kW. Los ordenadores actuales son al menos 1.000 veces más eficientes, pero es precisamente ese aumento de la eficiencia energética el que ha hecho que haya hoy un ordenador cada mesa y en cada bolsillo. El consumo de energía combinado de todas esas máquinas mucho más eficientes sobrepasa al consumo de todos los ordenadores que funcionaron con válvulas de vacío en varios órdenes de magnitud.

Suficiencia
Para concluir, vemos que Internet afecta al consumo de energía en tres niveles. El primer nivel es el del impacto directo a través de la fabricación, operación y desmantelamiento de todos los dispositivos que constituyen la infraestructura de Internet: dispositivos terminales, centros de datos, red y fabricación. En un segundo nivel existen efectos indirectos del consumo de energía debidos a la capacidad de Internet de cambiar cosas, tales como el consumo de contenidos o los viajes físicos, lo que conlleva una reducción o aumento del consumo de energía. 
Y en tercer lugar, Internet cambia los hábitos de consumo, trae un cambio social y tecnológico y contribuye al crecimiento económico.[28,29] Los sistemas de mayor nivel son mucho más importantes que los impactos directos, aunque reciban muy poca atención. [29]
Internet conlleva una globalización progresiva de la economía que ha causado de esta manera un aumento del transporte de productos materiales y de personas...El efecto de inducción que surge de la globalización de los mercados y las formas distribuidas de la producción debido a las redes de telecomunicación, se aparta claramente del camino de la sostenibilidad (sustentabilidad)...Finalmente la sociedad de la información significa también aceleración de los procesos de innovación y de esta forma, implica una devaluación más rápida de lo existente que se reemplaza por lo nuevo, sea hardware o software, productos técnicos o habilidades y conocimiento humano” [28]
nadie niega que Internet puede ahorrar energía en algunos casos particulares, pero en general la tendencia abrumadora es hacia un consumo de energía aún mayor. Esta tendencia continuará imparable si no actuamos. No existen restricciones en la tasa de bits o datos digitales. El Blu-ray ofrece una mejor visión del contenido, con tamaños de datos que oscilan entre los 25 y los 50 GB, cinco veces el tamaño de un video en HD. Con los espectadores viendo películas en 3D en casa podemos imaginar películas futuras de 150 GB, mientras que las películas holográficas pueden llegar a los 1.000 GB[25].
Tampoco hay restricción alguna de las tasas de bits de las conexiones inalámbricas de Internet. Los ingenieros ya preparan el 5G, que será más rápido que el 4G, pero también consumirá más energía. No existe restricción en el número de conexiones a Internet. El concepto de “Internet de las cosas”  prevé que en el futuro todos los dispositivos puedan conectarse a Internet, una tendencia que ya está teniendo lugar.[4,11]  Y no debemos olvidar que por el momento, sólo el 40% de la población mundial tiene acceso a Internet.
En resumen, no hay otros límites al crecimiento de Internet que el del propio suministro energético al sistema. Esto hace de Internet algo único, Por ejemplo, mientras el efecto rebote es también muy obvio en coches, existen otros límites adicionales que impiden que el aumento de su consumo de energía siga imparable. Los coches no se pueden hacer más grandes o más pesados indefinidamente, ya que requerirían nuevas carreteras e infraestructuras de estacionamientos. Y los coches tampoco pueden aumentar su velocidad de forma indefinida, porque la seguridad impone límites máximos de velocidad. El resultado es que la energía que consumen los coches se ha estabilizado, más o menos. Se podría argumentar que los coches han alcanzado un estado de “suficiencia”.
“Un sistema que consume inputs del medio puede o bien aumentar su consumo siempre que tenga posibilidad de hacerlo, o mantener su consumo dentro de ciertos límites. En este caso, se dice que el sistema alcanza un estado de suficiencia...Un sistema suficiente puede mejorar sus outputs sólo mejorando la eficiencia de sus procesos internos”.[31]
El rendimiento de los coches sólo ha aumentado dentro de los límites de las mejoras de eficiencia de los motores de combustión interna. Se puede observar un fenómeno similar en los sistemas de ordenadores portátiles, que han llegado a un estado de suficiencia en lo relativo al consumo eléctrico, al menos por lo que respecta al dispositivo en sí. [31] En los teléfonos avanzados, el consumo de energía viene limitado por una combinación de limitaciones de la batería; su densidad energética, su peso máximo aceptable y la vida exigible de la batería. La consecuencia es que el consumo por dispositivo ya permanece más o menos estable. El rendimiento de los teléfonos avanzados ha aumentado solamente dentro de los límites de loas mejoras de la eficiencia en procesamiento (y de alguna forma en el progreso de la densidad energética de las baterías) [31]

Un límite de velocidad para Internet
En contraste, Internet tiene poca suficiencia. En Internet, el tamaño y la velocidad no resultan impracticables o peligrosas. Las baterías limitan el consumo de energía de los sistemas móviles de procesamiento, pero no el consumo energético de todos los demás componentes de la red. Por tanto, el consumo de energía de la red, sólo parará de crecer cuando las fuentes de energía se agoten, a menos que nos autoimpongamos ciertos límites, similares a aquellos de los coches o de los dispositivos de procesamiento. Esto puede parecer raro, pero es una estrategia que solemos aplicar con bastante facilidad al confort térmico (bajar el termostato, vestirse mejor) o al transporte (tomar la bicicleta en vez del coche)
Hay varias formas de limitar la demanda de datos, alguna de las cuales resultan más prácticas que otras. Podríamos ilegalizar el uso del vídeo y volver a hacer de Internet un medio de intercambio de texto e imágenes. Podríamos limitar la velocidad de las conexiones inalámbricas de Internet. O podríamos aumentar los precios de la energía, que podrían afectar también a las alternativas fuera de línea y así equilibrar el terreno de juego. Esta última estrategia es la preferida, porque deja al mercado decidir sobre qué aplicaciones y servicios podrán sobrevivir.
Aunque ninguna de estas opciones puede parecer atractiva, es importante recalcar que fijar un límite no impedirá el progreso tecnológico. Seguirán los avances en eficiencia energética que darán lugar a que aparezcan nuevos dispositivos y aplicaciones. Sin embargo, la innovación tendrá uqe realizarse dentro de los límites de las mejoras de eficiencia energética, como ahora sucede con los coches y los sistemas móviles de procesamiento. En otras palabras la eficiencia energética puede ser una parte importante de la solución si se combina con la suficiencia
Limitar la demanda implicaría también que algunas actividades en línea volviesen a hacerse fuera de línea, siendo el vídeo en directo (en “streaming”) el candidato número uno. Es bastante fácil imaginar alternativas fuera de línea que ofrezcan ventajas similares con mucho menor consumo de energía, tales como videotecas públicas con amplias colecciones de DVDs. Combinando esto con medidas para reducir el tráfico de automóviles, de forma que la gente pudiese ir a la videoteca utilizando bicicletas o transporte público, podría resultar un servicio eficiente y conveniente. Más que reemplazar el transporte físico por servicios en línea, deberíamos arreglar la infraestructura del transporte.
En los siguientes artículos, investigamos las redes de tecnologías de bajo nivle que se están desarrollando en los países pobres. En ellos, la “suficiencia” está imbricada en la misma sociedad, de fomra notable en forma de una infraestructura energética poco fiable y una limitada capacidad adquisitiva. También discutiremos las redes comunitarias que han surgido como hongos en regiones apartadas de los países ricos y los diseños de redes compartidas en ciudades. Esas redes alternativas ofrecen alternativas mucho más eficientes energéticamente para las comunicaciones digitales mediante un uso diferente de Internet.

(Editado por Jenna Collett). Traducción al castellano de Pedro Prieto - Imagen: Kike Estrada
Fuentes: [1] Incluso los estudios más completos sobre el consumo de energía en Internet no tienen encuenta todos los componentes de la infraestructura. Por ejemplo, se ignora completamente la energía embebida en las plantas energéticas eléctricas que alimentan Internet. Sin embargo, si se maneja un centro de datos, o una estación base de una red móvil o celular con energía solar, es obvio que la energía que costó producir los paneles debería ser también incluída. Lo mismo sucede con las baterías que almacenan la energía solar para su uso durante la noche o los días nublados
[2] "The cloud begins with coal: big data, big networks, big infrastructure, and big power" (PDF), Mark P. Mills, National Mining Association / American Coalition for Clean Coal Electricity, augustus 2013
[3] "SMARTer2030 -- ICT Solutions for 21st Century Challenges" (PDF), Global e-Sustainability Initiative, 2015
[4] "Emerging trends in electricity consumption for consumer ICT", Peter Corcoran, 2013
[5] "Key Electricity Trends" (PDF), IEA Statistics, 2015
[6] Of the total, 852 TWh was consumed by end-use devices, 352 TWh by networks, 281 TWh by data centers, and 330 TWh during the manufacturing stage.
[7] "Worldwide electricity production from renewable energy sources, edition 2013", Observ'ER
[8] Los investigadores también ofrecen un escenario mejor (best case)en el que la energía aumenta sólo ligeramente. Sin embargo, este escenario está superado por la realidad. Supone un crecimeinto lento de datos inalámbricos y de televisiones digitales, pero ha sucedido lo exactamente opuesto, como muestra el Cisco Visual Networking Index [11] Además, el escenario mejor posible prevé una mejora anual de la eficiencia del 5% para la mayor parte de los dispositivos de diferentes categorías y una mejora anual de la eficiencia del núcleo de la red de un 15%. Estas cifras están muy por encima de las de los últimos años y no parece muy posible que se puedan hacer realidad. El escenario de crecimiento supone que el tráfico inalámbrico de Internet crezca hasta el 9% del total del consumo eléctrico de la red eléctrica mundial y que la televisión digital se estabilice en los 2.100 millones de unidades. En este escenario las mejoras de la eficiencia energética de los dispositivos se limitan al 2% anual, mientras la mejora de la eficiencia energética del núcleo de la red se limita al 10% anual. En el escenario del peor caso posible, el tráfico inalámbrico de Internet crece al 15% del total del consumo electrico mundial, la televisión digital sigue creciendo y las mejoras de la eficiencia energética se reducen del 1 al 5% anual para los dispositivos y un 5% para el núcleo de la red [4].
[9] "Measuring the Information Society Report 2014" (PDF), International Telecommunication Union (ITU), 2014
[11] "Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update, 2014-2019", CISCO, 2015.
[12] "Small network equipment key product criteria", Energy Star, retrieved September 2015.
[13] "The energy intensity of the internet: home and access networks" (PDF), Vlad Coroama, 2014
[14] "A close examination of performance and power characteristics of 4G LTE networks" (PDF), Junxian Huang, June 2012.
[15] "Energy consumption in mobile phones: a measurement study and implications for network applications" (PDF), Niranjan Balasubramanian, 2009
[16] "4G networks to cover more than a third of the global population this year, according to new GSMA intellligence data", GSMA Intelligence, 2015
[17] El fabricante de equipos de red Cisco señala en su informe de 2015 que “a medida que la capacidad de la red móvil aumenta y el número de dispositivos múltiples de los usuarios también, los operadores parecen más proclives a ofrecer paquetes de banda ancha comparables en precio y velocidad a aquellos que operan con la red fija de banda ancha”[11] Si esto llega a ser cierto y la mayoría de los usuarios de Internet se terminan conectando de forma rutinaria a la red de 4G de banda ancha, el consumo de energía en la infraestructura de la red se duplicará largamente, suponiendo que el tráfico se mantenga igual. [4]  Esto es porque desde una perspectiva energética, la red de acceso es la parte egoísta de cualquier proveedor de servicios de red. La red central de cables ópticos es mucho más eficiente energéticamente.[4]
[18] "Are we sitting comfortably? Domestic imaginaries, laptop practices, and energy use". Justin Spinney, 2012
[19] "Demand in my pocket: mobile devices and the data connectivity marshalled in support of everyday practice" (PDF), Caolynne Lord, Lancaster University, april 2015
[20] "Towards a holistic view of the energy and environmental impacts of domestic media and IT", Oliver Bates et al., 2014
[21] "Cisco Visual Networking Index 2012-2017", Cisco, 2013
[22] "The energy and emergy of the internet" (PDF), Barath Raghavan and Justin Ma, 2011
[23] "Comparison of the energy, carbon and time costs of videoconferencing and in-person meetings", Dennis Ong, 2014
[24] "The energy and greenhouse-gas implications of internet video streaming in the united states", 2014
[25] "Shipping to streaming: is this shift green?", Anand Seetharam, 2010
[26] "MusicTank report focuses on environmental impact of streaming platforms", CMU, 2012
[27] "Screening environmental life cycle assessment of printed, web based and tablet e-paper newspaper", Second Edition, Asa Moberg et al, 2009
[28] "Information Technology and Sustainability: essays on the relationship between ICT and sustainable development", Lorenz M. Hilty, 2008
[29] "Environmental effects of informantion and communications technologies", Eric Williams, Nature, 2011
[30] "Computing Efficiency, Sufficiency, and Self-Sufficiency: A Model for Sustainability?" (PDF), Lorenz M. Hilty.




“En 20 años podría quedar el 15% del petróleo que hoy consumimos”

Entrevista a Ferrán Puig Vilar, periodista y divulgador en materia de cambio climático
 
Enric Llopis

Ante a la amenaza de “colapso” ambiental, se apuntan habitualmente elementos correctores como la mayor toma de conciencia por parte de la población, la caída del precio del crudo o la extensión de las energías “limpias”. Pero según el ingeniero de telecomunicaciones, periodista y divulgador en materia de cambio climático, Ferrán Puig Vilar, “la principal forma de resolver el problema del cambio climático es que la geología imponga su ley”. La sobreexplotación de los recursos hace verosímil que en 2035 quede en el planeta el 15% del petróleo que hoy se consume. El crudo que se encuentra es cada vez de peor calidad y acceso más difícil, además, se necesita en muchos casos más energía que la que el petróleo obtenido aportará finalmente. Puig Vilar se ha dedicado durante más de 30 años al campo de la edición y la comunicación, y los últimos ocho de manera plena al estudio del cambio climático. Ha impartido en la Universitat de València una conferencia sobre “El cambio climático después de París”, organizada por la Asociación por el Medio Ambiente y contra el Cambio Climático (AMA) y el Diploma en Sostenibilidad y Educación Ambiental (DESEEEA).
 
– Fondos de inversión estatales de países como Noruega o las monarquías árabes han decidido ir retirando sus capitales del sector de los hidrocarburos, por la caída del precio del petróleo. ¿Qué efectos puede tener esta tendencia en el cambio climático?
– El movimiento de desinversión en empresas energéticas ha tenido bastante éxito, pero es más simbólico que otra cosa. ¿Qué significa desinvertir? Puede que esas acciones sean vendidas a otras empresas. JP Morgan ya ha dicho que no financiará más centrales de carbón. Pero hay proyectadas en torno a 1.000 centrales de estas características en el mundo, todavía por construir. Y alguien las financiará si sale a cuenta. En caso de que se avizoren beneficios, las iniciativas se promoverán por muchos acuerdos como los de la Cumbre del Clima de París que se firmen, que son explícitamente no vinculantes. O montarán una sucursal, en la que no se visibilice quién posee la propiedad en última instancia. Otra cosa es la orientación de los grandes capitales hacia la compra de bienes raíces (inmuebles, terrenos, etcétera), sean privados o públicos como es el caso de China. Están comprando África. 

– ¿A qué responde este segundo fenómeno?
– Tiene más que ver con la crisis energética. Es muy difícil que actualmente haya inversiones productivas, porque aunque no nos lo digan, nos hallamos en fase de decrecimiento; o como mínimo en un estancamiento de la producción per cápita. Si no hay empresas productivas rentables, se invierte –como ha ocurrido durante un tiempo– en activos financieros. Allí pueden hacerse equilibrios y jugar a la ruleta. Pero si las empresas productivas no crecen y generan beneficios, finalmente la “burbuja” se deshincha. Es lo que ocurrió en 2008, y lo que creo volverá a suceder a corto plazo. 

– ¿Qué efectos puede tener la caída drástica del precio del petróleo y el agotamiento de los combustibles fósiles, en la batalla contra el cambio climático? ¿Puede contribuir a que se produzca un avance?
– Actualmente no se está invirtiendo prácticamente nada en exploración, porque el precio del petróleo es muy bajo. Y las empresas energéticas recortan allí donde pueden. Además, el petróleo que se encuentra es de tan difícil acceso y mala calidad, que finalmente no sale a cuenta. De hecho, se necesita más energía a lo largo del proceso, que la que el petróleo obtenido aportará finalmente. La única forma de resolver el problema climático es precisamente ésta: que la geología imponga su ley, y que en 2035 sólo exista el 15% del petróleo que ahora estamos consumiendo. Es verosímil que sea así. Ahora bien, tampoco el crudo para el transporte se sustituye fácilmente con las energías renovables. Ni fácil, ni difícilmente, diría yo. 

– El gobierno alemán ha anunciado un plan para el fomento del coche eléctrico. Se pretende subvencionar estos vehículos, con el fin de que en 2020 circulen con energía eléctrica un millón de automóviles (actualmente son menos de 50.000). ¿Se trata de una medida efectiva contra el cambio climático?
– El mejor coche es el que no se fabrica. 
Los coches eléctricos consumen una cantidad de energía descomunal para su fabricación. Un coche normal, estándar, de los de toda la vida, cuando lo comprabas ya era como si hubieras gastado gasolina por valor de 80.000 kilómetros. Con los coches eléctricos este monto es muy superior. Además, cuando el automóvil se conecta a la corriente eléctrica, ésta se está generando a partir del carbón. Lo que ocurre es que esto no se nota a simple vista, y hoy vivimos de las apariencias. Parece que es todo muy limpio, pero la electricidad no surge de la nada. Por otro lado, a la hora de retirar estos automóviles hay un problema enorme con las baterías. Sería preferible, en todo caso, un coche de segunda mano. Es el que tiene menos impacto global, si se considera el ciclo de vida global del automóvil. Si se buscan acciones individuales, una decisión importante puede ser hacerse vegetariano. 

–El 22 de abril, 171 países rubricaron los Acuerdos de París contra el cambio climático en la sala de la Asamblea General de Naciones Unidas en Nueva York. El objetivo es que el incremento de la temperatura media mundial se mantenga por debajo de los 2º C respecto a los niveles preindustriales. ¿Son suficientes los límites establecidos?
– Si continúa el ritmo actual, tendremos esos 2º C tendenciales en 2030-2035, y el calentamiento puede alcanzar los 4º C en 2060. Y en caso de que se mantenga la tendencia de los peores escenarios del IPCC (Grupo Intergubernamental de Expertos sobre el Cambio Climático), pronto tendremos el incremento de 4º C. Si la población del planeta se ha multiplicado de manera exponencial, de los aproximadamente mil millones de habitantes en 1900 a los 9.000 millones que podrían vivir sobre la Tierra en 2050, es por la disponibilidad de combustibles fósiles. En realidad, el sistema agroalimentario actual consiste en la conversión de energía fósil en alimentos. De hecho, se utilizan 10 calorías de energía para obtener una caloría de energía alimentaria que nosotros ingerimos. Hay estudios que apuntan que en sólo una semana sin diesel se vaciarían los supermercados de Europa. El nudo gordiano reside en elegir entre nosotros (los que estamos vivos) y el planeta. Sin embargo, sería muy fácil afirmar que todo se resolvería con otro modo de organización social. Ésta tendría que constituirse dentro de los límites físicos del planeta. 

– ¿Se trata de retornar a lo local?
– Al final acabaremos en ese punto. Intentando buscar resiliencias, es decir, sistemas convivenciales resistentes a impactos. Pero entonces nos referimos más bien a lo que uno puede hacer individualmente: ir organizando comunidades locales, porque si hay alguna “salida” es ésta. Si la gente consume localmente, es porque adquiere también productos de temporada y desarrolla su propia producción. El impacto del transporte también se reduciría; todo está relacionado. De todos modos, tengo dudas de que el modelo sea generalizable, porque hay escasa tierra cultivable, o la gente no se está dedicando a ello (Vengo del municipio de Ulldecona (Valencia), donde pocas personas hoy cultivan terrenos, cuando antiguamente todo el mundo tenía su huerto). Además, cuando pensamos en alguna acción, hay que ver si ésta funciona de manera primigenia, pero después las cuestiones de escala son también muy importantes. Porque uno siempre se topa con los límites físicos del planeta. 

– ¿Hay una ofensiva por parte de una elite global que puede terminar arrasando el planeta? ¿Se podrían proteger ellas mismas del proceso de destrucción y del “colapso” ambiental?
– Si las elites deciden el exterminio, no lo debemos consentir. Aunque no creo que se trate exactamente de un “sanedrín” tomando decisiones. Ciertamente se están construyendo búnkers, los hay en el mercado. Pueden levantarse por un millón de dólares, para resguardarse allí 15 días o seis meses, según la cantidad que se quiera pagar. La gente que conoce los peligros se está protegiendo. Nosotros podemos hacerlo mediante la creación de comunidades solidarias y autosuficientes. Como las elites no se refrenan, es muy importante luchar para desactivarlas. 

– Por último, ¿cuál es la fortaleza, a tu juicio, del movimiento social contra el cambio climático?
-Tengo la impresión de que se halla en una fase de grave depresión. Hubo gente, por ejemplo, que salió en bicicleta rumbo a París recorriendo todo el estado español. Llevaban años de expectativas y de activismo que al final no se han cumplido. Esto produce un decaimiento de la tensión social. Pero es, incluso, bueno que así ocurra, porque creo que deberíamos buscar otros referentes y formas de movilización. Es cierto que la Cumbre de París ha servido para que la gente se haga más consciente de la coyuntura; pero mientras la gente va asumiendo el problema climático, creo que los activistas tendrían que replantearse la estrategia. Hay que pararse un poco a pensar.

Fuente: Rebelión - Imagenes: ‪www.correodelorinoco.gob.ve‬-‪www. - neoteo.com‬

Chile: Avanza proyecto hidroeléctrico que Bachelet prometió no autorizar en el río Achibueno

A pesar que el tema Achibueno es uno de los más emblemáticos en Linares y en la Región del Maule, el tribunal rechazó por  unanimidad la reclamación interpuesta por la Corporación Fiscalía del Medio Ambiente (FIMA) en contra del director ejecutivo del Servicio de Evaluación Ambiental (SEA) y su resolución.

El Ciudadano

Por una unanimidad de sus ministros el Tribunal Ambiental de Santiago rechazó la reclamación interpuesta por la Corporación Fiscalía del Medio Ambiente (FIMA)  en contra de la resolución que el Servicio de Evaluación Ambiental (SEA) declaró inadmisible la solicitud de invalidar las decisiones tomadas por el Comité de Ministros que modificaron condiciones y dejaron a firme (sin cambios) la RCA(Resolución de Calificación Ambiental), favorable del “Proyecto Hidroeléctrico Achibueno”.   
  
Centinela S.A por sobre la ciudadanía
Más del 80% de la población de Linares rechaza la intervención del cajón del río Achibueno, el mismo que el año pasado fue declarado por Michelle Bachelet como un “Santuario de la Naturaleza”. A pesar de aquello, la empresa Centinela S.A, que se encuentra detrás de la construcción de dos centrales de generación hidroeléctrica en la zona, consiguió, gracias a la decisión del Tribunal, un nuevo avance en materia de concretar la millonaria inversión.
El proyecto de hidroeléctrica Centinela S.A, que bordea una inversión de 385 millones de dólares, está ubicado en la precordillera de Linares y consiste en la construcción y operación de dos centrales hidroeléctricas de pasada en serie, El Castillo y Centinela, instalando una potencia de 135 MW, las que estarán unidas por un sistema de interconexión eléctrica, una línea eléctrica de 66 kV y además dos subestaciones eléctricas (una por cada central). Hasta el momento, la compañía ha ganado todas las acciones judiciales y ambientales.
Fueron los ministros Rafael Asenjo (presidente), Sebastián Valdés y Ximena Insunza quienes rechazaron la reclamación que interpuso la Corporación Fiscalía del Medio Ambiente (FIMA) en contra de la resolución que el director ejecutivo del SEA, dictó en determinado momento.
Aquella solicitud de invalidación de las decisiones del Comité de Ministros fue interpuesta ante el SEA a menos de dos semanas de la caducación del plazo para realizarla y frente a eso, se declara en el fallo “que, por tanto, si bien conforme con el principio de celeridad (…) y con el principio de economía procedimental (…) la autoridad administrativa debía resolver el procedimiento de invalidación con rapidez, es claro que los doce días hábiles que restaban para que transcurriera el plazo de caducidad de dos años, no eran suficientes para poder llevar adelante el procedimiento en forma legal en este caso. Por tanto, a juicio del tribunal era improcedente que la administración declarara admisible la solicitud de invalidación presentada por FIMA. Sin embargo, cabe advertir que la administración debe declarar la inadmisibilidad en un caso como este con la mayor celeridad posible”.
Michelle Bachelet y su compromiso frente al proyecto
En un encuentro hace dos años con los dirigentes del movimiento “Salvemos el Río Achibueno”, la Mandataria escuchó las acusaciones que hizo la agrupación en relación a que el proyecto hidroeléctrico que se busca emplazar en la zona secaría el cauce del río y amenazaría el turismo y la preservación del lugar, ubicado en las cercanías de Linares.
Frente a esa problemática, Bachelet dijo que llegaba a comprometerse con la gente, en esa oportunidad -en el año 2013- aseguró que si era electa, no se iba a apoyar el proyecto en su gobierno: “Porque no cumple ni con los estándares técnicos, ni procedimentales y mucho menos con los estándares técnicos, ni procedimentales y mucho menos con los estándares de participación ciudadana”.
Además, en aquél tiempo frente a los reparos que hicieron los manifestantes a la construcción de las dos centrales, Bachelet aseguró que “hacer oídos sordos ante todas las voces de alertas  que están tan bien fundamentadas y organizadas sería un tremendo error para nuestro desarrollo”.
La que en ese entonces era candidata, anunció que harían todas las gestiones para que el Cajón de Achibueno sea un “Santuario de la Naturaleza”, si bien eso se cumplió, ahora falta esperar que el resto de las promesas se consoliden y logren finalmente doblar la mano en favor de los verdaderos afectados con las decisiones de grandes empresas: Los ciudadanos.
Marisol Acuña, vocera del Movimiento “Salvemos el Achibueno”, manifestó que no todo se encuentra perdido, que incluso hay distintos temas que todavía están pendientes y debido a eso, aún confían en el compromiso de Michelle Bachelet, que aseguró que en su Gobierno no apoyaría la intervención del Achibueno.
Quien también se refirió hace un tiempo a las declaraciones de la Presidenta,  fue el diputado Jorge Tarud. El ex embajador de Chile ante Arabia Saudita, Australia y la República Popular China, dijo en el 2015, que a su parecer la visita que realizó el ministro del medio ambiente (Pablo Badenier) a la zona, fue para “dorarle la píldora” a la ciudadanía.habilita JavaScript en caso de que no lo tengas habilitado tu navegador.
En la oportunidad, expresó creer que para el proyecto Achibueno tenían dos adversarios, “uno es el ministro del Medio Ambiente, el señor Badenier y el otro es el ministro de energía, el señor Pachecho. Ellos quieren que a toda costa se haga este proyecto y por lo tanto, yo tengo radicada toda mi confianza y mi esperanza en la presidenta Bachelet, porque ella tomó un compromiso con nosotros y por lo tanto yo sé que lo va a cumplir”. Aseguró el político, quien también llamó a los habitantes de la zona a estar alertas y dispuestos a movilizarse en pro al rechazo del polémico proyecto hidroeléctrico.

La sequía obliga al Canal de Panamá a restringir el paso de los buques

La restricción al calado, que no se aplicaba desde 1998,  es “temporal y preventiva”, y obedece a que los lagos Gatún y Alhajuela, que alimentan a la vía, “se encuentran por debajo de sus niveles promedio para la época”
 
El Canal de Panamá aplica desde hoy una restricción al calado de los buques, la primera desde 1998, y mantiene la previsión de instaurar una segunda en las próximas semanas, debido a la sequía que afecta al país a raíz del fenómeno El Niño.
El administrador de la Autoridad del Canal de Panamá (ACP), Jorge Quijano, informó que este martes se bajó “de 39,5 a 39 pies el calado de los buques”, un medida que en principio estaba programada para el pasado 18 de abril.
La ACP anunció en marzo pasado que desde el 18 de abril el calado máximo permitido sería de 11,89 metros (39,0 pies) en agua dulce tropical.
Esta primera restricción “pudimos postergarla una semana debido a las pocas lluvias que hemos tenido, que sí aguantaron la bajada en los lagos” que alimentan la vía interoceánica, “pero ya no podemos más y tenemos que instaurarla desde el día de hoy”, explicó Quijano.
Próximas restricciones
Reiteró que hay otra medida similar “programada para el día 29? de este mes, que “pensamos que la podemos dilatar un poquito más, pero no mucho”, dijo en declaraciones a los periodistas sin más precisiones.
El propio Quijano reveló el pasado día 8 que el próximo día 29 se anunciaría una nueva restricción, “de otras seis pulgadas” al calado de los buques que atraviesan la vía interoceánica operativa desde 1914.
“Pronosticamos que la máxima restricción de calado que vamos a tener en el actual Canal sería de 2 pies”, añadió Quijano entonces.
El administrador explicó este martes que “por cada 6 pulgadas, que es el caso de la primera restricción (al calado) el buque tiene que venir con menos carga para no hundirse tanto en el agua”.
“Es decir, que (el buque) pierde la capacidad de carga”. Si la restricción de calado “es de 1 pie, son 2.000 toneladas que no puede llevar ese buque”, aseveró Quijano.
Los lagos Gatún y Alhajuela por debajo del promedio
La restricción al calado, que no se aplicaba desde 1998,  es “temporal y preventiva”, y obedece a que los lagos Gatún y Alhajuela, que alimentan a la vía, “se encuentran por debajo de sus niveles promedio para la época”, ha dicho la ACP.
“Las restricciones de calado se llevarán a cabo de forma decreciente 15 centímetros (seis pulgadas) con cada restricción anunciada al menos con cuatro semanas de antelación”, informó en marzo pasado la administración del Canal de Panamá, por donde pasa el 6 % del comercio mundial.
La peor sequía en 100 años
La sequía que azota a Panamá, la peor en 100 años según las autoridades, obligará a que el Canal ampliado de Panamá inicie a finales de junio próximo operaciones comerciales con una restricción de calado.
“El 27 de junio estaríamos empezando lo que sería la operación normal” de la ampliación del Canal, y se podrá “ofrecer 41 pies de calado en las nuevas esclusas y en los nuevos cauces, que es menos de los 50 (pies) que vamos a poder ofrecer cuando tengamos los lagos en niveles normales”, dijo Quijano el pasado día 8.
La ampliación del Canal de Panamá será inaugurada el próximo 26 de junio con un gran acto protocolario de incluye el paso de un primer buque y la presencia de decenas de jefes de Estado y de Gobierno de todo el mundo, así como de representantes de navieras.

Fuente: EFEverde - Foto: La sequía obliga al Canal de Panamá a restringir el calado de los buques. EFE/ARTURO WON

Dos enormes icebergs se desprenden de la Antártida

Múltiples satélites, incluidos los Sentinels europeos, han capturado imágenes de dos grandes icebergs que se separaron de una plataforma de hielo de la Antártida llamada Nansen.

Las masas de hielo van a la deriva hacia el noreste, impulsadas por el viento, las mareas y las corrientes. Por fortuna, los expertos dicen que no suponen ninguna amenaza inmediata para las rutas de suministro a las estaciones científicas en la zona, como la italiana Mario Zucchelli o la Bogo Jang de Corea del Sur, en la bahía de Terra Nova.
No obstante, los icebergs pueden representar una amenaza para los amarres colocados en el lecho marino en la región que son utilizados por el Programa Nacional Antártico de Italia desde la década de los 90, y más recientemente por los científicos marinos de Nueva Zelanda.
La plataforma de hielo de Nansen, de unos 50 km de largo y 25 km de ancho, desarrolló una fractura en los últimos años. Las plataformas de hielo son particularmente sensibles al cambio climático, ya que pueden derretirse por causa del aire caliente en la superficie del océano y por el calentamiento de las aguas oceánicas.
«La grieta fue observada por primera vez durante el trabajo de campo en 1999 y fue creciendo progresivamente, y luego se aceleró durante 2014», ha dicho Massimo Frezzotti, de la organización de investigación ENEA de Italia.
A medida que el clima invernal comenzó a suavizarse a principios de marzo de este año, las imágenes ópticas del satélite Sentinel-2A y de radar desde Sentinel-1A, junto con imágenes de la misión italiana Cosmo-SkyMed, indicaron que el frente de hielo estaba solo ligeramente unido a la plataforma.
Para el 6 de abril, la fractura había llegado a unos 40 km de largo antes de que cortara la parte del frente de hielo entre la isla Inexpresable al norte y la lengua de hielo Drygalski, al sur.
Observada por el satélite Terra de la NASA, la ruptura se produjo el 7 de abril durante persistentes y fuertes vientos en alta mar. Dos días más tarde, el radar de Sentinel-1A confirmó la separación.
«La zona de la fractura era todavía insignificante a principios de 2014, pero entre abril de 2015 y de marzo de 2016 se amplió de 11,68 km cuadrados a 25,87 km cuadrados, lo que indica que llega una ruptura», ha dicho Flavio Parmiggiani, de la organización de investigación ISAC-CNR de Italia.
La fractura ha dividido la plataforma de hielo a lo largo de su longitud, lo que resulta en dos grandes icebergs que miden aproximadamente 10 km y 20 km de largo, y 5 km de diámetro. La investigación publicada indica que es probable que los icebergs tengan de 250 a 270 m de espesor.

Fuente: http://www.abc.es/

Las algas favorecidas por la sobrepesca interrumpen el reciclaje de los arrecifes de coral

Millones de personas en todo el mundo dependen de los arrecifes de coral para conseguir una pesca productiva, pero la sobrepesca en las aguas cerca de los arrecifes elimina a los comedores de algas del entorno, permitiendo que las poblaciones de algas carnosas exploten.

Una investigación de la Universidad Estatal de San Diego, publicada en 'Nature Microbiology' explora cómo un proceso destruye la delicada cadena alimenticia de los arrecifes de coral. Los arrecifes de coral -los ecosistemas marinos más productivos y diversos del mundo-- se basan en un programa de reciclaje magistral para mantenerse saludables. Los corales y las algas que forman la base de la cadena alimenticia del arrecife liberan una variedad de nutrientes que apoyan una compleja y eficiente cadena alimenticia, pero cuando este sistema se descontrola, el ciclo se rompe y pone en peligro la salud de los arrecifes de coral. Millones de personas en todo el mundo dependen de los arrecifes de coral para conseguir una pesca productiva, pero la sobrepesca en las aguas cerca de los arrecifes elimina a los comedores de algas del entorno, permitiendo que las poblaciones de algas carnosas exploten. En áreas con grandes poblaciones humanas, la contaminación a menudo exacerba el problema mediante la estimulación de algas. Las algas carnosas en los arrecifes liberan grandes cantidades de nutrientes conocidos como carbono orgánico disuelto (DOC, por sus siglas en inglés), que se alimentan de microbios. Los investigadores tienen la teoría de que cuando hay un montón de algas productoras de comida para microbios, también se registran mayores niveles de microbios potencialmente dañinos en todo el ecosistema del arrecife. En esta nueva población abundante de microbios, la evolución selectiva presiona a favor de los microbios que ponen en peligro los corales, ya sea por agotamiento del oxígeno del ambiente o por enfermedad. A medida que los corales mueren, las algas tienen aún más espacio para asumir el control, produciendo más DOC y creando un circuito de retroalimentación fuera de control que lleva a la muerte de más coral y los microbios asumen el control del ecosistema. A medida que los arrecifes están dominados por algas carnosas, "la mayor parte de la energía del ecosistema entra en los microbios", afirma el autor principal del estudio, Andreas F. Haas, biólogo de la SDSU. "Ya no es compatible la variedad de organismos que conforman los arrecifes con un sistema saludable", añade el autor del estudio. Haas y el co-autor Mohamed F. M. Fairoz de la Universidad Oceánica de Sri Lanka, junto con sus colegas, se dispuso a probar esta teoría mediante la recopilación de más de 400 muestras de agua de 60 sitios de arrecifes de coral en todo el Índico, Pacífico y Atlántico. En el laboratorio, analizaron estas muestras con pruebas de un proceso llamado "microbialización" de los arrecifes dominados por algas en todo el mundo, es decir, con más microbios con el potencial de dañar los organismos del arrecife.
A MÁS ALGAS, MÁS MICROBIOS
En primer lugar, el equipo analizó la abundancia de microbios presentes en sus muestras, cuyos resultados apoyaron sus hipótesis: detectaron que los sitios de arrecifes con mayor cobertura de algas también tenían más microbios. Utilizando técnicas de secuenciación metagenómica, encontraron que en los arrecifes dominados por algas es más probable que la comunidad microbiana albergue patógenos dañinos. Este patrón tiene también implicaciones para el ciclo del carbono oceánico. Una de las predicciones contrarias a la intuición hecha por este modelo es que debido a que los microbios impulsados por el crecimiento de algas son voraces, eliminan DOC del arrecife y limitan la transferencia de material orgánico para los organismos más grandes como invertebrados y peces. Efectivamente, Haas y su equipo hallaron que en los arrecifes con alta cobertura de algas, como en la isla de Kiritimati en el Océano Pacífico central, las concentraciones de DOC eran muy bajas, mientras que en los arrecifes con baja cobertura de algas, como el arrecife Kingman en el norte Océano Pacífico, la cantidad de DOC fue mayor. A lo largo de 60 sitios de muestreo y a través de tres cuencas oceánicas, estos investigadores encontraron esta relación: cuanto mayor sea la cobertura de algas, menor será el DOC. "Las algas siempre liberan más carbono orgánico disuelto que los corales -apunta Haas-- pero en los arrecifes con más algas vemos menos DOC". En resumen, los resultados del estudio apoyan la idea de que la "microbialización" que se asocia con aumento de la cubierta de algas en los arrecifes de coral puede diezmar los ecosistemas de arrecifes por la toma de control microbiano del ecosistema. "La metagenómica nos muestra que los microbios en los arrecifes cubiertos de algas son recicladores menos eficientes de carbono, un cortocircuito en la transferencia de materia orgánica para organismos superiores como los peces", subraya el co-autor Craig Nelson, del Centro de Oceanografía Microbiana de la Universidad de Hawaii, en Manoa, Estados Unidos. A medida que la sobrepesca y la eutrofización son dos de las principales causas de aumento de la cobertura de algas, los seres humanos deben preocuparse acerca de cómo sus acciones impactan directa e indirectamente en uno de los ecosistemas más importantes del mundo, concluyen los autores de este trabajo. "Este estudio bien documentado demuestra que las actividades humanas están afectando a los arrecifes de coral en formas muy sutiles", afirma el doctor David Garrison, director del programa en la División de Ciencias Oceánicas de la Fundación Nacional de Ciencias, que financió la investigación. ep

Fuente: http://www.ecoticias.com

viernes, 29 de abril de 2016

Chernóbil, tres décadas no son ‘nada’

El 26 de abril de 1986, hace ahora 30 años, un experimento en el reactor 4 de la central nuclear de Chernóbil (Ucrania) falló estrepitosamente, desencadenando dos explosiones que enviaron una nube de lluvia altamente radiactiva a la atmósfera y obligaron a desalojar a miles de personas en los siguientes días. Cerca de la central, la ciudad de Pripiat, construida por el Gobierno soviético para los trabajadores de Chernóbil a sólo tres kilómetros de la central, era una urbe 'modelo', con "todos los lujos de una ciudad moderna: estación de tren, puerto, hospital y un recinto ferial", según recuerda 'chernobylwe.com', una de las empresas que treinta años después organiza visitas turísticas a la zona de exclusión. El accidente de la planta nuclear hizo que el nivel de radiación superase los niveles naturales en mil veces en la zona. La tarde del 27 de abril, las cerca de 40.000 personas que vivían en la ciudad --con una media de edad de 25 años-- fueron evacuadas de sus hogares.
El centro cultural, llamado Energetik, tiene varios murales(...) El suelo está destrozado, las sillas están dispersas y hay un retrato lleno de polvo de Mijail Gorbachov y un cartel para conmemorar el sexagésimo aniversario de la Unión Soviética.
Prípiat se suponía que era la joya de la corona de la Unión Soviética, con amplias calles rodeadas de flores, un centro cultural, una piscina, quince guarderías y un parque de atracciones con coches de choque y una noria y con tiendas llenas de artículos que podrían ser la envidia de toda Ucrania y la Rusia soviética. El centro cultural, llamado Energetik, tiene varios murales(...) El suelo está destrozado, las sillas están dispersas y hay un retrato lleno de polvo de Mijail Gorbachov y un cartel para conmemorar el sexagésimo aniversario de la Unión Soviética. Prípiat se convirtió en una ciudad fantasma en la noche del 26 de abril de 1986 por la explosión de la central nuclear de Chernóbil, situada a solo dos kilómetros. Valentina Sochenok recuerda esa noche. Había estado viviendo en Prípiat durante quince años cuando un experimento que salió mal provocó que explotara el cuarto reactor. "Una noche me despertó una llamada pero nadie contestó en el otro lado", rememora. Entonces tenía 44 años y trabajaba como enfermera en un hospital local. Solo estaban ella y sus hijos en el apartamento. Su marido estaba en casa de sus padres en Teremcie, un pueblo situado a 40 kilómetros de Prípiat. Valentina escuchó que alguien llamaba a su puerta. "Abrí la puerta y vi a algunos compañeros del hospital. Me metieron prisa para que saliera del apartamento. Me dijeron que había una emergencia y que tenía que ir al trabajo. Cogimos una ambulancia y despertamos a todos los médicos de la ciudad. Trabajé toda la noche porque nos traían los primeros heridos de la central", relata. Salón de actos del centro cultural de Prípiat Tomas Halaz/Revista MONO Cuando se fue a casa por la mañana, se dio cuenta de que las personas seguían actuando con normalidad en las calles. La mayoría de ellos no tenían ni idea de que solo a unos pocos kilómetros los bomberos y los trabajadores de la planta estaban haciendo todo lo que podían no solo para salvar sus vidas sino para impedir que ocurriera una catástrofe mucho mayor. Los expertos están de acuerdo en que si las cosas hubieran sucedido de forma un poco distinta, Kiev habría quedado destruida y la zona radiactiva habría alcanzado Eslovaquia y Polonia. Una semana después del desastre, el reactor roto comenzó a hundirse en el suelo hacia un espacio lleno de agua contaminada usada para enfriar. Si el reactor hubiera entrado en contacto con ese agua, habría habido un vertido radiactivo distinto y mucho mayor. El problema fue evitado gracias a tres hombres que se zambulleron en el tanque de agua y lo drenaron. No sobrevivieron ni una semana. La planta de energía nuclear resultó ser fatal para cerca de 30 trabajadores y bomberos. Cientos de miles de personas tuvieron que abandonar sus hogares.
LA POBLACIÓN DE PRÍPIAT SE ENTERÓ 36 HORAS DESPUÉS
Nadie supo del peligro entonces: la gente de Prípiat solo se enteró del vertido y de la evacuación 36 horas después del accidente. Hasta entonces, disfrutaron de una espectacular feria en la plaza y de una boda y los visitantes de Kiev y Bielorrusia, que no tenían ni idea de lo que pasaba, se tomaron sus cafés en la ribera del río. El sonido de los helicópteros y el aumento de los militares en las calles no implicaba que la vida de decenas de miles de personas de la zona fuera a cambiar para siempre. "Paseamos cerca de la planta durante unos diez minutos. Entonces nos dijeron que su marido ya no estaba vivo y que teníamos que irnos. Prometieron que encontrarían el cadáver", afirma Valentina, recordando el día que una compañera le pidió que le ayudara a encontrar a su marido, que era bombero. Él se fue por la noche para ayudar a extinguir el incendio en el bloque número cuatro. Valentina vive en la Zona de Exclusión de Chernóbil. Volvió a la casa de sus suegros en Teremcie tras la evacuación. Miles de personas tuvieron que empaquetar sus vidas y comenzar de nuevo en otro sitio y solo unos pocos han regresado. Algunos de los últimos habitantes del pueblo se encuentran viviendo en el denso bosque que hay al final de una carretera destrozada. Aula de un colegio de Prípiat Tomas Halaz/Revista MONO "Ahora no está creciendo nada. Vengan en verano", se despide Valentina mientras pasea por su jardín, mirando los primeros brotes. "Lo sé todo sobre hierbas. Tienes que cultivarlas en días especiales como el día de San Pedro. Si rezo una oración cuando las recojo, se convierten en curativas", sostiene. Algunas personas que residen en la Zona de Exclusión de Chernóbil viven desconectadas. Las provisiones les llegan cada dos semanas y los pueblos habitados más cercanos están a decenas de kilómetros. Aunque los niveles de radiación en la zona son mayoritariamente normales, solo unas pocas personas han vuelto a sus hogares aquí tras haber sido obligados a marcharse repentinamente.
"NOS ESTÁBAMOS PREPARANDO PARA LA PASCUA"
"¿Quiere comer algo o tomar un poco de vodka casero?", pregunta Ola Timorofejevna Sapurova, una mujer de 78 años que vive en el pueblo de Kupovate, dentro de la Zona de Exclusión. Debido a su deteriorada salud, probablemente no plantará tomates este año. Será la primera vez que dependerá totalmente de la ayuda de otros. Ella recuerda los días posteriores a la explosión. "Nos estábamos preparando para la Pascua: limpiando, cocinando... Entonces tuvimos que irnos", relata. Valentina Sochenok vive dentro de la zona de exclusión. Primero llegaron los camiones y se llevaron a los animales. Las personas tuvimos que esperar a que llegaran los autobuses. Ola volvió un año después. Ahora se lamenta. "Estoy sola. No hay nadie para enterrarme", señala. Un par de casas más allá, vive una mujer de 85 años, Hanna Alexiyevna Zavarotna. Saca una olla caliente llena de pudin del horno y ofrece una tarta de manzana que ha cocinado para su hermana. "Nos dijeron que volveríamos en tres días", recuerda, mientras sirve en un plato un poco de pudin. Ella también regresó un año después. Aunque el pueblo fue evacuado una semana después de la explosión, Hanna no temía a la radiación. "Nuestra nación no teme a ninguna radiación", explica, mientras se anuda la bufanda. Además de unos pocos miembros de la familia, solo algunos pocos guías con pequeños grupos de turistas visitan el lugar. Un viaje lleno de adrenalina a las inmediaciones de Chernóbil que ha sido una atracción turística durante varios años. Hanna Alexijevna Zavorotnyi reside con su hermana.
Este texto es un extracto del reportaje 'En la sombra del riesgo, ¿experimentará Ucrania otro Chernóbil?', escrito por el periodista Lukas Ondercanin, con imágenes del fotógrafo Tomas Halaz, para la revista digital eslovaca MONO. Su difusión en español ha sido autorizada expresamente a Europa Press. El contenido íntegro se puede consultar en el enlace http://mono.sk/caka-ukrajinu-dalsi-cernobyl/ . El reportaje también analiza en profundidad la situación en la localidad ucraniana de Energodar, que acoge la central nuclear de Zaporizhzhya, la mayor de Europa. La extensión de la vida operativa de varios de los reactores de esta planta ha generado críticas desde algunos sectores por considerar que hay riesgo de que se registre un nuevo accidente como el de Chernóbil. CEE Bankwatch, una red que vigila el flujo de fondos públicos para que no se dediquen a proyectos que puedan tener efectos negativos en la población o el medio ambiente, ha alertado de que la decisión de alargar la vida operativa de esa central de Enerdogar podría no haber seguido criterios técnicos e independientes sino motivos políticos. Bankwatch ha asegurado que el crédito que el Banco Europeo para la Reconstrucción y el Desarrollo y la agencia nuclear Euratom destinan a la central de Enerdogar tiene como objetivo las mejoras de la seguridad y no la prolongación de su vida operativa. El reportaje publicado en la revista MONO ha contado con el apoyo de CEE Bankwatch. ep

Los liquidadores: héroes o víctimas
Hasta 600.000 personas llegaron a colaborar en las labores de descontaminación de la zona de Chernóbil. Eran los llamados ‘liquidadores’. Una mayoría procedían del ejército, pero en última instancia terminaron siendo una amalgama de militares, militantes (y no militantes) comunistas obligados por el partido, y voluntarios en general muy bien pagados. 
Apenas fueron informados de los riesgos, no tenían protección adecuada y las mediciones de radiactividad que se les practicaban en muchas ocasiones se trucaban o directamente se les ocultaban. Las estadísticas fluctúan inconcebiblemente según los estudios, pero la principal organización de liquidadores estima que 60.000 han fallecido y más de 150.000 se encuentran discapacitados. Tras el desastre, les llovieron las condecoraciones.
El inconcebible baile de números
No es sencillo calcular el número de víctimas causadas por el accidente. Los efectos a largo plazo, el que no exista un marcador que permita identificar si es la radiación la causa de la enfermedad o el aumento progresivo en el número de casos de cáncer solo por el hecho de las mejoras en el diagnóstico, dificultan enormemente las estimaciones. El paisaje que ofrecen los informes es desconcertante. Estos son algunos: El informe UNSCEAR del comité científico de las Naciones Unidas asigna menos de 50 muertes seguras como consecuencia directa de la radiación. Estima que esta causará al menos 6.000 casos de cáncer de tiroides, pero que no provocó un problema de salud pública. Los informes del Fórum de Chernóbil, en los que participó la Organización Mundial de la Salud (OMS) fueron aumentando el número de muertes por cáncer atribuidas hasta las 9.000. El informe de la sección alemana de la IPPNW, siglas de la Asociación de Médicos para la Prevención de la Guerra Nuclear, es profundamente crítico con respecto a los de las Naciones Unidas y la OMS, a quienes acusa de “manipular sus propios datos”.El informe TORCH, realizado a petición del Partido Verde Alemán, cifra en 30.000-60.000 las muertes por cáncer debidas a la radiación.
Un informe de Greenpeace, sin embargo, cifra en hasta 200.000 las muertes atribuibles al accidente, de las cuales solo la mitad se deberían a casos de cáncer.

Fuente: http://www.ecoticias.com

Chile: Solicitan antecedentes sobre vertimiento de mortalidad de salmones en el mar

El senador Rabindranath Quinteros pidió a la Gobernación Marítima un estudio tras recibir una serie de denuncias que apuntan a fallas en el proceso por parte de las empresas salmonicultoras, generando efectos nocivos.

Un informe detallado sobre el proceso de descarga de salmones muertos en alta mar solicitó a la Gobernación Marítima de Puerto Montt el senador por la Región de Los Lagos Rabindranath Quinteros. Esto, según manifestó, tras recibir una serie de denuncias que apuntan a fallas en el proceso por parte de las productoras de salmónidos.
A través de una nota de prensa, el legislador detalló que ha recibido denuncias desde distintos sectores de la región, entre estos Maullín y Chiloé, que dicen relación con un conjunto de efectos nocivos generados a partir de la descarga de peces muertos y en descomposición.
“Según sostienen quienes nos han entregado esta información, la descarga no se habría realizado a la distancia necesaria del borde costero y ello estaría impactando fuertemente en la fauna marina”, puntualizó el congresista PS.
En ese contexto, Quinteros solicitó a la Armada información detallada sobre el proceso de traslado y disposición de la carga de salmones muertos realizada en el marco de la reciente Floración de Algas Nocivas (bloom) que durante febrero y marzo afectó a la mayoría de las principales salmonicultoras que operan en el país.
El legislador enfatizó que es “necesario determinar el grado de certidumbre de las denuncias que apuntan a falta de rigurosidad de las productoras, especialmente en un momento que todos entendemos es muy complicado para la pesca artesanal y para quienes subsisten como recolectores de orilla”, recalcó.
En ese sentido, dijo haber solicitado a la Armada detalles sobre la cantidad de embarcaciones involucradas en el proceso, la cantidad de carga trasladada, el track de navegación de los barcos, la cantidad de viajes realizados, los puntos exactos de descarga de los residuos, “así como cualquier otra información que contribuya a tener claridad total sobre la forma en que fue realizada esta operación”, concluyó Quinteros

Fuente: http://www.ecosistemas.cl/2016/04/28/solicitan-antecedentes-sobre-vertimiento-de-mortalidad-de-salmones-en-el-mar/

Chile: Senador Navarro pedirá investigar a proyecto Alto Maipo por contaminación de aguas

“Aquí se requiere que la institucionalidad aclare los impactos que este proyecto acarerrea sobre la población” dijo el parlamentario.
 
Tras el corte de suministro de agua potable que mantuvo a la Región Metropolitana casi dos días sin agua debido al “extremo sedimento”, es que el senador Alejandro Navarro llegará hasta la Superintendencia de Medio Ambiente (SMA), para solicitar se investigue la responsabilidad del proyecto Hidroeléctrico Alto Maipo de AES Gener, en la turbiedad de las aguas.
El parlamentario acompañará a su presentación un informe elaborado por el Dr. Andrei Tchernitchin de noviembre de 2015, que indica que “los trabajos que realiza AES Gener en la zona de la alta cordillera demuestran concentraciones tóxicas de sustancias cancerígenas, entre ellas el arsénico, y cuya presencia va más allá del límite permitido por la Organización Mundial de la salud (OMS).
Navarro señaló que “la evidencia científica que ha mostrado el Dr. Andrei Tchertnitchin es realmente alarmante, sobre todo luego de lo ocurrido la semana pasada con la contaminación de las aguas y el posterior corte del suministro”.
“Aquí se requiere que la institucionalidad aclare los impactos que este proyecto acarerrea sobre la población. Porque tal como señalan los científicos ‘el proceso de contaminación de las napas es lento; pero irreversible’”.
El legislador comentó que según este informe “serán 2,7 millones de metros cúbicos de material contaminado, los que trasladará Alto Maipo hasta diferentes zonas del Cajón. A ellos se suman los químicos de los explosivos y del estuco que usarán para colocar dentro de ese túnel no impermeabilizado”.
El senador Navarro recalcó “la importancia de que se dé a conocer ante la opinión pública y la ciudadanía lo que puede pasar en el agua potable y de riego de toda la Región Metropolitana, si esta está contaminada con sedimentos que pudiesen contener estos metales pesados”.
Finalmente el legislador reiteró “y todo esto, ¿para qué? ¡Para producir energía para el proyecto Pelambres, del grupo Luksic!, tal como reconoció Armando Lolas, vicedirector del proyecto al ser consultado por el programa “En la Mira”, de Chilevisión”.
Agregó que “es un despropósito pretender que es posible sustentar, la desenfrenada sed extractiva de la minería, sector que ya consume el 34 por ciento de la energía que produce el país y que está dejando, como resultado de sus excesos, una estela de miseria y contaminación”.
Concluyó indicando que “si incluso el proyecto tuviera destino residencial, por ningún motivo valdría la pena tanto sacrificio para tener el beneficio que da la electricidad. Como se sabe, existen alternativas de energías, que no ponen en riesgo la salud de la población”.

Fuente: Publimetro

Japón: De Volkswagen a Mitsubishi, la extensión del engaño medioambiental de los motores de coches

Un simple truco, inflar más los neumáticos, servía a la japonesa  Mitsubishi para burlar la normativa medioambiental en, al menos, 600.000 de sus motores –la mayoría de ellos montados en minicoches a gasolina de la marca Nissan–. La protección de la calidad del aire chocaba con la venta de vehículos. La empresa ha reconocido este miércoles que falseó las cifras sobre lanzamiento de gases de cientos de miles de sus unidades.

Con este caso, el engaño sobre emisiones contaminantes de la industria automovilística se ha extendido ya desde EE.UU. a Europa y hasta el mercado asiático. E incluye tanto los motores diésel como los de gasolina. Las ruedas con mayor presión hacen que los coches consuman menos combustible y, por lo tanto, emitan menos durante las pruebas que les otorgan su calificación medioambiental. Se trata de uno de lo trucajes que los fabricantes aplican a sus modelos de test ( los golden car). La batería incluye una amplia variedad de reglajes específicos que luego no se pueden reproducir en la conducción real.
Con estos motores japoneses, queda cubierto todo el espectro de segmentos automovilísticos que manipulaban los datos de polución: abrió la veda el caso Volkwagen con  sus 11 millones de motores diésel trucados para engañar los límites de contaminación. Aquel escándalo, que saltó en septiembre de 2015, también afectaba a coches de gama más alta como los Audi. Dos meses después, en noviembre, la empresa alemana también reconoció  "inconsistencias" en sus datos de dióxido de carbono.
En los coches diésel, el tóxico cuyas mediciones se amañaban era, sobre todo, el dióxido de nitrógeno (NO2). De hecho, diferentes modelos de coches con gasoil han reflejado una gran diferencia entre las emisiones de prueba y las reales en la carretera gracias solo con la utilización de los golden car. Las mediciones llevadas a cabo por analistas como la alemana  Adac o la británica Emmisions Analyticsdetectaron esas diferencias en Renault, Fiat, Citroën, Mercedes, Honda e incluso Nissan y Mitsubishi (cuyo modelo híbrido lanzaba seis veces más NO2 en la carretera que en el laboratorio). El responsable de Emmisions Analytics, Nick Molden, tras los resultados, explicaba que se trata " de un asunto sistémico".
Ahora estos pequeños automóviles de Nissan (de 600 centímetros cúbicos) extienden los engaños a las motorizaciones gasolina en vehículos de gama modesta. Con la gasolina, los niveles que se han amañado son los del dióxido de carbono, el CO2. Cada tipo de carburante tiene su gas estrella a la hora de contaminar el aire. Sin distinción de carburante o cilindrada, los fabricantes engañaban sobre las prestaciones ambientales obligatorias.
En este sentido, la responsable de Vehículos Limpios de la organización internacional Transporte y Medio Ambiente, Julia Poliscanova, cuenta a eldiario.es, tras conocerse el asunto de Mitsubishi, que "el iceberg del trucaje de los contaminantes de los coches sigue emergiendo: ahora también en Japón". Y subraya que "estamos hablando de todo tipo de coches, tanto diésel como de gasolina, coches de poca cilindradas así como los grandes todoterrenos". Para esta organización, el problema está en que las pruebas de emisiones "están supervisadas por los mismos fabricantes, no por entidades independientes".
Aumento de beneficios
Tras admitir el engaño, detectado por Nissan, Mitsubishi asegura que paraliza la producción de estas unidades. La empresa quintuplicó sus beneficios en 2014. En Europa, esta marca no es predominante en el mercado general aunque el año pasado creció en el continente un 27%. Ambas fabricantes niponas han afirmado que piensan en cómo compensar este fraude.
Sin embargo, hace solo dos meses, la patronal del automóvil europea (Acea) que está presidida precisamente por un hombre de Nissan (consorciada con Renault),se quejaba en un documento interno de que los fabricantes se habían esforzado más allá de lo razonable en la contención de emisiones: "Hemos estado contribuyendo más allá de la justa proporción en el camino hacia la reducción de emisiones de CO2 mediante grandes inversiones en investigación y desarrollo", clamaba la patronal en un informe que recogía sus propuestas para contener la producción de gases.
La patronal entendía que ya habían jugado un "papel sustancial" en el esfuerzo por atajar los problemas del efecto invernadero y pedían a los gobiernos europeos que gastaran unos 300.000 millones de euros en reasfaltar la red de carreteras continental para que el rodaje más fino de sus productos ahorrara en combustible.

Fuente: http://www.eldiario.es/