WWF – Brasil
O WWF-Brasil é uma organização da sociedade civil brasileira, de natureza não-governamental e constituída como associação civil sem fins lucrativos que trabalha para mudar a atual trajetória de degradação ambiental e promover um futuro onde sociedade e natureza vivam em harmonia.