Pular para o conteúdo principal

"Há desconhecimento sobre a rede"

Entrevista de Carlos A. Afonso, do Nupef, ao jornalista Murilo Roncolato, no caderno Link do jornal O Estado de São Paulo, publicada em 11 de novembro de 2013. (*)

SÃO PAULO – O projeto de lei nº 2126/2011, o chamado Marco Civil da Internet, ganhou novo texto após o Executivo ter colocado sua tramitação sob regime de urgência. O adiamento da sua votação trancou a pauta da Câmara e deve ser votado nesta semana. No entanto, mais mudanças podem acontecer.

Nesta reta final, o Link publica entrevistas com pessoas influentes sobre o assunto e envolvidos diretamente nas discussões. Na quinta entrevista da série, conversamos com Carlos Alberto Afonso, pioneiro da internet no Brasil, um dos fundadores, em 1995, do Comitê Gestor da Internet do Brasil, onde hoje é membro como representante do terceiro setor.

Link - O senhor comentou que as propostas ao Marco Civil estão evidenciando profundo desconhecimento de como a internet realmente funciona, principalmente quanto à necessidade de pontos de troca de tráfego (PTTs). Ao que o senhor se referia? 

A Internet hoje é uma rede de redes (por isso o “I” maiúsculo). Cada rede contém máquinas localizáveis por um endereço numérico – o número IP. Uma rede definida por blocos contíguos de endereços (conhecidos como “números IP”), é identificada na Internet como um “sistema autônomo” (AS). São estes ASs que interconectam-se através de centenas de pontos de interconexão (também conhecidos como pontos de troca de tráfego ou PTTs) mundo afora, constituindo a Internet planetária. Essas interconexões podem estar dentro ou fora do país da entidade à qual pertence o AS. O conteúdo da Internet, composto de datagramas (os “packets”), é trocado entre qualquer par de computadores através de caminhos dessas redes que podem variar até mesmo durante o envio de uma mensagem simples de e-mail. Sistemas de roteamento decidem qual o melhor caminho a seguir através dos pontos de interconexão para entregar cada datagrama.

Como exemplo da importância de otimizar a interconexão, o serviço Netflix mantém servidores em São Paulo. Usuários paulistas do serviço de banda larga Vivo Speedy se conectam ao Netflix nesses servidores. Já os cariocas que utilizam o Net Virtua têm que utilizar os servidores do Netflix de Miami, porque a interconexão interna ainda não está otimizada.

Do ponto de vista interno, graças em grande parte à visão estratégica do NIC.br (Núcleo de Informação e Coordenação do Ponto BR), estamos bem em alguns componentes cruciais da Internet. Somos o segundo país do mundo em pontos de troca de tráfego (com 23 PTTs – os EUA têm 87) interconectando mais de 500 redes nacionais. Isso otimiza o tráfego nacional de dados e reduz a necessidade de usar conexões internacionais para a troca de dados entre as redes. O Canadá tinha no ano passado apenas dois. Por que essa disparidade entre um país de ponta da Internet e o Brasil? Porque as redes canadenses até recentemente consideravam que era mais barato trocar tráfego em Nova Iorque ou Los Angeles do que em Toronto ou Vancouver. Foi preciso a “sacudida” de Snowden para desatar uma corrida para instalação de PTTs no país.

Temos ainda no país 18 servidores regionalmente distribuídos que reproduzem os servidores-raiz do DNS (os sistemas que permitem localizar serviços por nomes de domínio – uma espécie de “lista telefônica” da Internet), e temos também um dos melhores e mais seguros serviços de DNS do planeta. O DNS permite localizar, por exemplo, o endereço IP 204.2.249.106, quando consultamos o domínio “estadao.com.br”. Sem isso seria impossível chegar ao servidor que contém as páginas do Estadão, a menos que memorizássemos esses números.

Link - O que falta então?

O que falta é capacidade de trânsito bem distribuída para todos os municípios, bem como capacidade de trânsito internacional também distribuída equilibradamente para todas as regiões do mundo – e isso não nasce da noite para o dia. Temos cerca de duas mil redes (ASs) no país, e pouco mais de um terço troca tráfego nacional dentro do País. Isso em parte é devido a vários fatores, e especialmente para os pequenos provedores pode custar caro chegar com a fibra ou rádio ao PTT mais próximo – lembrando que o serviço dos PTTs operados pelo NIC.br é gratuito, mas é preciso chegar neles.

Assim, a interconexão internacional é peça fundamental para otimizar a presença brasileira na Internet mundial. Hoje grande parte do tráfego internacional brasileiro com outros países passa pelos EUA. Não temos ainda conexões independentes de alta capacidade com as várias regiões do mundo que possam minimizar o uso dos EUA como “caixa de passagem” de nossas comunicações com o exterior.

Avançar nisso significa um amplo programa estratégico que envolva: necessidades de capacidade estimadas de curto a longo prazo de tráfego de dados para cada uma das regiões (Américas, África, Ásia, Europa); tempos e custos de projeto, provisionamento, lançamento de cabos submarinos e terrestres, construção de estruturas; investimento, financiamento, sustentabilidade; controle institucional/empresarial; otimização da interconexão.

Há vários projetos de cabos submarinos internacionais, alguns em andamento, outros em proposta – como o BRICSCable, uma proposta de investidores sul-africanos para interconectar diretamente os BRICs (Brasil, Rússia, China e África do Sul). Este projeto poderia ser uma das alternativas de interconexão com a África e Ásia, mas ainda não decolou. A Telebrás planeja cabos internacionais tanto para interconexão latino-americana como para alcançar África e Europa. A maioria desses projetos não estará pronta a curto prazo, e é essencial para minimizar nossa dependência de tráfego via EUA.

A construção e operação de enlaces internacionais envolve compartilhamento de custos operacionais e de custos de trânsito ou troca de dados. Em qualquer caso, terá que haver um acordo de segurança compartilhada entre os envolvidos para garantir que os cabos estejam imunes à bisbilhotagem por qualquer país. Não vejo como isso pode inspirar confiança, à luz da bisbilhotagem maciça revelada por Snowden (que demonstrou que as operadoras de rede tem sido contratadas pela NSA para fornecer acesso a esta), sem uma supervisão pluralista efetiva por parte de todos os setores envolvidos.

Link - Sobre a obrigatoriedade da guarda de dados brasileiros em datacenters localizados no País, possibilidade que o novo Marco Civil permite que Executivo faça por meio de decreto. É viável discernir dado brasileiro de dado de fora? Há alternativas?

Aqui é preciso separar os tipos de dados, começando pelos registros de conexão e sessão (ou visita), os “logs”. Registros de acesso são normalmente feitos por fornecedores de conexão (os provedores de banda larga móvel e fixa). Como a conexão é paga e há um contrato entre usuário e provedor, esse registro é importante até para dirimir dúvidas na prestação adequada do serviço. Já os registros de sessão (o registro de sua visita a uma página, ou de uso de um aplicativo qualquer em uma rede) são usados por provedores de aplicações e de conteúdos para avaliar o interesse dos usuários pelo serviço. Esses registros não são obrigatórios, nem deveriam ser. Na maioria imensa dos casos, as páginas visitadas e os serviços utilizados são gratuitos e ninguém é obrigado a usá-los para estar na Internet. Serviços informativos ou interativos, gratuitos, muitas vezes até mantidos voluntariamente, como um blog, podem ser de escala tão pequena que a manutenção de registros (ou “logs”) pode inviabilizar economicamente o serviço.

E há um aspecto em comum aos dois tipos de registros. Em todas as propostas de legislação que temos visto no Congresso até agora para “regular” ou impor esses registros, não se inclui o requisito de confiabilidade da informação. Se um projeto de lei quer o registro por motivos legais, essa legalidade é posta em dúvida se o registro não for feito de acordo com padrões de confiabilidade reconhecidos ou certificados. Isso no entanto encareceria ainda mais a manutenção desses registros, especialmente no caso dos registros de sessão.

E aqui já entramos na seara confusa de que conteúdos devem ser armazenados fisicamente no país. Se você visita as páginas do New York Times (sediadas em um datacentro da Level 3, provavelmente em Seattle), o registro de sua visita estará em um servidor dos EUA. É impraticável e legalmente impossível exigir que esse registro fique em um servidor no Brasil. Já o registro de sua conexão com a Internet estará em algum servidor da operadora que fornece essa conexão – e é tecnicamente possível que esse registro esteja inclusive fora do país, mas é improvável.

Conclusão: os registros de sessão serão armazenados pela empresa que hospeda o serviço visitado, e até mesmo serviços nacionais de conteúdo e aplicações (como jornais, blogs, páginas de e-commerce, e-mail e outros) podem estar fisicamente em servidores no exterior. Isso em boa parte é devido a que os custos de sediamento são muito mais baratos nos EUA que aqui. E aqui chegamos aos conteúdos em si (e-mails, tweets, páginas de aplicações como portais, sistemas interativos como Twitter e Facebook, sistemas de busca como Google e Yahoo, etc.). A complexidade aumenta mais. A rede de redes é planetária e a localização de serviços é feita com base na melhor qualidade possível ao menor custo possível.

Para dados sob a responsabilidade direta do governo (exemplos: dados da Receita Federal, base de dados de DNA, dados dos DETRANs etc) é trivial e imprescindível que os dados sejam armazenados em servidores sob controle do governo. Para os demais, a menos que o governo resolva intervir diretamente nos serviços oferecidos na rede (e a maioria dos grandes serviços abertos ao público é gratuita para o usuário final e de natureza privada), o que seria uma catástrofe, a única maneira de estimular a construção e operação de datacentros no país é tornar essa atividade internacionalmente competitiva aqui dentro.

Link - Como fazer isso?

Parte do problema está na capacidade e qualidade de nossas conexões com o resto do mundo – nossas conexões saturadas com o exterior com custos respectivos muito elevados e com pouco ou nenhum controle nacional efetivo (lembremos que a sexta economia do planeta sequer tem um satélite de comunicações para chamar de seu). Outro elemento é o custo e disponibilidade de energia elétrica (alguns dos grandes datacentros dos EUA são instalados próximos a hidroelétricas para reduzir custos). São Paulo é relativamente bem conectada mas não tem mais energia elétrica disponível a curto prazo. É preciso descentralizar a conectividade e permitir assim a construção desses datacentros em outras cidades.

Então, esse movimento requer políticas públicas bem organizadas para criar essas condições, e obviamente não vai ter resultados a curto prazo. Além disso, essa política deve buscar atrair investimentos em datacentros para serviços internacionais, e não apenas para “guardar dados de brasileiros”.

Como fica o gigantesco volume de dados gerados originalmente por brasileiros e armazenados lá fora (em centros de pesquisa, em sediadores comerciais, em repositórios internacionais, em bases de dados de aplicativos etc etc)? Dou o exemplo da rede mundial de repositórios digitais da obra de Paulo Freire – a melhor delas está no OISE, da Universidade de Toronto, que inclui praticamente toda a obra de Paulo Freire e textos de outros pesquisadores nacionais. Terá a Universidade de Toronto que transferir esse conteúdo de brasileiros para o Brasil?

E em um serviço de rede social como o Twitter, em que as interações dos participantes são frequentemente multinacionais? Os tuites dos brasileiros terão que estar armazenados no Brasil? E os tuites acompanhados por esses brasileiros? E as respostas ou retuites? Em um serviço de email, as interações de mensagens com pessoas de fora do Brasil serão armazenadas onde? As pessoas de fora aceitarão essa imposição brasileira ou em vários serviços ficaremos isolados no país?

Para quem não conhece como funciona a rede, é muito simples alardear propostas. Mas foram essas perguntas feitas antes de definir-se uma política? Aqui, como no caso da insistência de conselheiros da Anatel de pedir à ICANN (que coordena o serviço de DNS mundial mas nada tem a ver com o tráfego de dados) um ponto de troca de tráfego no Brasil, revela-se um grande desconhecimento – agir sobre esses temas sem conhecê-los é uma grande irresponsabilidade.

Em resumo, não faz sentido incluir armazenagem de dados no Marco Civil; é plano de localização de serviços, não pertence a uma carta de princípios; não se pode obrigar ninguém a trazer datacentros para o Brasil ou, especialmente, transferir conteúdos sob sua responsabilidade, que muitas vezes afeta usuários de outros países, para o Brasil. O correto é estimular o desenvolvimento dessa infraestrutura no país, e para isso falta muito, como já vimos.

Link - Alterações no Marco Civil que reduzam os princípios de neutralidade de rede desconfigurariam o propósito da lei?

Lembremos que a exigência de violações ou limitações à neutralidade da rede são feitas pelas transnacionais de telecomunicações que detêm a quase totalidade da infraestrutura de redes no país – e isso significa que as decisões sobre políticas dessas empresas no país não são tomadas aqui, mas nas sedes dessas empresas.

O que essas empresas querem? Em primeiro lugar, querem poder limitar o tráfego de dados arbitrariamente e com isso ampliar a margem de lucro das redes existentes em detrimento do investimento em mais capacidade. Em segundo lugar, querem o direito de utilizar os registros de conexão para gerar perfis de usuários e vender serviços diversos a partir desses perfis. Isso é feito por serviços gratuitos de aplicações, como Google, Yahoo, Facebook etc etc. Mas esses serviços não são obrigatórios e não cobram pelo acesso – além disso, ao inscrever-se nesses serviços o usuário tacitamente aceita essas condições. Já a conexão com a Internet é obrigatória se você quiser estar na rede, e isso é pago. Você já pagou pelo serviço e ainda assim as transnacionais das telecomunicações querem ter o direito de violar sua privacidade com a mineração e revenda do seu perfil de uso da rede.

São esses dois aspectos centrais da neutralidade da rede que defendemos, e que estão sintetizados na proposta do Marco Civil apresentada ao Congresso. Essa visão é parte dos “10 Princípios para a Governança e Uso da Internet no Brasil”, aprovados por consenso em 2009 pelo CGI.br e sobre os quais foi construída a proposta do Marco Civil.

Link - Qual sua opinião sobre a desvinculação de casos de infração a direitos autorais do Marco Civil?

Temos que responder à pergunta: quem é imputável? Quem coloca um conteúdo na rede (seja seu ou de outrém, com ou sem autorização) é responsável por esse ato, não o sediador ou o transportador dessa informação. Do mesmo modo que não podemos responsabilizar a concessionária da Via Dutra pela passagem de um veículo carregado com drogas ilegais, não podemos responsabilizar a rede pelo conteúdo que nela trafega. Da mesma maneira que um hotel não pode ser responsabilizado pelos crimes de um hóspede com problemas na justiça, não podemos tornar automaticamente responsável o sediador de um conteúdo inconveniente ou ilegal.

Podemos e devemos permitir os procedimentos legais devidos para eventual remoção de conteúdo. Mas o texto permitia que uma pessoa física ou jurídica alegue violação de direito autoral e exija a retirada com uma simples interpelação extrajudicial. E isso é inaceitável porque, além de responsabilizar as vias de transporte ou os hospedeiros, praticamente impõe a estes inconstitucional poder de polícia – além de o ônus da prova desse direito recair sobre a rede ou o hospedeiro, o que pode resultar em custos legais inalcançáveis para a maioria dos serviços.

-------------

(*) http://blogs.estadao.com.br/link/marco-civil-ha-desconhecimento-sobre-a-rede

REDES SOCIAIS

 

O conteúdo original deste site está sob uma licença Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0). Os conteúdos de terceiros, atribuídos a outras fontes, seguem as licenças dos sites originais, informados nas publicações específicas.