Georreferência apoia gestão de cidades

Informações geográficas associadas a bancos de dados subsidiam gestores públicos na tomada de decisões para gerenciamento de imóveis, obras e serviços
Obras em Minas Gerais fiscalizadas por informações georreferenciadas do GeoObras
Órgãos públicos das esferas municipal, estadual e federal têm começado a fazer uso de informações georreferenciadas. O motor por trás dessa movimentação é o avanço das tecnologias envolvidas, com destaque para as técnicas de mapeamento e os sistemas capazes de lidar com a explosão de dados (big data), um fenômeno que caracteriza a atual era da informação.

Comportando inúmeras definições, o georreferenciamento pode ser entendido como técnica que atribui a um determinado mapa ou planta um sistema de coordenadas, que é ligado a um referencial. “Isso possibilita a extração de posições e medidas dos elementos existentes nas plantas e mapas”, diz o especialista Luis Antonio de Lima, que faz mestrado em georreferenciamento direto de imagens aéreas e comanda a diretoria técnica da Fototerra.

O conceito também pode ser definido como uma área do conhecimento que, por meio de grande número de tecnologias, fornece coordenada que aponta, no globo terrestre, localização, pontos de referência e elementos próximos, entre outras informações.

O coração do georreferenciamento é a tecnologia Global Navigation Satellite Systems – GPS ou GNSS. De acordo com Lima, hoje não se pode falar em georreferenciamento sem a utilização desses sistemas GNSS, que são classificados como de navegação em terra ou mar e geodésicos.

Os GNSS de navegação têm, em geral, baixa precisão de posicionamento e baixo custo. Já os geodésicos são mais dispendiosos, atingem precisões na casa do centímetro e podem valer-se de outras tecnologias, como aparelhos que medem distâncias e ângulos, possibilitando a criação de sistema de referência dos elementos levantados.

O geoprocessamento abrange diversas tecnologias de análise, coleta, armazenamento e processamento de dados geográficos. Entre essas tecnologias, destacam-se sensoriamento remoto, digitalização de dados, automação de tarefas cartográficas, Sistemas de Posicionamento Global (GPS) e Sistemas de Informação Geográfica (SIGs).

Especialistas, entre eles Lima, acreditam que, com as tecnologias já desenvolvidas e disponíveis, os maiores desafios em projetos da natureza são os seus custos de aquisição e a escassez de capital humano qualificado. O cálculo do custo dos projetos é difícil porque leva em conta fatores múltiplos, como grau de precisão, nível de detalhamento e tamanho do projeto, mas em um ponto a opinião dos entrevistados converge: são projetos caros.

Benefícios para a gestão pública
No setor público, os exemplos de benefícios trazidos pelo georreferenciamento tecnológico são incontáveis. A começar pela sofisticação do cadastro técnico multifinalitário, utilizado por prefeituras para gerenciar imóveis existentes e futuras implantações imobiliárias. Na evolução dessa ferramenta, todas as informações oriundas de mapas ou cartas analógicas passaram a ser manipuladas por SIGs, cujas informações são georreferenciadas e ligadas a um banco de dados.

Isso significa, conforme explica Lima, que os elementos que compõem a estrutura de uma cidade, seja em sua parte urbana, seja em sua parte rural, hoje estão registrados por meio de sistema que contém uma componente geométrica (como um desenho de um lote ou quadra) e outra componente alfanumérica (nome do proprietário e área do lote, por exemplo).

Outros exemplos de aplicações de SIG cobrem as mais diversas áreas de atuação pública, com maior ou menor complexidade, dependendo do escopo e tamanho do investimento. Destacam-se a definição de imóveis que não cumprem sua função social, identificação de locais que possuem alto índice de imóveis subutilizados, cruzamento de dados espaciais com dados socioeconômicos para orientação de políticas públicas, definição dos melhores locais para a implantação de equipamentos urbanos e comunitários (postos de saúde, creches, hospitais, escolas, aterros sanitários, aeroportos, pontes etc.) e dados para análise ambiental, possibilitando o controle de áreas desmatadas, entre várias outras.

A escolha da técnica de georreferenciamento está relacionada com o nível de precisão buscado no projeto. Por exemplo, o cadastro urbano – em que são computados valores de impostos com base no tamanho do lote, na área construída e nas benfeitorias locais – não admite erros de precisão acima do metro, sob pena de gerar prejuízo financeiro tanto para o proprietário, quanto para o órgão arrecadador. Já um sistema em tempo real de controle de transporte público pode comportar uma maior margem de erro, segundo Lima.

Uma das técnicas mais utilizadas nesses projetos é o aerolevantamento, que consiste na execução de voo com câmera aérea fotogramétrica. As imagens são posteriormente georreferenciadas por meio de GNSS, gerando as cartas e os mapas georreferenciados. O uso de SIGs para ligar as informações gráficas a informações alfanuméricas contidas em bancos de dados específicos permite a criação de mapas temáticos, que são utilizados para a tomada de decisão de setores públicos específicos.

Informações georreferenciadas da cidade de Porto Alegre permitem geração de mapas com informações específicas por região, como domicílios com esgotamento sanitário adequado e números de estabelecimentos de saúde Porto Alegre
Um caso de uso adiantado do geoprocessamento em prol do município é o de Porto Alegre. A atividade ganhou impulso na capital gaúcha a partir de 2005, na esteira dos investimentos da prefeitura em infraestrutura de rede e capacidade computacional.

Éberli Riella, gerente de tecnologia e serviços da Procempa, empresa de TI da cidade de Porto Alegre, informa que todo o espaço geográfico da cidade já está espacializado e com todos os seus elementos aptos a serem geridos. “Fizemos um voo aéreo fotogramétrico e as imagens foram acopladas aos mapas das diversas regiões, de forma que qualquer elemento novo, seja casa, obra ou rua pode ser facilmente identificado pelo gestor”, diz ele, acrescentando que, “atualmente, todas as áreas da administração municipal alimentam o banco de dados e se alimentam dele, gerando mapas temáticos customizáveis, acessíveis por meio de portal nos moldes do Google Maps”.

Riella diz que a infraestrutura que permite as aplicações avançadas de georreferenciamento no dia a dia da administração municipal inclui datacenter próprio, que centraliza servidores e bancos de Oracle e armazenam grande volume de informações. Ali, elas são processadas e distribuídas para os cerca de 400 prédios públicos da cidade, interligados por 800 km de fibras ópticas e tecnologia sem fio. O órgão mantém uma equipe de dez especialistas dedicados ao georreferenciamento, além de dezenas de outros profissionais que alimentam o banco de dados a partir dos sistemas integrados dos órgãos e das secretarias.

O arsenal tecnológico da Procempa na área de georreferenciamento inclui mix de softwares proprietários e de código aberto. “Criamos uma área específica para supervisão de geomática, para incorporar ao datacenter todas as tecnologias de cartografia, devolvendo aos usuários dados em forma de relatórios especializados e mapas temáticos”, diz o gestor. Ele assegura que qualquer gestor público com qualificação mediana pode acessar um mapa temático e ter facilitadas suas tomadas de decisão.

Para ilustrar as facilidades trazidas pela tecnologia, o executivo informa que hoje um funcionário da Prefeitura de Porto Alegre encarregado de abrir um cano de água enterrado sabe exatamente sua localização e profundidade. “Porque o departamento responsável pela captação e distribuição de água está com suas atividades 100% geoprocessadas, o que significa que o sistema enxerga toda a canalização subterrânea com base em sua posição geoespacial”, diz.

Riella não precisa o valor que a Prefeitura de Porto Alegre já despendeu para atingir o estágio atual em termos de georreferenciamento, mas adianta que se trata de investimento grande e complexo. “Nem sempre é compatível com o orçamento e com a capacitação dos recursos humanos de pequenos municípios”, diz.

Uma alternativa para orçamentos menores, em sua avaliação, seria a formação de consórcios entre municípios pequenos para montar e compartilhar datacenter e serviços. “Outra tendência é contratar serviços por meio da computação em nuvem, em lugar de gastar com pessoal capacitado e infraestrutura”, diz o executivo.

GeoObras
Um exemplo de compartilhamento de recursos de georreferenciamento que beneficia municípios de qualquer porte é o GeoObras, um SIG que permite controle externo de obras e serviços de engenharia executados por Estados e municípios. O instrumento foi criado pelo Tribunal de Contas do Mato Grosso (TCE-MT), mas já está sendo utilizado por diversos Estados, como Minas Gerais, Espírito Santo, Goiás e Rio de Janeiro.

A ferramenta do TCE-MT permite inserção, em banco de dados, de fotografias convencionais georreferenciadas, imagens de satélite e dados físico-financeiros oriundos de documentos de licitação, contratação e execução da obra, entre outros. Quem alimenta o sistema são os próprios órgãos municipais e estaduais (jurisdicionados) responsáveis pelas obras. Por meio de um módulo de acesso específico, eles enviam pela internet informações e documentos relacionados com todas as etapas das obras e dos serviços de engenharia.

Os dados requeridos pelo GeoObras incluem descrição e localização de pontos georreferenciados (definidos por coordenadas geográficas). Em obras grandes e lineares ou que ocupem grandes áreas, como, por exemplo, linhas de transmissão, redes de abastecimento, rodovias, barragens e campos de irrigação, o usuário insere pontos que permitam definir o contorno ou o caminhamento da obra e também pontos de interesse, como início de trechos, estacas, locação de unidades ou equipamentos especiais, áreas diferenciadas, pontos críticos etc.

No TCE-MG, onde o GeoObras está em fase de implementação, o coordenador do setor de fiscalização de obras e serviços de engenharia do órgão, Luiz Henrique Starling, destaca como diferencial do sistema o fato de que, embora tenha função principal de facilitar as auditorias do TCE, ele também incrementa a gestão das secretarias municipais, não importa o tamanho da cidade, uma vez que os jurisdicionados do TCE (todos os órgãos municipais e estaduais sob jurisdição do Tribunal) têm módulo próprio para acesso via web (assim como todos os órgãos públicos de controle que são parceiros do TCE e os cidadãos).

“A população tem acesso às obras e pode, inclusive, fazer comentários e enviar imagens e denúncias caso identifique no sistema informações que não batem com a obra que ele vigia em seu município”, diz o especialista.

A implementação do GeoObras conta com a parceria com o Instituto de Geociências Aplicadas (IGA) e o Governo Estadual ajuda a alimentar o banco de dados com aquisição de imagens via satélite e fotos tiradas por fiscais nos canteiros de obras.

Em Minas Gerais, o GeoObras ainda está em fase de teste em 66 municípios e duas empresas estatais, mas Starling já vislumbra todo o seu potencial. “Numa obra de infraestrutura em uma estrada, é possível, dependendo da resolução de imagens, fazer medidas e inferências, comparar detalhes com informações prestadas pelo jurisdicionado ou mesmo confirmar se uma obra remota de fato existe”, ilustra.

A expectativa dos idealizadores do GeoObras é que o aprimoramento constante do sistema permita atualizações em um ritmo tal que o acompanhamento detalhado das obras ocorra em tempo real. A tecnologia já oferece capacidade para tanto, eles dizem, mas o avanço depende de investimentos.

Secretarias de obras
No site do TCE, é possível encontrar imagens (fotos e satélite) de obras em andamento. Basta indicar o município e o órgão responsável, e escolher em imagens para localização. No detalhe, foto satélite da ampliação e reforma do terminal de passageiros do Aeroporto municipal de Sinop, no Mato GrossoNa percepção do gerente de marketing e produto do Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD), Carlos Alberto Previdelli, o georreferenciamento no setor público ainda se restringe a áreas específicas e carece de integração de sistemas e de informações. Mas ele enxerga a forte expansão da tecnologia no setor, sobretudo o seu uso associado com fotos de satélite para acompanhamento de grandes obras, como usinas e estádios. “Todo o rodoanel de São Paulo foi acompanhado por tecnologia geoespacial”, lembra o executivo do CPqD, empresa que tem o seu sistema modular GeoMunicipal implantado em cidades como as paulistas Campinas e Osasco, entre outras.

Segundo Previdelli, por meio de módulo específico para secretarias de obras, a inserção de informações e imagens de satélite de tempos em tempos permite acompanhamento macro da obra. “O software não se destina a acompanhamento passo a passo da engenharia, mas oferece cronograma para acompanhamento macro da obra, com informações visíveis a todas as demais áreas”, explica.

O executivo admite que montar um sistema integrado é um desafio complexo, porque requer conhecimento de toda a logística de uma prefeitura, além de leis, normas etc. “Não são projetos que envolvem apenas software, mas também digitalização e reaproveitamento de dados, montagem de processos e integração com outros sistemas, entre vários outros esforços”, diz Previdelli.

Mapa detalhado de Campinas com dados vetoriais e imagem de satéliteDependendo do caso, ele salienta, é preciso fazer todo o trabalho de coleta de informações nas várias áreas, contratar parceiros e fazer novos voos sobre a cidade para levantar informações atualizadas e montar mapa de referência. “É um processo pesado”, diz o executivo, acrescentando que o custo final depende de muitas variáveis, entre as quais, o número de funcionários que usarão a solução.

No caso de prefeituras com menos recursos, ele acredita que o primeiro passo deve ser definir as áreas mais importantes e que precisam de retorno rápido. “O administrador pode estruturar e converter dados que já existem, complementando-os com informações que faltam, ou partir para técnicas de coleta de dados de imagem de satélite, caso queira atingir um nível de precisão maior”, diz.

Fonte: Infraestrutura Urbana.

Como fazer para que o posicionamento GPS coincida com os mapas dos navegadores?

Você já parou para pensar como os fabricantes testam os aparelhos de GPS? Será que os engenheiros vão para as ruas com seus protótipos para testar hardware e software? O Canaltech esteve no NetEvents Miami, onde pôde conhecer uma solução muito bacana criada pela empresa Spirent, que resolve o problema dos fabricantes que precisam testar os aparelhos de GPS que estão desenvolvendo.

Como saber se a Avenida Paulista, por exemplo, está corretamente posicionada no mapa do navegador, sem que os engenheiros tenham que se deslocar até São Paulo? E entender se a estradinha que leva até as Pirâmides do Egito vai coincidir exatamente com o mapa do navegador?

Quatro sistemas de navegação global
Para embasar nossa matéria, é importante ressaltar que atualmente existem quatro sistemas de navegação via satélite, cada um desenvolvido por entidades ou governos diferentes:
GPS/SBAS (Global Positioning System, ou Sistema de Posicionamento Global, em português): é de propriedade do Governo dos Estados Unidos e operado pelo Departamento de Defesa. Foi criado em 1973 e possui 24 satélites distribuídos pela órbita terrestre. A margem de erro dos receptores civis gira em torno de 10 a 15 metros, isso significa que você pode estar em um raio de até 15 metros da posição exibida pelo receptor.

GLONASS (Globalnaya Navigatsionnaya Sputnikovaya Sistema, ou Sistema de Navegação Global por Satélite, em português): teve seu projeto iniciado em 1976 pela União Soviética, mas a cobertura global só foi concluída em outubro de 2011. Sua principal vantagem, quando comparado aos demais, é de disponibilizar, sem custo, precisão máxima, fornecendo sua posição com margem de erro de 0,1 cm (um décimo de centímetro).

Galileo: é o nome do sistema de navegação por satélite criado pela União Européia. Será inaugurado em 2013 e promete diversas vantagens aos demais sistemas: maior precisão, pois contará com 30 satélites (3 deles ficarão de reserva para eventuais necessidades); maior segurança (o usuário poderá transmitir e confirmar pedidos de ajuda em caso de emergência); e confiabilidade (auto verificação em busca de erros de operação). Por ser um projeto civil, tende a ser adotado em larga escala pelo mundo, ultrapassando o sistema americano em número de usuários.

Compass ou Beidou: é o sistema global de posicionamento por satélite do governo chinês. Hoje conta com dez satélites, abrangendo apenas o continente asiático, mas o projeto prevê a implantação total de 35 satélites até o ano de 2020, quando passará a oferecer cobertura em todo o planeta.

Por quê tantas opções?
Você pode estar se perguntado qual a real necessidade de termos tantos sistemas de navegação via satélite, sendo que teoricamente só precisaríamos de um, o que facilitaria bastante a vida dos fabricantes de dispositivos, desenvolvedores de software e também de nós, usuários.

A resposta chave é até óbvia. Três dos sistemas de navegação via satélite foram desenvolvidos por governos com o intuito principal de criarem uma ferramenta militar. E atualmente, dois países proibem a utilização de receptores de GPS: Coreia do Norte e Síria.

Há poucos anos o governo dos EUA desativou seu sistema para uso civil, durante as operações militares no Iraque, o que prejudicou civis e limitou a atuação de militares iraquianos.

Quatro sistemas, como testar?
Imagine-se na pele de um desenvolvedor de hardware ou software de posicionamento global. Como testar seu sistema utilizando as quatro constelações de satélites, sendo que algumas delas ainda não estão disponíveis por completo ou têm funcionamento apenas regional?

Como saber se o motorista chegará corretamente até o Rio de Janeiro, com as estradas coincidindo com o mapa do navegador, sem que os engenheiros tenham que se deslocar até lá?

Pegar um voo até a Ásia para testar o sistema Compass, do governo chinês, ou aguardar o lançamento do sistema Galileo para testar suas aplicações, atrasaria – e complicaria – o lançamento de produtos no mercado. Assim que o sistema Galileo for lançado, as empresas vão querer, o quanto antes, ter seus produtos disponíveis para venda no mercado, aproveitando-se da exposição gerada pela notícia de utilidade pública, não?

A solução
Se você imaginou meia dúzia de engenheiros andando de carro pelas ruas da sua cidade, está enganado.

A empresa Spirent, dos EUA, líder em soluções para testes de stress em equipamentos de rede, como roteadores, switches e firewalls, desenvolveu uma linha de dispositivos capazes de emular todas as constelações de satélites disponíveis nos sistemas que citamos no início dessa matéria.

De dentros de seus laboratórios, os engenheiros das fabricantes de navegadores podem testar as antenas de GPS de seus novos protótipos, sejam eles smartphones, navegadores veiculares, tablets, etc.

Um simulador, chamado Multi-GNSS, emula, em laboratório, o ambiente sob o qual o receptor opera. O sistema cria uma plataforma dinâmica, modelando o movimento do veículo e dos satélites, sinais característicos, atmosféricos e outros efeitos, fazendo então com que o receptor possa navegar de acordo com os parâmetros do cenário de teste. O receptor processa esses sinais simulados da mesma maneira que processa aqueles recebidos dos satélites reais.

Traduzindo esse monte de dados técnicos, é como se você pudesse simular, com base nas informações dos satélites, que o local de testes fosse qualquer lugar da superfície terrestre. Aí, você poderia “viajar” para a China, por exemplo, sem ter que sair do lugar. E mais: como o ambiente de laboratório é isento de interferências externas, a precisão dos sinais é maior do que em outras situações.

Com o simulador de sinais do GPS, o custo de produção se torna mais baixo (afinal, não é necessário percorrer todo o globo terrestre checando informações) e, assim, o navegador consegue ser oferecido para você a um preço acessível.
Uma ótima solução, não?

Fonte: CanalTech.

Ferramentas ajudam a reduzir incertezas no campo

Em meio aos inúmeros imprevistos que rondam a atividade agrícola, informações proporcionadas por instrumentos de precisão, que incorporam elevado nível de tecnologia, contribuem para os bons resultados no campo. Tratores e colheitadeiras são cada vez mais equipados com sofisticados aparelhos desenvolvidos para indicar o posicionamento geográfico das áreas onde se realizam plantio de lavouras, tratos culturais, irrigação e colheita. As imagens captadas por satélite e transmitidas para os equipamentos de bordo orientam o manejo das culturas numa prática que se define como agricultura de precisão. O aprimoramento dos tratos culturais, orientado por uma infinidade de informações e tecnologias, contribuiu para que o Brasil elevasse o volume da produção de grãos em mais de cinco vezes em 40 anos. Nesse período, caíram os custos de produção e os preços reais ao consumidor, segundo os índices oficiais de produção e cotações de produtos agrícolas.

Agricultura de precisão, segundo a Embrapa, é tema abrangente que engloba dados obtidos por meio da tecnologia da informação (TI). Está voltada às inúmeras culturas e regiões onde a agricultura é explorada. O recurso começou a ser difundido a partir da década de 1990, quando avançaram os sistemas de posicionamento geográfico (Global Positioning System – GPS), permitindo melhor monitoramento das lavouras. O manejo integrado da produção passou a ser orientado por um conjunto de ferramentas desenvolvidas para a agricultura com a ajuda de sistemas como Global Navigation Satellite System (GNSS) e Sistema de Informações Geográficas (SIG).

Sofisticados computadores de bordo reúnem dados indicativos da produtividade das lavouras, com base nas condições do solo e das plantas. Estas informações, reunidas, permitem aplicar os insumos na medida certa, sem maiores desperdícios nem maiores impactos ao meio ambiente.

A repercussão do livro “Agricultura de Precisão – Um novo Olhar”, lançado em abril pelaEmbrapa, com tiragem de apenas mil exemplares, mas com livre acesso pela internet, serviu para mostrar o elevado interesse pelo tema. Em pouco mais de um mês foram mais de dez mil acessos por parte de agricultores e técnicos.

Na esperança de ampliar esse espectro tecnológico, a Embrapa criou o projeto Rede de Agricultura de Precisão, que reúne mais de 200 especialistas de diversos centros de pesquisa, com o objetivo de aprimorar os critérios validados cientificamente para melhorar a qualidade da agricultura de precisão. Está também sendo instalado em São Carlos (SP) o Laboratório de Referência Nacional em Agricultura de Precisão (Lanapre), cuja função é integrar a agricultura de precisão em suas várias dimensões, além de desenvolver padrões, realizar testes, validações e certificações de sistemas. O custo previsto de implantação do laboratório é de R$ 1,7 milhão e deverá estar pronto em meados de setembro.

A principal tarefa dos pesquisadores da Embrapa é difundir a informação de que agricultura de precisão não é bicho de sete cabeças. O coordenador de pesquisa da unidade de São Carlos, Ricar-do Inamasu, diz que pequenos e médios agricultores, responsáveis por mais de 70% das atividades no campo, devem aderir a essa ideia para elevar a produtividade em seus sítios e fazendas. “Não é preciso de investimento elevado. Basta um notebook ou um tablet na mão para ter acesso a uma infinidade de informações sobre as lavouras”, diz. Para ele, a agricultura de precisão serve para orientar os produtores rurais a tratar as diferenças. Até mesmo numa pequena propriedade há diferentes tipos de solo e as informações podem informar a medida certa para a aplicação de insumos para elevar a produção A Embrapa Instrumentação Agropecuária de São Carlos foi responsável por desenvolver um instrumento portátil, de fácil utilização, Wiltmetero, que permite medir a umidade das folhas, informação útil, especialmente para os produ-tores que recorrem à irrigação.

Quando se pergunta a um agricultor o que é agricultura de precisão, não é raro ele responder que é uma espécie de piloto automático que se instala nos tratores e nas colheitadeiras, porque esse sistema controla as atividades da fazenda, desde o plantio até a colheita da produção. Mas, para o especialista em redes RTK da John Deere, Diogo Haacke, não é tão simples. Ele diz que, no caso dos instrumentos de bordo, o sistema exige gerenciamento por parte dos operadores das máquinas agrícolas, o que demanda bom nível de conhecimento. “São muitas as informações geradas que precisam ser analisadas”, afirma Haacke. É com base nesses dados que será definido o volume de herbicida ou de adubo a ser aplicado na lavoura.

Os sinais emitidos por satélite nem sempre são precisos. Diversos fatores, como a atmosfera, provocam distorções que podem chegar a dez metros no posicionamento geográfico das áreas. Para a correção dos sinais de satélite, a fabricante de tratores e colheitadeiras John Deere, com apoio de suas concessionárias, instala as redes RTK na correção dos sinais. São torres de transmissão, semelhantes às utilizadas pelas operadoras de telefonia celular, cujos sinais são captados pelos equipa-mentos de bordo dos tratores. Em Araçatuba (SP), o concessionário da montadora de máquinas D. Carvalho instalou uma rede de torres do sistema RU da John Deere Network, com abrangência de 19 quilômetros de raio para atender a uma área de 110 mil hectares. Significa que agricultores, cujas lavouras se encontram nessa área, poderão ter acesso aos sinais de correção com mais facilidade, sem precisar fazer investimentos próprios em torres nas suas propriedades, além da garantia de uma rede montada sob a orientação direta da fábrica. Para os revende-dores de máquinas, é um excelente instrumento de marketing.

Fonte: IICA.

Ataques a GPS podem causar desastres marítimos e caos em negócio

Sistemas de navegação por satélite estão ameaçados por criminosos, terroristas e até mesmo adolescentes entediados, com o potencial de causar grandes incidentes que vão de desastres marítimos a caos em mercados financeiros, disseram especialistas nesta quarta-feira.

Dos mapas em painéis de carros e celulares a pedágios, aviação e sistemas de navegação marítima e até negociações financeiras, uma boa parte da vida moderna depende de Sistemas de Navegação Global por Satélite (GNSS, na sigla em inglês) que fazem uso de sinais de satélite para encontrar uma localização ou marcar o tempo de maneira precisa.

O conhecido Sistema de Posicionamento Global (GPS, na sigla em inglês) montado pelo governo dos Estados Unidos, e o GLONASS, um sistema russo semelhante, foram ambos construídos para fins militares mas agora estão disponíveis a qualquer um com um aparelho capaz de receber seu sinal. A União Europeia, a China e a Índia estão montando sistemas semelhantes.

Especialistas se preocupam com os danos que poderiam ser causados por interferências ilegais em sinais de GNSS, disse Bob Cockshott, um diretor na empresa britânica ICT Knowledge Transfer Network -uma iniciativa financiada pela empresa de inovação nacional do Reino Unido- que realizará uma conferência em Londres na quarta-feira.

O problema foi demonstrado em 2009 quando sistemas de navegação do aeroporto de Newark nos Estados Unidos começaram a sofrer panes diárias causadas por um motorista de caminhão com um aparelho barato de interferência em seu veículo que transitava por uma estrada nos arredores do aeroporto.

“Nós saímos de uma situação que poderia ser, potencialmente, uma ameaça, para um problema real com o qual devemos lidar agora”, disse Cockshott.

A posse de softwares de interferência, que estão amplamente disponíveis na internet, não é ilegal, mas seu uso é.

Fonte: Yahoo! Notícias.

Tempo mundial pode mudar em 2012

Uma nova forma de marcar o tempo? Esta armadilha de átomos de estrôncio, parte principal de um relógio atômico, poderá mudar a forma como o mundo mede o tempo.[Imagem: NPL]Segundo bissexto
O tempo, tal como o conhecemos hoje, poderá não ser exatamente o mesmo tempo nos séculos que virão.

Tanto que os cientistas da área estão usando todo o seu tempo durante as festas de fim de ano para discutir uma nova definição da escala de tempo do mundo: o chamado Tempo Universal Coordenado (UTC).

E a principal questão em debate é o segundo bissexto – mais especificamente, a abolição do segundo bissexto.

Tempo tecnológico
Enquanto todo o mundo presta atenção aos anos bissextos, poucos sabem que uma “ajeitada” muito mais frequente no tempo, mas muito mais irregular, é feita constantemente.

Uma mudança que é essencial para manter o bom funcionamento dos sistemas de GPS, das telecomunicações, e até dos arquivos que você transfere pela internet.

O segundo bissexto surgiu no início da atual era tecnológica, em 1972. Ele é adicionado para manter a escala de tempo medida pelos relógios atômicos em fase com a escala de tempo baseada na rotação da Terra.

A razão para isto é que, enquanto os relógios atômicos, que usam as vibrações dos átomos para contar os segundos, são incrivelmente precisos, a Terra não é um cronometrista tão confiável quanto se acreditava – isto graças a uma ligeira oscilação que ela sofre conforme gira sobre seu próprio eixo:

“Desde a década de 1920 já se sabe que o movimento da Terra não é tão constante como tínhamos pensado inicialmente,” explica Rory McEvoy, curador de “horologia” do observatório de Greenwich, no Reino Unido.

Essa variação natural da Terra significa que as horas medidas pelos relógios atômicos e as horas baseadas na rotação da Terra ficam cada vez mais defasadas conforme o tempo passa.

Assim, a cada poucos anos, antes que essa diferença cresça mais do que 0,9 segundo, um segundo extra – o chamado segundo bissexto – é adicionado ao tempo oficial, para colocar novamente os dois em sincronia.

“O Serviço Internacional de Rotação da Terra monitora a atividade da Terra, e eles decidem quando é apropriado adicionar um segundo bissexto em nossa escala de tempo,” explica McEvoy.

Guerra do segundo
Um dos maiores problemas é que, ao contrário dos anos bissextos, os segundos bissextos não são previsíveis. Eles são erráticos, porque as oscilações da Terra – o chamado balanço de Chandler – não é regular.

Mas a tentativa de se livrar do segundo bissexto está causando um racha dentro da comunidade internacional que estuda o tempo, o que deverá ser decidido pelo voto, durante a Conferência Mundial de Radiocomunicações, da União Internacional das Telecomunicações (UIT), em janeiro de 2012, em Genebra.

Uma pesquisa informal feita pela UIT no início deste ano revelou que três países – Reino Unido, China e Canadá – são fortemente contra a alteração do sistema atual.

No entanto, 13 países, incluindo os Estados Unidos, França, Itália e Alemanha, querem uma nova escala de tempo que não tenha segundos bissextos.

Mas, com quase 200 países membros, a grande maioria deles ainda terá que revelar o que realmente pensa sobre o tempo.

O Bureau Internacional de Pesos e Medidas (BIPM), em Paris, é a organização internacional de padronização que é responsável por manter o tempo do mundo.

A organização acredita que o segundo bissexto deve acabar porque esses ajustes estão se tornando cada vez mais problemáticos para sistemas que precisam de uma referência estável e contínua de tempo.

“Ele está afetando as telecomunicações, é problemático para a transferência de dados pela internet (como o Network Time Protocol, ou NTP), bem como dos serviços financeiros,” diz o Dr. Arias Felicitas, diretor do BIPM.

“Outra aplicação que está sendo realmente muito, muito afetada pelo segundo bissexto, é a sincronização de tempo nos Sistemas Globais de Navegação por Satélite (GNSS). Os GNSS exigem uma sincronização de tempo perfeita – e segundos bissextos são um incômodo,” completa Felicitas.

Tempos divergentes
Mas desacoplar o tempo civil da rotação da Terra também pode ter consequências a longo prazo.

“[Se você eliminar os segundos bissextos] o UTC irá se afastar continuamente do tempo baseado na rotação da Terra, fazendo-os gradualmente divergirem por uma quantidade crescente de tempo. Algo terá que ser feito para corrigir essa divergência cada vez maior,” explica Peter Whibberley, cientista do Laboratório Nacional de Física do Reino Unido.

Em algumas décadas, isso equivaleria a um minuto de diferença. E, ao longo de centenas de anos, isso significaria uma diferença de uma hora entre o tempo dos relógios atômicos e a escala de tempo baseada na rotação da Terra.

Em 2004, foi proposta a ideia da troca dos segundos bissextos por um salto de uma hora, a ser feita uma vez a cada alguns poucos séculos.

Uma possível solução, se o segundo bissexto for abolido, seria atrelar essa “hora bissexta” às mudanças no horário de verão.

“Os países poderiam simplesmente acomodar a divergência não adiantando os seus relógios na primavera, apenas uma vez a cada poucos séculos, assim você altera o fuso horário em uma hora para trazer de volta tempo civil em conformidade com a rotação da Terra,” propõe o Dr. Whibberley.

Fonte: Inovação Tecnológica.

Unesp – Universidade é indicada em premiação de geotecnologia

A Faculdade de Ciências e Tecnologia (FCT) foi uma das mais votadas como instituição de ensino e pesquisa de maior destaque, e o professor João Francisco Galera Monico, livre docente dessa mesma unidade em Presidente Prudente, indicado como personalidade da década no setor pelo MundoGEO#Connect. O trabalho de Monico em geociências tem ênfase em geodésia, sobretudo em geodésia celeste, GNSS para geodésia e atmosfera, ajustamento de observações e controle de qualidade em geodésia e cartografia.

Em janeiro e fevereiro, a sua comunidade virtual participou da primeira fase e indicou os finalistas do prêmio. De março a maio foi realizada a etapa final. Mais de duas mil pessoas votaram para escolher quem deveria receber a homenagem.

Interativo
O MundoGEO#Connect reúne empresas, instituições e profissionais de geomática que estão em contato direto com as últimas tendências da indústria geoespacial. Além de uma programação técnica com seminários, minicursos, workshops e encontros de usuários, o evento abriga uma feira com mais de trinta empresas especializadas em geotecnologia. A iniciativa prioriza a interatividade e reúne especialistas em uma grade com diversos seminários, cursos e atividades paralelas com assuntos sugeridos pelos internautas.

O encontro é organizado pelo grupo MundoGEO, com apoio do Instituto Brasileiro de Geografia e Estatística (IBGE), da Empresa Brasileira de Pesquisa Agropecuária (Embrapa)/ Monitoramento por Satélite, Prefeitura de São Paulo e a Emplasa (Empresa Paulista de Planejanemento Metropolitano), do Governo do Estado de São Paulo.

O Grupo MundoGEO produz desde 1998 conteúdo para mídias impressas e on-line, feiras, seminários, cursos e webinars (webconferências) na área de geoinformação. Publica duas importantes revistas voltadas para o setor: InfoGEO, sobre imagens de satélite e Sistemas de Informação Geográfica (GIS), e InfoGNSS, com foco em agrimensura e cartografia. Nesta área a empresa conta com o Portal MundoGEO, com conteúdo diário em português, espanhol e inglês, líder em visitantes na América Latina, Portugal e Espanha.

Em parceria de conteúdo com o UOL, atua na área de geomobilidade com o Portal InfoGPS que, juntamente com o Portal MundoGEO, tem mais de 50 mil profissionais cadastrados e mais de 5 mil seguidores nas redes sociais. Na área de sustentabilidade, mantém o Portal Atitude Sustentável, também em parceria com o UOL.

Conheça os três mais votados em cada categoria do Prêmio MundoGEO#Connect:

Personalidade da Década no Setor de Geotecnologia
Gilberto Câmara, Diretor do Instituto Nacional de Pesquisas Espaciais (Inpe)
João Francisco Galera Monico, professor livre docente da Universidade Estadual Paulista Júlio de Mesquita Filho (Unesp)
Luiz Paulo Souto Fortes, diretor de geociências no Instituto Brasileiro de Geografia e Estatística (IBGE)

Instituição de Ensino e/ou Pesquisa de Maior Destaque
Faculdade de Ciência e Tecnologia (FCT-Unesp)
Instituto Nacional de Pesquisas Espaciais (Inpe)
Universidade Federal do Rio de Janeiro (UFRJ)

Lista de Discussão Mais Ativa
Abec-SP | http://br.dir.groups.yahoo.com/group/ABEC-SP
ArcGIS-Brasil | http://br.groups.yahoo.com/group/ArcGIS-Brasil
Listageografia | http://br.groups.yahoo.com/group/listageografia

Melhor Blog de Geotecnologia
Geoinformação Online | http://geoinformacaonline.com
Geo.Net | http://blog.geoprocessamento.net
Sadeck Geotecnologias | http://geotecnologias.wordpress.com

Empresa de Geotecnologia com Maior Presença Online
Engemap www.engemap.com.br | @engemap
Imagem www.img.com.br | @imagem_oficial
Santiago & Cintra www.santiagoecintra.com.br | @santiagoecintra

Profissional de Marketing de Maior Destaque
Fernando Schmiegelow, diretor de marketing para América Latina & Caribe na Sisgraph
Lúcio Muratori de Alencastro Graça, diretor de marketing na Imagem
Luiz Henrique Amoedo, gerente de marketing das empresas Santiago & Cintra Geo-tecnologias, Santiago & Cintra Consultoria e Geo Agri

Fonte: Planeta Universitário.

Controle de Tráfego – projeto CoVel

(*) Edésio Elias Lopes

O crescimento desordenado da frota de automóveis é um problema mundial e seu resultado converge em enormes congestionamentos. Ao passo que a capacidade da infraestrutura nas estradas só pode ser aumentada lentamente, uma gestão de tráfego eficiente se faz necessária para atenuar os impactos negativos do tráfego rodoviário.

Pensando em gestão de tráfego eficiente a União Europeia lançou em janeiro de 2010 o projeto CoVel (Cooperative Vehicle Localization for Efficient Urban Mobility) ou Cooperativa de Localização do Veículo para a Mobilidade Urbana Eficiente. Este projeto visa à criação de um sistema de monitoramento que amenize os engarrafamentos e outros distúrbios cotidianos, principalmente em área urbanas.

Para isto, o projeto CoVel objetiva desenvolver e comercializar o Lane Navigation Assistant (LNA) ou Assistente de Navegação entre Pistas, um dispositivo no veículo que permitirá analisar a intensidade de tráfego na pista, orientando o condutor especialmente em áreas urbanas.
O LNA indica qual pista o motorista deve se direcionar
O LNA usará o sistema GNSS (Sistema de Posicionamento Global por Satélite), para obter o posicionamento do veículo e cruzar com informações de tráfego urbano no mapa. Além disto, o posicionamento por satélite será reforçado por meio de algoritmos inovadores na localização e harmonização do veículo no mapa.
Mapa no sistema CoVel reajustando coordenada obtida pelo sistema GNSS
Com o posicionamento do veículo e informações de acidentes ou lentidão no tráfego urbano, o sistema LNA poderá alertar o motorista e reordenar a rota do mesmo, amenizando assim o tráfego rodoviário (figura abaixo).
Sistema CoVel – antes de chegar no acidentes o motorista é avisado e muda de faixa
O Sistema CoVel é um exemplo de tecnologia capaz de amenizar problemas de infraestrutura, proporcionando maior conforto aos motoristas e fluidez nos tráfegos das cidades.

Referência
Site acessado em 03/06/2011
http://www.covel-project.eu

(*) Edésio Elias Lopes atua no Laboratório de Transporte e Logística do departamento de engenharia civil na Universidade Federal de Santa Catarina, mais especificamente na área de mapeamento e gerenciamento de bases de dados geográficos. Foi professor – 3º grau no setor de Geodésia do mesmo departamento e trabalhou no Laboratório de Fotogrametria e Sensoriamento Remoto em projetos de auxílio à execução de planos diretores municipais. O colunista é doutorando do programa da engenharia civil na Universidade Federal de Santa Catarina na área de Infraestrutura Viária, onde também obteve o título de Mestre em Engenharia. Sua graduação em Engenharia de Agrimensura foi cursada na Universidade Federal de Viçosa.
edesio@labtrans.ufsc.br


Fonte: Portogente.

Brasil quer ser o responsável oficial pelo monitoramento dos deslocamentos de terra no continente

O Instituto Brasileiro de Geografia e Estatística (IBGE) divulgou no dia 28 o primeiro Monitoramento da Variação das Coordenadas de Estações da Rede Sirgas (Sistema de Referência Geocêntrico para as Américas). O documento revela todos os deslocamentos de terra identificados entre 2003 e 2010 na América Latina e no Caribe, como movimentos de placas tectônicas, rebaixamentos e elevações de solo. Os dados foram coletados nas 130 estações que integram a Rede Sirgas, monitoradas experimentalmente pelo Brasil.

O relatório pode ser o passo decisivo para a formalização do país como centro oficial de combinação de dados sobre variações de coordenadas. O Brasil passaria a ser o responsável pelo monitoramento e pela consolidação de informações sobre alterações de solos no Continentes Americanos já a partir de agosto. Atualmente, apenas a Alemanha processa oficialmente essas informações.

As estações, que utilizam Sistemas de Navegação Global por Satélites (GNSS, na sigla em inglês), similar à tecnologia norte-americana do Sistema de Posicionamento Global (GPS, na sigla em inglês), fornecem com precisão latitudes e longitudes de pontos específicos do planeta, além da avaliação dos movimentos de placas tectônicas, que podem causar, ao longo dos anos, deslocamentos das regiões monitoradas. Com esses dados é possível definir de forma atualizada, por exemplo, a localização precisa de fronteiras e garantir mais segurança ao planejamento de obras de infraestrutura que envolvem mais de um país.

Cristina Lobianco, coordenadora de Geodésia do IBGE, explica que a precisão das coordenadas aliada ao monitoramento dos diversos pontos cobertos pelas estações permitem cálculos mais exatos no planejamento da construção de uma rodovia internacional ou de um gasoduto binacional, como o Gasoduto Brasil-Bolívia, por exemplo. “A gente podia começar a construir um gasoduto no Brasil e não encontrar o [trecho] da Bolívia por causa de um deslocamento [de terra] de centímetros”.

As estações que funcionam como GPS têm como referência comum o centro da terra. O Brasil aderiu ao GNSS em 2005, seguido por outros países do continente. Até essa adesão, cada país tinha como referência seu próprio sistema de coordenadas. “A origem era diferente, a escala era diferente, então, quando você fazia qualquer cálculo em cima de duas coordenadas, dava resultados diferentes”, lembrou a técnica ao explicar os riscos dessa falta de homogeneidade dos sistemas.

Com o Sirgas foi possível, por exemplo, identificar um deslocamento de 8 centímetros no Chile, depois do terremoto que atingiu o país no ano passado. Além desse mapeamento, o sistema ainda pode funcionar como alerta sobre possíveis desastres. “Todas as placas têm um movimento: ou estão se afastando ou se encontrando. Quando se encontram, há o perigo dos terremotos. A velocidade desse encontro, quantos milímetros ou centímetros ao ano, é que faz com que possamos ligar uma luz vermelha”, explicou a responsável pelo Departamento de Geodésia do IBGE.

Fonte: Agência Brasil.

Satélites correm riscos ‘ocultos’

Pesquisa divulgada pela Royal Academy of Engineering afirma que a sociedade industrializada tornou-se “perigosamente superdependente” da navegação por satélites e dos sinais de horários.

O informe pede ao governo e ao setor para avaliar suas vulnerabilidades – que podem não ser óbvias devido ao grande número de serviços interconectados que se tornaram dependentes de sistemas de navegação global por satélites (GNSS) – e para desenvolver sistemas realmente independentes de segurança.

O Departamento de Defesa dos Estados Unidos opera o maior GNSS operacional do mundo, o Sistema de Posicionamento Global (GPS), sendo que a Glonass, da Rússia, está perto de chegar ao seu desenvolvimento completo, e o Galileo, da Europa, está construção. Todos, no entanto, usam tecnologia similar e podem ser derrubados simultaneamente por interferências eletrônicas propositais ou por tempestades solares severas, segundo o órgão.

“GPS e outros GNSS são tão úteis e baratos de integrar em equipamentos do quais nos tornamos quase cegamente dependentes dos dados que nos dão”, disse Martyn Thomas, presidente do grupo de estudos do órgão. “Uma falha significativa do GPS poderia causar defeitos em muitos serviços ao mesmo tempo, incluindo muitos dos quais se imagina que são completamente independentes entre si.”

Embora a navegação por satélite seja a aplicação mais conhecida, os sinais de GNSS são usados por redes de dados, sistemas financeiros, transporte aéreo e marítimo, agricultura, ferrovias e serviços de emergência. Para muitas aplicações, como as negociações financeiras de alta frequência, o elemento de ultraprecisão da hora nos sinais é mais importante que o elemento de posicionamento.

Estima-se que de 6% a 7% da economia do Reino Unido seja dependente do GNSS, proporção que crescerá rapidamente nos próximo anos, segundo o informe.

Embora a ameaça mais catastrófica possa ser uma tempestade geomagnética, causada por alguma erupção solar de intensidade que não é vista desde o século XIX, a academia está mais preocupada com a interferência proposital humana nos sinais.

Interferir nos sinais emitidos por satélites GNSS é muito fácil, segundo os engenheiros. As instruções de montagem e diagramas de circuito para aparelhos de interferência no GPS estão disponíveis na internet, e aparelhos simples custam menos de 20 libras. Um aparelho potente colocado em um edifício alto ou em um balão poderia derrubar todos os sinais de GNSS no sul da Inglaterra. Interferências menos potentes poderiam ser do interesse de criminosos e de outros que buscam derrubar sistemas de acompanhamento GPS. Podem ser ladrões de carro, pessoas querendo evitar pedágios ou motoristas buscando salvar-se de limites de quilometragem, diz o informe.

Fonte: Jornal da Ciência.

A evolução da topografia através dos tempos

Os métodos mais antigos

O instrumento topográfico mais antigo – O prumo óptico
A observação de um objecto pesado pendurado na extremidade de um cordel produzindo no mesmo um efeito de perpendicularidade em relação à terra, foi um fenómeno verificado pelos primeiros pensadores da antiguidade.

Sabemos que os egípcios adaptaram este princípio a práticas de construção cerca de 2600 anos antes de Cristo, tendo desde então sido concebidos os princípios dos primeiros instrumentos de posicionamento e nivelamento de estruturas rudimentares, como sendo o esquadro, e as cruzetas em chumbo e madeira.

O trabalhador de então tivera através destas descobertas uma visão mais precisa quanto à veracidade de uma linha vertical produzida por um fio-de-prumo contra uma superfície horizontal.

Os primeiros fios-de-prumo eram em pedra e a sua forma frequentemente oval, era neste tempo, um detalhe irrelevante.

Estes instrumentos simplificados continuaram praticamente inalterados durante os 4400 anos que se seguiram. Com a invenção do nível de bolha, e dados os primeiros passos no sentido da revolução industrial que permitiu o fabrico destes níveis caracterizados pela precisão e pelo seu baixo custo, iniciou-se a retirada dos instrumentos de chumbo antigos.

O então emergente nível que permitia estabelecer com facilidade, planos verticais e horizontais revelara-se como um instrumento de incontestada melhoria nas condições de trabalho rápido, preciso, e fácil de empregar.

Há no entanto algo que o nível não pode fazer facilmente a transferência exacta de um ponto entre dois planos desnivelados. Neste campo, o fio-de-prumo continua sendo um instrumento indispensável na construção moderna.

Unidades de medição antigas

Alguns registos arqueológicos mostram o uso de medidas padrão antes do ano 2000 AC. Um mural egípcio datado de 1400 AC mostra um grupo de trabalhadores medindo com uma linha atada em nós, semelhante a uma moderna corrente de agrimensor.

· A ligação (7.92 polegadas)
· A braça (5.5 pés)
· A vara (3 braças ou 16.5 pés)
· A corrente (66 pés)
· A oitava parte da milha ou o “furrowlong” (660 pés)
· A milha (5280 pés ou 1760 jardas)
· A légua (3.125 milhas ou 16500 pés também 198000 polegadas, 25000 ligações, 3000 braças, 1000 varas de caules, 250 correntes, 25 oitavas partes da milha ou furrowlongs).

Os antigos padrões de medidas foram baseadas em medidas do corpo humano. Dobrada era a distância do cotovelo à extremidade de dedo, enquanto que as unidades de pé, palma e dedo são por si só unidades de referência evidentes.

Entre as primeiras unidades de medida institui-se o “Pé”, que muito naturalmente se alterou de região para região, produzindo duas dimensões diferenciadas.

O primeiro conceito da medida “pé” fixou-se entre 246 e 252 milímetros baseados no pé do descalço de um homem. O segundo conceito de “Pé” mede entre 330 à 335 milímetros sendo este baseado nas medidas da mão.

Outras unidades derivam dos Romanos, Saxões, Anglos e Jutas que em determinados períodos invadiram Inglaterra.

A Vara, a oitava parte da Milha e o Acre, são todos de origem Saxónica. A Milha instituída é o resultado de um compromisso entre a unidade Francesa, a velha milha britânica e do “Milliarius” romano.

A origem da Vara (Rod) como unidade tradicional de medida
A unidade tradicional da distância igual a 5.5 jardas (16 pés e 6 polegadas e mais exactamente 5.02 metros).

A Vara e a oitava parte da milha eram as unidades básicas de distância empregadas pelos Anglo-saxões residentes em Inglaterra antes da conquista normanda de 1066.

Os Saxões chamavam geralmente a esta unidade o “Gyrd”, uma palavra que vem até nós com o nome de uma unidade diferente, “Yard” (jarda). A Vara (Rod) é outra palavra Saxónica que significou naquele tempo o que significa actualmente: uma vara direita.

Os Normandos preferiram chamar “Gyrd” ao bastão ou vara (uma palavra de origem francesa, significando um poste ou varão). O comprimento desta vara fora estabelecido pelo menos a partir do oitavo século. Pode ter começado como comprimento de uma vara de bois, utensílio empregado para comandar uma equipa de 8 parelhas de bois.

Os estudiosos não sabem ao certo como a vara foi relacionada com as unidades mais curtas. Esta medida pode ter sido considerada igual a 20 “Pés” normais (comprimentos reais de um pé), ou pode-lhe ter sido medida “à mão” com 30 palmos.

De qualquer modo, quando o pé moderno ficou estabelecido no século XII, o governo real não quis alterar o comprimento da vara, dado que este comprimento era a base na medição das terras, nos seus registos, e impostos.

Por consequência a vara foi redefinida para igualizar 16.5 dos novos pés. Este comprimento chamou-se a “vara do rei” pelo menos a partir do período do Rei Ricardo Coração de Leão (1198). Embora varas de outros comprimentos sejam empregadas localmente na Grã-Bretanha, a vara do rei reinou a partir deste período.

A relação entre a vara e as outras unidades inglesas de distância foi confirmada pelo estatuto parlamentar de 1592, que definiu o estatuto da milha como sendo 320 varas ou 1760 Jardas (Yards), forçando a vara a corresponder a exactamente 5.5 jardas (Yards) ou 16.5 “Pés”.

© Russ Rowlett da universidade Carolina do norte em Chapel l Hill

A bússola magnética
A bússola magnética é um dos instrumentos mais importantes na história da medição.

A bússola foi inventada provavelmente pelos Chineses durante a dinastia Qin (221-206 A.C.).

Os primeiros videntes chineses empregaram ímanes naturais (um minério composto de óxido de ferro que se alinha numa direcção norte – Sul) para construir as suas placas de leitura de sinas.

Posteriormente, alguém se apercebeu que estes ímanes naturais eram de maior eficácia e utilidade na indicação de verdadeiras direcções, facto que conduziu à manufacturação das primeiras bússolas.

Fora então concebido um instrumento sobre uma placa quadrada que continha inscrições indicando os pontos cardeais e as constelações conhecidas.

A agulha indicadora, constava de um dispositivo metálico em forma de colher constituído por um íman natural, que indicava sempre o Sul.

As agulhas magnéticas utilizadas como indicadores de direcção em substituição dos ímanes naturais em forma de colher, surgiram no 8º século D.C, igualmente na China, entre os anos 850 e 1050, tendo-se tornado instrumentos correntes em tarefas de navegação a bordo de embarcações.

A primeira pessoa conhecida por ter utilizado a bússola como meio de ajuda à navegação, foi aparentemente Zheng He (1371-1435), da província de Yunnan na China, que fez sete viagens de oceano entre 1405 e 1433.

Topografia Colonial; Semi-transferidor e a corrente

Durante os períodos coloniais, dos anos 1800, a grande maioria das tarefas relacionadas com a topografia da época foram executadas com a utilização de um transferidor artesanal ou uma bússola, e uma corrente.

A corrente mais comum era de 66 pés de comprimento e composta de 100 elementos sendo 1 elemento igual à 1/100 de uma corrente ou 7.92 polegadas.

Estas unidades da medida podem ainda ser encontradas em muitos registos antigos arquivados nos tribunais.

As unidades de medição mais modernas em aço e fibra de vidro empregadas por topógrafos, ainda são mencionadas como os métodos mais adequados em procedimentos contemporâneos de medição.

Outras unidades da medida deste período chamaram-se as “varas” ou os “bastões”, representando 16.5 pés para cada unidade.

Durante este período a bússola foi montada sobre um tripé ou associada a um bastão simples, tendo sido denominada de ” consola de Jacob”.

Estes instrumentos de topografia desta época não eram muito precisos, mas eram suficientemente válidos para aplicação num contexto em que os valores de terra eram irrisórios.

Transferidor e a fita
Com a evolução dos tempos a utilização da bússola deu lugar ao transferidor graduado, e a corrente à fita em aço.

Enquanto a bússola podia geralmente medir o azimute magnético próximo de um quarto de grau, um transferidor já pode medir os ângulos entre as linhas com menos de um minuto de arco de circunferência.

A fita em aço, habitualmente de 100 ou 200 pés de comprimento graduadas em centésimos de um pé, providenciou uma precisão superior à “corrente de Gunter”.

O transferidor graduado e a fita permitiram a execução de medições mais precisas aplicadas à planificação e subdivisão de terras, na topografia de construção, e em quase todos os trabalhos de delimitação.

Até um período considerado contemporâneo, este método foi empregado em grande parte dos trabalhos aplicados no universo da topografia.

Transferidor e a estádia
Com o avançar da evolução tecnológica os ângulos foram então medidos com a utilização de um transferidor graduado associado a uma ocular sendo as distâncias medidas através de métodos ópticos sobre uma régua padrão colocada na horizontal.

Esta régua ou “estadia”, graduada em centésimos de um pé, e um conjunto de fios transversalmente horizontais aplicados ao telescópio do transferidor, chamados “fios de estadia”, foram colocados de modo a que, com base em princípios trigonométricos, e a uma distância de 100 pés a leitura dos fios corresponda exactamente a um pé sobre a estadia. Assim, em cerca de 500 pés, uma distância pôde ser lida directamente na estadia.

Devido à sua velocidade e eficácia, este método tornou-se mais comum para traçar cartas topográficas.

Este procedimento abriu igualmente os caminhos da nova concepção dos instrumentos ópticos da nova geração (pranchetas e micrómetros), fabricados sobretudo em Inglaterra e Alemanha (Vernier, Everest, Gurley, e outros).

Os métodos contemporâneos

O Teodolito
A combinação de telescópios de uma crescente capacidade óptica, com limbos horizontais e verticais graduados, deu origem ao ressurgimento de um considerável número de fabricantes que revolucionaram o mundo da topografia em franco desenvolvimento em finais do século 19.

São exemplos desta vaga de aperfeiçoamento as casas Inglesas, Suíças e Alemãs das quais se destacaram as marcas Wild, Kern, Zeiss, Fennel, entre outras.

O Nível
O conceito das observações relacionadas com a linha do horizonte que permitiu uma relação de altitudes entre pontos desnivelados, através da leitura de réguas graduadas, impulsionou igualmente a aparição dos instrumentos denominados de “níveis ópticos”.

Estes instrumentos munidos de bolhas de nível que garantem de forma eficaz a sua posição horizontal foram inicialmente concebidos por fabricantes ingleses Suíços e alemães dos quais se destacam as casas Baker, Cook Troughton & Simms, Hilger & Watts, Wild, Kern e Zeiss, entre outras.

A Fotogrametria
O final do século 19, a par da evolução da aviação, é igualmente palco de uma nova era de evolução na construção de mapas topográficos.

Foram nesta época desenvolvidos métodos de captação e tratamento de imagens fotográficas obtidas por meios aéreos. Davam-se assim os primeiros passos na denominada “fotogrametria”.

Foram neste período desenvolvidos equipamentos fotográficos mais sofisticados a instalar em aeronaves ligeiras.

Em simultâneo, foram concebidos mecanismos de tratamento destas imagens denominados de “restituidores fotogramétricos” que a partir das fotografias aéreas captadas, permitem através de junção e parametrização das mesmas, representar sobre mapas e cartas topográficas, o relevo e delimitações das zonas abrangidas por este sistema.

Os métodos modernos

Teodolito na medição electrónica de distâncias
Não há nenhuma norma exacta que diferencia a concepção básica de um instrumento combinado de uma ocular + alidade, de um instrumento designado de “Teodolito”.

Geralmente, o teodolito é um instrumento muito mais preciso. Alguns podem medir um ângulo com menos 1/10 de um arco de segundo (um milésimo de um pé numa milha), sendo precisões da ordem de 1-3 segundos, típicas em teodolitos modernos.

Além disso, os ângulos medidos num transferidor eram lidos sobre de um disco circular metálico, graduado em graus e minutos, enquanto que no teodolito este disco metálico foi substituído por limbo de vidro gravado, permitindo a leitura interna de ângulos com uma ocular através de uma série de espelhos e objectivos.

Em alguns modelos mais precisos onde se pretendeu apurar intervalos angulares de ordem decimal, surgiram os micrómetros (nónios) associados aos limbos verticais e horizontais.Nesta era de considerável desenvolvimento tecnológico surgiram nos anos 70 os primeiros aparelhos de medição electrónica de distâncias.

Estes instrumentos denominados de EDM´s (Electronic distance measurement) eram relativamente pequenos, ligeiros e fáceis a utilizar, sendo o conceito do seu funcionamento baseado na emissão de um feixe estreito de luz infravermelha que reflectido num prisma retorna ao instrumento permitindo a leitura de uma distância em curto espaço de tempo.

Os da primeira geração foram montados sobre teodolitos, tendo evoluído para os modelos associados aos telescópios. A rápida evolução da tecnologia e da miniaturização dos componentes electrónicos sentida nos anos 80, permitiram a construção de novas gerações de teodolitos munidos de novas funções electrónicas, na medição de distâncias com EDM interno, e no manuseamento de uma variedade de dados afixados em ecrã de cristais líquidos.

Estes super-teodolitos designados de “estações totais electrónicas”, proporcionaram aos técnicos, além da velocidade e exactidão consideravelmente potenciados, o manuseamento de dados numéricos que podem ser automaticamente transmitidos para uma unidade de recolha de dados electrónicos, ou por transferência directa para computadores.

Além da velocidade e a exactidão fornecidos, o custo decrescente destas estações electrónicas permitiu a substituição gradual de todos os métodos e instrumentos precedentes utilizados até à data.

Os prismas de reflexão
Os métodos de reflexão dos feixes infra-vermelhos acima referidos acompanharam a evolução dos novos teodolitos electrónicos.

Os fabricantes destes novos dispositivos de reflexão, conceberam um método de convergência do feixe através da combinação de espelhos confinados no interior de um prisma, facto que aumentou consideravelmente a precisão das visadas.

Esta evolução permitiu igualmente o aumento da medição de distâncias em conformidade com o número de prismas utilizados, tendo a partir deste período sido possível medir distâncias quilométricas com grande precisão.

A reflexão destes raios infravermelhos conduziu à concepção de dispositivos de reflexão mais económicos através de uma tela reflectora específica. Estes alvos denominados de “rectro-reflectores” não garantem a mesma precisão dos prismas de reflexão total, sendo aplicados em tarefas de medição de distâncias mais curtas e com menor exactidão.

A excepção a esta norma foi desenvolvida mais recentemente pelo fabricante japonês Sokkia que lançou no mercado uma geração de equipamentos que atinge a sua máxima exactidão com alvos rectro-reflectores a curtas distâncias.

Dos principais fabricantes dos dispositivos de reflexão mencionados destacam-se os suíços da Leica, os japoneses Sokkia e Topcon e a americana Trimble.

GPS – O sistema posicionamento global
Este sistema revolucionário de posicionamento que não foi concebido para uso civil, foi constituído de uma constelação nominal de 24 satélites, disponibilizados ao grande público, com um sinal intencionalmente degradado pelo DOD (Depart. of Defense).

Algumas mentes deveras astuciosas descobriram uma forma de empregar o sinal transportado por este sistema para calcular a posição de um receptor sobre a terra.

Esta tarefa foi tornada possível pela utilização de dois receptores e de relógios extremamente precisos, empregues para cronometrar os sinais recebidos dos veículos satélites (SV).

A disponibilidade e utilização destes relógios de grande precisão tornou possível o uso do GPS em meios civis. Foi assim possível calcular 3 posições dimensionais utilizando estes receptores em praticamente qualquer ponto sobre a terra.

O GPS tem no entanto as suas limitações. Os receptores surgiram inicialmente no mercado com custos elevados, verificando-se a sua gradual redução com a entrada no mercado de novos fabricantes.

Estes receptores estão igualmente condicionados por factores de bloqueio de sinal devendo dispor de uma considerável abrangência de céu aberto. Isto significa que o sistema é inútil dentro em espaços confinados, onde existam barreiras naturais (cúpulas de árvore, montanhas, vales cavados, etc) bem como perto das construções ou as superfícies verticais devidas a um efeito denominado de multi-trajecto.

Este efeito considerado como nocivo e que pode impossibilitar um posicionamento adequado, pressupõe que um receptor obtém 2 sinais em vez de um, devido às propriedades reflectoras de uma superfície vertical.

Em relação a outras condicionantes do sistema, os satélites disponíveis devem compor uma boa formação geométrica através do céu. Se os satélites se encontrarem “amontoados” sobre um determinado local, os resultados obtidos não serão adequados.

Os actuais sistemas profissionais de posicionamento utilizam o GPS para a realização de um grande número de projectos correntes, sendo este um sistema que se estendeu de forma alargada às tarefas de navegação terrestre e marítima.

Esta tecnologia permitiu nas áreas profissionais a determinação de pontos notáveis sobre a terra com um considerável rigor planimétrico (de ordem centimétrica), sendo o posicionamento altimétrico menos conseguido.

A evolução para o posicionamento global de precisão
Robot de calibragem de antenasEstas tecnologias de posicionamento com recurso a satélites, conheceu um considerável impulso no início dos anos 90 com a disponibilização de novas constelações no espaço sideral.

São de considerar, para além da constelação da rede principal GPS, a rede “Glonass” (Russa), e o projecto europeu “Galileo”, actualmente em curso.

Existem igualmente algumas constelações de segunda ordem lançadas em períodos mais recentes por países como o Japão, Índia e China.O termo GPS (Global Positioning system) evoluiu recentemente para GNSS (Global navigation sattelite system).

A introdução de dispositivos mais sofisticados com as antenas tipo “shok ring” (redução dos efeitos multi trajecto) e receptores de dupla e tripla constelação na execução das missões com recurso a satélite, permitiu o posicionamento milimétrico de um ou mais pontos notáveis sobre a terra.

Para tal contribuiu igualmente uma emergente tecnologia de calibração das antenas, que através de sistemas robotizados permite a sua adequada rotação no acompanhamento do movimento diário das constelações disponíveis, conferindo a estes dispositivos uma redução dos efeitos da Ionosfera, e troposfera.

Em consequência deste percurso de evolução, este sistema é actualmente utilizado na composição de redes cartográficas locais ou globais, e no estudo de comportamento de estruturas de diversos tipos, monitorização de actividades sísmicas, meteorológicas, etc.

Os sistemas de topografia robotizada
Neste notável percurso de evolução tecnológica onde os microprocessadores desempenharam um papel primordial, surgiu mais recentemente uma nova geração de estações totais automáticas e robotizadas.

Trata-se de estações totais munidas de servomotor e software integrado de observação geodésica, sistema desenvolvido a partir dos anos 90 pela casa suíça “Leica Geosystems”.

Estes instrumentos munidos da capacidade de medição angular de 0,5 mgon, e de 1mm+1ppm na aferição de distancias, introduziram igualmente no mercado a capacidade de captação automática de prismas por sistema de vídeo, denominada de função ATR (Automatic Target Recognition).

Em paralelo o fabricante de origem sueca “Geodimeter” (actualmente sob o nome da casa Trimble USA), lançava no mercado um modelo de estação total igualmente robotizada e com a capacidade de manuseamento por controlo remoto, sistema este que foi seguido pelos fabricantes Leica (Suíça), Topcon e Sokkia (Japão), entre outros, com o lançamento de novas gerações de equipamentos.

Estes modelos, fruto de uma notável inspiração tecnológica e consequência de avultados investimentos científicos, surgiram no mercado com custos onerosos, sendo exclusivamente utilizados na industria de precisão e em missões de auscultação e vigilância de estruturas envolvendo risco, onde se estudam movimentos de ordem milimétrica.

São equipamentos frequentemente utilizados em plataformas industriais, projectos de escavação subterrânea em meio urbano (túneis de metropolitano), pontes e barragens, e infra-estruturas com patologias identificadas.

Leica TCA 2003
Leica TDM 5000
Trimble S8
Sokkia Net 05

Os sistemas de “Varrimento Laser Tridimensional”
Leica HDS 3000Com o desenvolvimento das tecnologias a laser e para além das novas estações totais de feixe laser, com a capacidade de medição de distâncias sem a utilização de prismas ou alvos reflectores, surgiram recentemente os equipamentos de digitalização tridimensional.

O sistema de “varrimento Laser”, é um sistema que a partir de um ponto estação irradia um impulso laser cujo tempo de percurso de ida e volta do sinal reflectido, é medido e convertido numa distância. Convertidas em coordenadas rectangulares por um hardware integrado, as coordenadas polares (ângulos e distancias) obtidas, permitem adquirir uma nuvem muito densa de pontos coordenados na superfície de uma estrutura ou objecto em estudo.

Esta emissão laser é inócua, sendo inofensiva para a saúde humana e para a conservação de património, podendo este sistema funcionar sem iluminação, uma vez que é do tipo activo.

A frequência de aquisição de pontos 3D é aproximadamente uma dezena de milhar por segundo, sendo o tempo de varrimento laser em cada estacionamento variável entre de 2 a 10 minutos.

Esta tecnologia permite uma cobertura total do objecto ou estrutura a levantar, numa única nuvem de pontos 3D com a utilização de precisões homogéneas sub centimétricas.

O “Varrimento Laser Tridimensional” introduziu no mercado uma excelente variante para aplicação em levantamentos de objectos e estruturas complexas com um elevado nível de detalhe geométrico, precisão e informação dimensional, sendo um método simples, rápido e com uma relação custo – eficácia, deveras interessante.

Esta tecnologia inovadora, sugere a abertura de novos caminhos para aplicação em grande parte das tarefas a desempenhar pelos profissionais de topografia num futuro próximo.

Fonte: Planortogonal.com (Portugal).

Subscribe: Entries | Comments

Copyright © GEOeasy – Geotecnologias & Meio Ambiente 2017 | GEOeasy – Geotecnologias & Meio Ambiente is proudly powered by WordPress and Ani World.