Festa da Padroeira

Festa da Padroeira 2012 em Itaporanga, veja tudo que aconteceu. Clique e confira!

Diplomação dos Eleitos

Saiba tudo o que aconteceu na Diplomação dos candidatos eleitos no Vale do Piancó. Clique aqui!

Passe o seu Natal de YAMAHA Zero!

A Mundo Livre Yamaha está com promoções imperdiveis, como esta: Yamaha FACTOR com entrada de R$800,00 e 44 mensais de R$209,00. Clique e Confira!

Zé do Agreste

Durante esta semana estaremos postando aqui, vídeos de Zé do Agreste, personagem criado pelo itaporanguense Onildo Mendonça. Clique e confira!

As Razões de Ariosvaldo Ferreira

Porque Ariosvaldo Ferreira deu parecer contrário as obras de abastecimento d'água que estão sendo executados pela administração Djaci brasileiro. Clique aqui!

Atenção estudantes do Vale do Piancó

A UNIP abre inscrições para o vestibular 2013, ofertando 740 vagas em todos os cursos. Clique e Confira!

Mostrando postagens com marcador Tecnologia. Mostrar todas as postagens
Mostrando postagens com marcador Tecnologia. Mostrar todas as postagens

domingo, 15 de dezembro de 2013

Prijector, miniprojetor Wi-Fi dispensa cabos e traz boa compatibilidade

A empresa Prijector, anunciou oficialmente o primeiro dispositivo que promete descomplicar qualquer apresentação. A solução, leva o mesmo nome da empresa e consiste de um pequeno dispositivo que se conecta diretamente à uma TV ou a qualquer projetor, permitindo que qualquer computador portátil envie apresentações via rede sem fio, sem complicações.
Prijector promete simplificar qualquer apresentação Foto: Divulgação)
Prijector promete simplificar qualquer apresentação (Foto: Divulgação/Prijector)
Segundo a empresa, o objetivo do Prijector é resolver os problemas de projeção comuns, que muitas pessoas têm quando vão mostrar suas apresentações. Se você já passou pela experiência de conectar seu laptop a um projetor para fazer uma apresentação, então já sabe que algumas vezes essa tarefa pode se transformar em um jogo de adivinhação de qual cabo usar, qual botão de entrada apertar, ou como corrigir a resolução, o que gera muita frustração e atrasos para iniciar reuniões e outros tipos de evento.
Basicamente, o aparelho se conecta a qualquer TV ou projetor através de HDMI ou VGA. Depois de conectar o Prijector, ele já exibe as instruções na tela para começar a compartilhar as apresentações e está pronto para ser usado. além de eliminar o uso de cabos entre o computador e a TV ou projetor, ele é compatível com qualquer sistema operacional para Mac ou PC (Windows, Mac e Linux), e em breve também terá aplicações para aparelhos com iOS e Android.
Prijector suporta vários sistemas operacionais (Foto: Divulgação)
Prijector suporta vários sistemas operacionais (Foto: DivulgaçãoPrijector)
Além de facilitar a presentação, o Prijector também pode funcionar como um hotspot wireless, tornando mais fácil para os convidados acessarem com segurança a Internet, sem a necessidade de obter uma senha para isso.
O aparelho já está a venda, a um preço promocional de U$$ 119 (cerca de R$ 278), mas seu preço regular é de U$$ 199 (R$ 464, sem impostos). Infelizmente para os brasileiros que se interessaram pelo produto, por enquanto, ele só está disponível nos Estados Unidos e ainda não há nenhuma previsão de venda dele no Brasil.
tehc tudo

quinta-feira, 22 de agosto de 2013

‘Água em pó’ promete acabar com as secas no mundo

Produto foi criado pelo Departamento de Agricultura dos Estados Unidos


 Um pó chamado “Chuva Seca” pode dar fim aos complicados períodos de seca. O produto é capaz de reter grandes quantidades de água e liberá-la aos poucos, alimentando plantações durante períodos sem chuva. Com apenas 10 gramas, o polímero absorvente armazena um litro de água.

O produto foi criado pelo Departamento de Agricultura dos Estados Unidos (USDA, na sigla em inglês) e muito utilizado em fraldas durante os anos 1970. Há 10 anos, o engenheiro químico mexicano Sérgio Jesus Rico Velasco descobriu que o material poderia ir além da retenção de urina e implantou seu uso agricultura.

Velasco patenteou a tecnologia e a tem comercializado para o mundo inteiro. Segundo ele, após testes, o governo mexicano confirmou que o produto amplia as colheitas em até 300% quando misturado ao solo.

Em entrevista à BBC, Edwin González, vice-presidente da empresa, estima a duração do produto entre oito e dez anos dependendo da qualidade da água – quanto mais pura, mais durável. A companhia recomenda 50kg da “Chuva Sólida” por hectare (10 mil metros quadrados), quantia vendida por aproximadamente R$ 3.500.

Controvérsias -  A professora Linda Chalker-Scott, da Universidade do Estado de Washington, diz à BBC que duvida da eficácia do produto. “Não há evidência científica que sugira que eles armazenem água por um ano", defende.

Segundo ela, a Chuva Seca pode sugar mais água do solo, prejudicando a irrigação das plantas. Além do mais, adubos feitos com lascas de madeira seriam capazes de produzir quase o mesmo efeito e são mais baratos.


Olhar Digital

segunda-feira, 20 de maio de 2013

A paraíba vista do espaço

- Foto abaixo, trecho do Nordeste, destacando a Paraíba.


Mapeamento global feita diretamente da Estação Espacial Internacional , dentro do programa "Our World From The ISS", (nosso mundo a partir da ISS, numa tradução literal).

A Estação Espacial Internacional (ISS - International Space Station) é um habitável satélite artificial em órbita baixa da Terra, entre 350/450 km de distância. De certos pontos da Terra, dependendo das condições climáticas e momento oportuno, pode ser vista a olho nu. 

É constituída por uma estrutura modular cujos primeiros componentes foram lançados em 1998 através de um consórcio de países, liderados pelos Estados Unidos e Rússia. O programa ISS é um projeto conjunto entre cinco agências espaciais, tendo a National Aeronautics and Space Administration (NASA), a Russian Federal Space Agency (RKA), Japan Aerospace eXploration Agency (JAXA), European Space Agency (ESA), e Canadian Space Agence (CSA) como gestores. A posse e o uso da estação espacial são estabelecidos por tratados e acordos intergovernamentais.

quinta-feira, 16 de maio de 2013

Na Paraíba “educação com dispositivos móveis” marca primeiro dia de Google I/O Extended

Na Paraíba “educação com dispositivos móveis” marca primeiro dia de Google I/O Extended


O primeiro dia do Google I/O Extended foi marcado por uma pluralidade de debates. Em João Pessoa, um dos destaques foi a palestra da pedagoga Priscila Dias, que discorreu acerca do uso de dispositivos móveis como aliados para a Educação. Priscila defende que os professores e os profissionais da área de tecnologia precisam dialogar mais, para produzir aplicativos e ambientes virtuais de aprendizagem que atendam à demanda educacional dos dias atuais.

Segundo Priscila, ao passo em que as crianças e adolescentes de hoje em dia praticamente já nascem conectados às mídias digitais, é preciso que os professores aprendam a dialogar com eles nesta linguagem. Ela fez um paralelo com os modelos de Educação à Distância elaborados ao longo do século: desde cartas, até o rádio, a TV e os computadores.

A pedagoga abordou a questão da cultura de convergência, em que todas as mídias podem dialogar, a favor de um desenvolvimento educacional que não ‘morra’ no momento em que chega ao dispositivo do aluno. Seus estudos são baseados nas teorias de Henry Jenkins, a partir do livro “Cultura de Convergência”, que investiga o alvoroço em torno das novas mídias e expõe as importantes transformações culturais que ocorrem à medida que esses meios convergem.

O livro nos introduz aos fãs de Harry Potter, que estão escrevendo suas próprias histórias, enquanto os executivos se debatem para controlar a franquia. Ele nos mostra como o fenômeno Matrix levou a narrativa a novos patamares, criando um universo que junta partes da história entre filmes, quadrinhos, games, websites e animações. Essa nova edição está ampliada e atualizada, trazendo também um capítulo inédito sobre o YouTube.

O Google I/O Extended foi aberto na manhã de hoje, em diversos locais do mundo. Na Paraíba, o  evento que tem o apoio da Anid (Associação Nacional para a Inclusão Digital), acontece no campus I da Universidade Federal da Paraíba, em João Pessoa, e também no campus da Universidade Federal de Campina Grande. A programação de abertura incluiu uma videoconferência com o Google I/O, que acontece na Califórnia, além de relatos dos próprios participantes sobre qual o seu interesse em debater tecnologia.

O evento prossegue, com outras palestras e debates, até a próxima sexta-feira, 17.

Ascom Anid

segunda-feira, 15 de abril de 2013

Máquina que "produz" água pode ser uma das soluções para a seca


Em Feira de Santana, na Bahia, alunos e professores de 125 escolas matam a sede com água extraída do ar. Não é resultado de nenhuma experiência de laboratório, mas da instalação de 375 máquinas que retiram a umidade do ar e a transformam em água no estado líquido. “Antes desse equipamento era um sufoco”, diz Eliane Mota, diretora da escola Nossa Senhora do Rosário.

O aparelho, desenvolvido pela empresa mineira HNF, “produz” a água por meio da compressão e condensação do ar, processo do qual se obtém o chamado ponto de orvalho. Para tornar o líquido potável, são utilizados três processos de filtragem. O equipamento também possui um software que regula o processo para torná-lo possível em condições variadas de temperatura e umidade do ar. 

Imagem abaixo:



Segundo Henrique Fiuka, um dos sócios da HNF, num ambiente com umidade em torno de 40% e temperatura ambiente de aproximadamente 20º C, a máquina transforma 30 litros de água em um dia. “Num local com 60% de umidade, chega a fazer 40 litros”, diz.


Fiuka afirma que, além de escolas, a empresa pretende colocar seus aparelhos em locais de grande circulação de pessoas, como hospitais, empresas, postos de saúde e clubes. Lançada em 2009, a máquina ainda tem um preço salgado: R$ 6,5 mil. Para o empresário, o valor deve diminuir em poucos anos. “Quando tivermos mais demanda vamos conseguir baixar o custo”, diz. Até agora, foram vendidas cerca de mil unidades no Brasil, Argentina e Angola, mas a meta da HNF é comercializar, em menos de um ano, dez mil máquinas por mês.

Uso doméstico

Para conseguir alavancar as vendas e atender também as residências, a empresa lançou nesta semana a versão doméstica do aparelho, que armazena 12 litros de água e deve chega ao mercado com o preço de R$ 2 mil. “O cliente poderá substituir o bebedouro de galão ou o purificador de água”, afirma Fiuka.

Norman Pedro Quiroga, sócio da HNF e inventor do equipamento, diz que o próximo passo da empresa é fornecer máquinas para indústrias, que teriam a capacidade de produzir cerca de 50 mil litros de água por hora. “O projeto está pronto. Já temos encomendas feitas”, diz o engenheiro.

A primeira máquina de “fazer água” da empresa demorou cerca de sete anos para ser desenvolvida e foi patenteada em 2006. A ideia do invento surgiu quando Quiroga trabalhava para uma empresa nos EUA, que necessitava de água pura para realizar uma pesquisa.

Hoje, existem equipamentos similares no mercado internacional, mas, segundo o inventor, a máquina brasileira se diferencia pela versatilidade. “Existe uma máquina nos EUA, mas ela tem limitações de temperatura e de umidade”, diz. A versão americana só consegue produzir água com umidade do ar mínima de 40% e temperatura de pelo menos 20º C. O equipamento da HNF funciona a partir de 10% de umidade do ar e temperatura a partir de 15ºC.

Sustentabilidade

Outra possível utilização para os aparelhos de produção de água pela umidade do ar, de acordo com a HNF, é na agricultura. Em sua campanha institucional, a empresa diz que a aplicação em lavouras e plantações “significa o fim das secas provocadas pelas estiagens sazonais”. Para Paulo Costa, especialista em uso racional da consultoria H2C, o uso de equipamentos como o da HNF não é a melhor saída para se resolver o problema da falta d’água no mundo. “Existem tecnologias mais simples que têm benefício maior”, diz o consultor.

Uma das opções, segundo Costa, seria a substituição do método de irrigação por aspersão – quando a água cai na terra como se fosse chuva – ou pelo sistema de gotejamento, método que distribui o líquido por gotejadores que ficam próximos da base das plantas - cerca de 70% da água consumida no País é utilizada na agricultura e pecuária.

“O sistema de gotejamento consumiria apenas 1/6 do que é utilizado hoje”, afirma Costa. Segundo o especialista, o potencial de uso da água da chuva também não é utilizado adequadamente. “Menos de 2% dos edifícios comerciais, residenciais e industriais usam água de chuva.”
Juliana Kirihata

domingo, 10 de março de 2013

Tablet paraibano chega ao mercado


Tablet paraibano chega ao mercado  

Uma fábrica instalada em Campina Grande, a partir de incentivos dos governos federal e estadual está produzindo tablets no Estado. Os equipamentos devem estar disponíveis no mercado a partir de abril. O diretor de Operações da N3, Clóvis Machado Nogueira Neto garante que os tablets não deixam a desejar em relação à concorrência e que todo o processo de fabricação é feito em Campina Grande.

Nessa conversa com o Correio, Clóvis Nogueira detalha as etapas da produção, fala com entusiasmo das máquinas e garante que a manipulação humana só ocorre na hora de testar o produto final. Os tablets devem chegar ao mercado em abril e custarão, a depender do modelo, entre R$ 349,00 e R$ 399,00.

A entrevista

- Quando os primeiros tablets começam a ser produzidos?

- Eles já foram homologados, lançados em nível de teste – alguns clientes já consumiram os tablets da N3 – e agora no começo de abril estará sendo feita a primeira produção em massa.

- Como poderia ser traduzida essa expressão produção em massa?

- A produção inicial foi feita com produtos semi-acabados, semi-desmontados para avaliação e hoje esta produção que está para ser iniciada é o mesmo processo fabril que é feito na Foxcom em São Paulo para produção dos Ipads da Apple. Estamos falando em sair da produção de algumas peças para a produção de um primeiro lote de 2 mil tablets com objetivo final de em nó máximo 3 meses chegue a 54 mil unidades.

-Quando os equipamentos estarão no mercado, nas lojas?

-De meados a final de abril. Estamos em cima.

- Qual o diferencial desses equipamentos fabricados na Paraíba em relação aos que estão disponíveis hoje para o consumidor?

- A grande diferença é que os tablets que hoje estão no mercado – a maioria deles é importada – e em geral considero eu, de baixa qualidade. O mercado consumidor tem comprado tablets que não têm algumas características mínimas para você ter uma boa experiência de uso com o produto.

- O que seria essa boa experiência?

- Hoje é comum você encontrar nas lojas um tablet barato e quando você olha – fantástico – trezentos e poucos reais. Quando você começa a usar o produto não tem a resposta esperada. Por exemplo, as telas, que muitas vezes são resistivas e não capacitivas.

- O que vem a ser a resistiva e a capacitiva?

- A resistiva é aquela que você precisa de fato apertar – precisa ter a sensação de aperto na tela - para obter resposta ao estímulo, ou seja, aperto e afundo. Já a capacitiva tem uma sensibilidade diferente que você passa o dedo e ele te responde de forma automática. É uma sensação de uso completamente diferente. Como o mercado aqui está tendo que importar o produto, tem todo tipo de qualidade.

- Como será o tablet da N3?

- O tablet que está sendo lançado, como todos nossos outros produtos, é algo que atenda a expectativa de qualidade e de experiência de uso do produto.

-A que custo vai sair para o consumidor?

- A gente espera que esse produto saia na ponta, na cadeia varejista para o consumidor final, a depender do modelo, entre R$ 349 a R$ 399,00.
Correio

segunda-feira, 4 de março de 2013

Coisas do Brasil

Sem terra, mas com tecnologia: Assentamentos rurais da Paraíba recebem Telecentros com banda larga

Reunião dos representantes dos Sem Terra para decidir sobre instalação de Telecentros
Enquanto continuam suas lutas pela reforma agrária e pela ocupação de terras, os trabalhadores rurais de mais de 20 assentamentos na Paraíba estão prestes a receber tecnologia de ponta: além dos telecentros com internet em banda larga (wi-fi), também terão linhas de Voip para fazer ligações telefônicas sem custo.


A inclusão digital dessas localidades é uma das linhas principais de atuação da Associação Nacional para Inclusão Digital (Anid), que participou de uma reunião com os representantes dos assentamentos e lideranças da Comissão Pastoral da Terra (CPT). Na ocasião, os trabalhadores rurais expuseram seus principais problemas, dificuldades e lutas e também mostraram suas conquistas mais recentes. Uma das maiores dificuldades diz respeito ao acesso às tecnologias, pois em algumas comunidades sequer existe telefonia fixa ou móvel.



O presidente da Anid, Percival Henriques, ouviu os relatos e falou da proposta da Anid, voltada para o fortalecimento da inclusão digital nas comunidades rurais. A partir do projeto de Letramento Digital, cada comunidade receberá internet – sem custos – nos telecentros já existentes e nos que serão construídos com ajuda da Associação. Os locais também serão dotados de um terminal de VOIP – tecnologia que permitirá efetuar ligações telefônicas a partir de protocolos de internet – para facilitar a comunicação entre os assentamentos.

Os assentamentos contemplados com o projeto são:


Nova Conquista (São Jose dos Ramos)

Novo Horizonte (Juarez Távora)

Nossa Senhora Aparecida (Itabaiana)

Salomão (Itabaiana)

Novo Salvador (Jacaraú)

Boa Esperança (Jacaraú)

Jardim (Curral de Cima)

Padre Gino (Sapé)

Capim de Cheiro (Caaporã)


Padre João Maria (Mogeiro)

Dom Marcelo (Mogeiro)

Almir Muniz (Mogeiro)

João Gomes (Alhandra)

Gurugi II (Conde)

Frei Anastácio (Conde)

Dona Antonia (Conde)

Barra de Gramame (Conde)

Dona Helena (Cruz do Espirito Santo)

Santa Emília (Pedras de Fogo)


Nos próximos dias, a Anid vai fazer visitas nessas localidades para elaborar um calendário de implantação deste projeto. Haverá também pontos de Wi-Fi nas proximidades das sedes dos assentamentos e parceria com instituições de ensino, para a capacitação dos assentados, de modo a promover uma correta utilização da internet, como forma de democratizar a informação e socializar o conhecimento.
Pádua Leite

segunda-feira, 19 de novembro de 2012

'Mundo descobriu a força da mídia digital'


Ativistas urram diante de réplica de dinossauro na loja Toys"R"Us, em Nova York, na sexta e mais bem-sucedida 'flashmob' criada por Bill Wasik
"'Flash mobs' viraram coisa séria, agora são para valer", constata o jornalista norte-americano Bill Wasik, o criador das manifestações-relâmpago convocadas por
e-mail e mensagens de texto por celular, realizadas no início da década passada.
"As pessoas descobriram o poder das ferramentas digitais", avalia ele, comentando o uso das redes sociais na organização de protestos -das grandes manifestações da Primavera Árabe às concentrações dos "indignados" na Espanha e às ações de adolescentes nos EUA.
Em entrevista  por e-mail, Wasik, hoje editor da revista "Wired", lembra como lhe veio a inspiração, em 2003, para montar uma manifestação de curtíssima duração, parecendo surgir do nada e esfumaçando-se tal como havia começado.
"Estava tomando banho quando surgiu a ideia. Simplesmente queria ver o que poderia acontecer, então tentei levar o projeto adiante."
Foi por e-mail que Wasik, então editor na revista "Harper's Magazine", convocou a primeira "flash mob". Tomou providências para ocultar sua identidade e, no dia 27 de maio, mandou mensagens a pouco mais de 60 amigos e conhecidos.
O texto começava assim: "Você está convidado para participar da Mob, um projeto que cria uma inexplicável multidão de pessoas por dez minutos ou menos". E pedia para que o sujeito retransmitisse a convocação.
Não deu em nada. A polícia ficou sabendo e bloqueou a entrada da loja de Nova York onde seria realizada a manifestação. O jornalista insistiu no projeto: "Como a primeira tentativa foi frustrada pela polícia, decidi tentar novamente. Acabei realizando sete 'flash mobs' no total, de junho a setembro de 2003".
Wasik diz que era "semianônimo": assinava as convocações só como Bill. Ele assumiu a criação dos eventos em 2006, em artigo na "Harper's". "A experiência de ver a ideia se tornar viral é uma das razões que me fizeram escrever sobre a internet e que me trouxeram para a 'Wired'."
TAPETE DO AMOR
As manifestações eram bem-humoradas e rápidas. Na primeira que deu certo, cerca de 200 pessoas entraram na seção de tapetes da loja Macy's, pararam em um ponto e disseram aos funcionários que procuravam por um "tapete do amor".
Na de maior sucesso, na loja de brinquedos Toys"R"Us, cerca de 400 pessoas se concentraram diante de um gigantesco dinossauro de brinquedo, "interagindo" com a fera com urros e gemidos.
"Àquela altura, as pessoas já tinham compreendido a ideia, e as 'flash mobs' se disseminaram pelo mundo", diz Wasik. Com o tempo, o caráter das manifestações mudou, havendo desde campanhas publicitárias até grandes movimentos sociais.
"As pessoas descobriram o poder das ferramentas digitais -quão rapidamente podem convocar grupos e quão facilmente podem ficar conectadas em redes via aparelhos móveis", diz Wasik.
E conclui: "As 'flash mobs' foram um experimento meio bobo, mas serviram para demonstrar o poder dessa mídia digital. Hoje, em alguns desses movimentos sociais, eles usam as mesmas ferramentas digitais, mas agora em coisas sérias, para valer".
Folha Uol

domingo, 5 de agosto de 2012

Nova faixa do 4G requer menos antenas


A disputa entre as empresas de telecomunicações e as emissoras de TV vai ganhar um novo round com a decisão do governo de leiloar outra frequência para uso de banda larga móvel 4G (quarta geração) no país.
A faixa de 700 MHz é hoje de uso exclusivo das TVs abertas para transmissão de seus sinais (do canal 2 ao 69), mas será leiloada pela Anatel (Agência Nacional de Telecomunicações) para as teles explorarem banda larga com custo mais baixo.
O ministro Paulo Bernardo (Comunicações) revelou à Folha que o governo pretende colocar a banda de 700 MHz em leilão no próximo ano.
Seu uso efetivo nos grandes centros urbanos, porém, será possível só em 2016, quando for completada a transição da TV analógica para a TV digital.
Em regiões metropolitanas como São Paulo e Rio de Janeiro, a frequência está sendo totalmente utilizada para convivência conjunta de canais de TV nos sistemas analógicos e digital.
Após o processo de transição, a faixa de 700 MHz terá vários espectros liberados por conta da desativação do sistema analógico, que ocupa mais espaço, permitindo seu uso para internet móvel. Nas demais regiões do país, já há espaço disponível para uso imediato de internet móvel.
EFICÁCIA
A banda larga de 700 MHz de 4G é mais eficaz que a leiloada pelo governo em junho, pois cobre maior área e demanda menos uso de antenas e já está sendo operada nos EUA e na Europa.
O problema é que, hoje, 90% das residências do país têm aparelhos analógicos para recepção da chamada TV aberta, na faixa de 700 MHz.
Para dar espaço ao serviço de internet, o governo terá de apertar o passo da transição da tecnologia e também aumentar o número de pessoas com televisores preparados para receber TV digital.
Quando a substituição do modelo antigo pelo digital for concluída, o governo terá condições de oferecer na cidade de São Paulo, por exemplo, quatro novas faixas para uso de banda larga.
Segundo Bernardo, a faixa de 700 MHz permitirá lançar um programa de universalização do serviço de banda larga em 2014. No fim do mandato de Dilma, o governo espera que 70% dos domicílios do país tenham internet.
As teles têm grande interesse em que o projeto saia do papel o quanto antes.
Com alcance superior ao das demais frequências, a faixa de 700 MHz tem maior capacidade de atendimento, com custo menor para as empresas. A banda larga de 4G em 2,5 GHz precisa de 15 vezes mais antenas que na faixa de 700 MHz, e a do 3G (1,9 GHz), 7 vezes mais.
O LADO DAS EMISSORAS
As TVs, do seu lado, alertaram o governo para o fato de que é preciso cuidado na adoção da medida a fim de evitar perda não só para elas como para a população.
Segundo um representante do setor, usar a faixa de 700 MHz para banda larga antes de o país estar totalmente preparado para a TV digital pode levar a uma situação de que parcelas da população não tenham condições de sintonizar a TV aberta.
A última disputa entre teles e emissoras de radiodifusão foi pelo controle da TV paga no país. As teles tinham restrições de operar o serviço no Brasil, derrubadas a partir deste ano depois de anos de resistências das TVs.
As emissoras sempre pediram certa cautela ao governo nas regulações das atividades que envolvem os dois setores. Alegam que sua receita é só 10% da das teles, dominadas pelo capital estrangeiro.

segunda-feira, 23 de julho de 2012

Asteroide que passa próximo à Terra pode ser visto online

Asteroide que passa próximo à Terra pode ser visto online
Um asteroide do tamanho de um quarteirão está prestes a passar próximo ao planeta Terra e sua passagem poderá ser acompnhada pela web. O responsável pela transmissão é o site SLOOH, que faz o streaming gratuito do evento.

Para garantir a qualidade e a precisão das imagens, o serviço vai retransmitir as imagens de duas câmeras ao vivo: uma no observatório de Prescott, nos Estados Unidos, e outra nas Ilhas Canárias, localizadas na costa oeste do continente africano.

Os cientistas alertam que não há o menor risco de o asteroid 2002 AM31 se colidir com a Terra nesta passagem, o que pode vir a acontecer apenas no futuro — tanto é que o objeto espacial foi listado como uma “possível ameaça” pela Minor Planet Center da universidade de Cambridge.

Os curiosos que quiserem acompanhar o evento nada casual deve acessar a página do SLOOH, que inicia a transmissão no próximo domingo (22), a partir das 20h, horário de Brasília, para o mundo todo.

Tec Mundo

domingo, 22 de julho de 2012

Cientistas criam disco rígido de safira pode durar 10 milhões de anos


Cientistas criam disco rígido de safira pode durar 10 milhões de anos

Tech Tudo

Uma equipe multidisciplinar de cientistas propõe um disco rígido de safira como forma definitiva de armazenamento de informações. A ideia no projeto não é necessariamente criar uma nova tecnologia de HDs feitos com safira, mas sim, criar um dispositivo capaz de guardar informações importantes sobre quem somos para o futuro da humanidade e do planeta.

O projeto apresentou a solução para esse problema na forma de dois discos de 20 cm de diâmetro, feitos de safira. Os discos protegem uma fina camada de platina, que é o substrato onde a informação que se deseja preservar estará inscrita em diversas formas, da linguagem escrita a desenhos. Como a ideia é guardar para o futuro distante, antropólogos e linguistas envolvidos no projeto apostam na grande possibilidade de que nossos descendentes sequer usem nossos idiomas atuais.

Segundo os cientistas, cada face dos discos pode guardar o equivalente a 40 mil páginas miniaturizadas. Não é muito em termos de armazenamento de dados de um HD comum, que pode guardar não milhares, mas milhões e até bilhões de páginas de texto. A diferença é que o nosso HD dificilmente completa duas décadas sem problemas e basta um impacto ou pulso magnético para que todas essas informações tornem-se inacessíveis.

Outro detalhe interessante no disco de safira é a ideia de que, no futuro, computadores podem, simplesmente, não existir. É por isso que o dispositivo não é pensado como um equipamento eletrônico, mas como um arquivo de informações. O conteúdo salvo neste arquivo poderá ser acessado com um microscópio simples.

A ideia do projeto não é só guardar dados referentes a nossa cultura e sobre a essência da nossa civilização. Nos discos, informações importantes como a localização exata de depósitos de lixo nuclear, por exemplo, podem ser muito úteis para futuras gerações de arqueólogos não correrem o risco de escavarem alguns desses depósitos por engano.

sexta-feira, 20 de julho de 2012

Empresa finlandesa cria moto elétrica que pesa 30 kg


Empresa finlandesa cria moto elétrica que pesa 30 kg

A Roskva Eletric Motorcycle, recém-fundada por estudantes de engenharia na Finlândia, apresentou um conceito de moto movida a eletricidade que promete conquistar os apaixonados por supermotos a gasolina. A Extreme E-Bike usa tecnologia de ponta para simular a sensação de conduzir uma moto a combustão. O protótipo vence a inércia e sai do 0 a 100 km/h em menos de 4 segundos.

Com dois motores elétricos de 94 cavalos, a Extreme E-Bike pode soar uma falsa promessa de alto desempenho. O grande segredo do veículo, entretanto, é o seu baixo peso. A E-Bike pesa apenas 30 kg, de acordo com o fabricante. O segredo? Fibra de carbono. Até as rodas são de fibra.

O baixo peso do composto permite uma relação de potência de quase 70%, muito superior a muitos superesportivos. A Extreme E-Bike, além de acelerar vigorosamente, pode alcançar velocidades máximas de 160 km/h e percorrer até 100 km com uma carga de bateria - desenvolvida pela Roskva. A autonomia não deixa de ser interessante, considerando o baixo peso da moto e o pouco espaço para baterias, que são coisas pesadas.

Outro ponto de destaque da moto é o tempo de recarga. Segundo os criadores, bastam 10 minutos na tomada para atingir carga de 100%. A Extreme E-Bike ainda é um protótipo e seus desenvolvedores não revelaram data de lançamento da versão final do produto.
Tecmundo

segunda-feira, 9 de abril de 2012

20 anos de internet no Brasil: aonde chegamos?

No início de 1991 o Brasil começava a receber os primeiros dados transferidos via internet. Saiba mais sobre como surgiu e como era a internet daquela época! 

Por Felipe Arruda 
20 anos de internet no Brasil!

Se você nasceu depois de 1994, acredite: houve uma época em que não tínhamos internet. Ou melhor, a internet até existia, mas o acesso a ela era restrito a militares e pesquisadores. Para piorar, no início a rede mundial de computadores servia basicamente para troca de emails, já que as páginas da web ainda não haviam sido inventadas.

Como boa parte das tecnologias, o desenvolvimento da internet também começou para fins militares. Em plena Guerra Fria, os Estados Unidos buscavam uma forma descentralizada de comunicação e armazenamento de dados, que continuasse ativa mesmo que parte dela fosse bombardeada, por exemplo.

A tal rede foi desenvolvida em ambiente acadêmico, mas com o financiamento de um órgão militar especialmente construído para esse fim, em 1958: a Advanced Research Projects Agency (ARPA), que estava diretamente vinculada ao Departamento de Defesa dos EUA.

Documento histórico: registro da primeira mensagem enviada pela ARPANET
Fonte da imagem: Wikipedia
A primeira demonstração da ARPANET, que podemos considerar como sendo a mãe da internet, aconteceu em 5 de agosto de 1968. Na internet é possível encontrar os mapas que mostravam os pontos conectados por meio da ARPANET. Em dezembro de 1969, por exemplo, a rede era composta por apenas quatro pontos. Muito diferente da visão que temos em março de 1977, quando dezenas de hosts estão interconectados.

Com o passar do tempo e o crescimento da ARPANET, a rede começou a ser utilizada também por universidades e, na década de 80, adotou o TCP/IP, protocolo atualmente em uso na internet, como tecnologia padrão para comunicação.

Aliado à popularização do computador pessoal (PC) e do TCP/IP, outra “personagem” que ajudou a convergir todas essas tecnologias para a criação da internet foi a NSFnet, uma rede criada pela National Science Foundation com o objetivo de interligar outras redes.

A chegada da grande rede ao Brasil

Saiba como a internet chegou no Brasil

O que possibilitou a chegada da internet ao Brasil foi outra predecessora da rede: a Bitnet, uma rede de universidades fundada em 1981 e que ligava Universidade da Cidade de Nova York (CUNY) à Universidade Yale, em Connecticut.

Em solo brasileiro, a Bitnet conectava a Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) ao Fermilab, laboratório de física especializado no estudo de partículas atômicas, que ficava em Illinois, nos Estados Unidos.

As duas instituições eram ligadas via linha telefônica, por meio de um fio de cobre dentro de um cabo submarino. Bastante rudimentar se compararmos com as fibras ópticas de hoje. Como a conexão era do tipo ponto a ponto, ela também dispensava a discagem: a FAPESP estava sempre conectada ao Fermilab.

Em 1990 foi criada a Rede Nacional de Pesquisa (RNP), pelo Ministério da Ciência e Tecnologia, com o objetivo de implantar uma infraestrutura com abrangência nacional para os serviços de internet.

Vista aérea do Fermilab
Fonte da imagem: physicsworld
E já que a internet se popularizava entre o meio acadêmico dos Estados Unidos, o Fermilab também resolveu adotar a nova tecnologia. Porém, sem abandonar o uso da Bitnet. Por isso, com o passar do tempo a conexão entre a FAPESP e o Fermilab acabou se tornando a única rota de saída de dados do Brasil para o mundo e a principal conexão tupiniquim com a internet, no início de 1991. A Fundação também ficou encarregada da administração do dominínio “.br” e da distribuição dos números IPs para o Brasil.

Outra novidade no cenário nacional foi a expansão da rede dentro do país. Uma nova conexão interligava a FAPESP ao Laboratório Nacional de Computação Científica (LNCC), no Rio de Janeiro. Posteriormente, as conexões de internet foram estendidas também para outras instituições dentro de São Paulo, Rio de Janeiro, Rio Grande do Sul e Minas Gerais. Essas conexões usavam linhas privadas que operavam na faixa de 2.400 a 9.600 bits por segundo (bps).

A própria conexão entre a FAPESP e o Fermilab operava a 4.800 bps até setembro de 1990, quando então passou a trafegar dados a 9600 bps. Esse valor é muito inferior ao que temos hoje em nossas casas, com as conexões de até 10 megabits por segundo (Mbps), por exemplo. Hoje, a conexão atual da FAPESP opera na faixa de 10 Gigabits por segundo (Gbps).

O engraçado é que na época a internet não era tão diferente da Bitnet, em termos de usabilidade. Os pesquisadores usavam a rede basicamente para trocar mensagens eletrônicas com cientistas de outras instituições acadêmicas. A grande novidade era o fato de que os endereços de email agora faziam parte do domínio “.br”.

Em 1992 a RNP já tinha implementado uma rede de abrangência nacional, interligando 11 capitais brasileiras por meio de uma malha de 9.600 bps. Já as conexões entre Brasília, Rio de Janeiro, São Paulo e Porto Alegre possuíam links de 64.000 bps.

Outra novidade neste mesmo ano foi o aparecimento de organizações que passaram a agir localmente, em nível estadual. A Rede Rio, por exemplo, conectava instituições de ensino do Rio de Janeiro usando enlaces de 64.000 bps. Mais tarde a instituição se ligou à California Education and Research Federation Network), no Centro de Computação de San Diego, Estados Unidos.

No estado de São Paulo surgiu a Academic Network at São Paulo (ANSP), que interligou a Universidade de São Paulo (USP), Universidade Estadual de Campinas (Unicamp), Universidade Estadual Paulista (Unesp), e o IPT, Instituto de Pesquisas Tecnológicas do Estado de São Paulo.

Nesse período a conexão que ligava a FAPESP ao Fermilab também ganhou um upgrade, passando a trafegar dados a 64 Kilobits por segundo (Kbps; 64 mil bps). Além disso, também surgiram redes estaduais em Minas Gerais, Pernambuco, Rio Grande do Sul e no Distrito Federal.

A internet começa a ficar ainda mais interessante com o surgimento da World Wide Web (WWW), em 1990. O responsável por escrever o protocolo HTTP, que possibilita a transferência de páginas web para os navegadores, foi Timothy Berners-Lee, que participou recentemente como palestrante na Campus Party Brasil.

Placa comemorativa em homenagem à criação do Mosaic
Fonte da imagem: Wikipedia
Em 1993 os pesquisadores da Universidade de Illinois Urbana-Champaign criaram o Mosaic, o primeiro browser a funcionar no Windows, o que também favoreceu uma popularização maior da web.

Em 1994, a internet finalmente sai do nicho acadêmico e passa a ser comercializada para o público em geral. No Brasil, a EMBRATEL lança o Serviço Internet Comercial, em caráter experimental e com conexão internacional de 256 Kbps. Cinco mil usuários foram escolhidos para testar o serviço.

Anúncio da Embratel sobre a comercialização da Internet
Em maio de 1995 o serviço começou a funcionar de forma definitiva e, para evitar o monopólio estatal da internet no Brasil, o Ministério das Comunicações tornou pública a sua posição a favor da exploração comercial da rede mundial no país.

A internet passou a ser capa de revistas e até assunto de novela, se popularizando cada vez mais, crescendo de maneira espantosa. Em 1996 foram lançados grandes portais e provedores de conexão à rede no Brasil e, em 1998, o país já ocupava o 19º lugar em número de hosts no mundo e o liderava o pódio na América do Sul. No continente americano, ficava atrás apenas dos Estados Unidos e Canadá.

Já estava consolidado o uso da internet no Brasil. Quase dez anos depois, em 2007, o Brasil movimentava cerca de 114 bilhões de dólares em comércio eletrônico e possuía uma base de 40 milhões de computadores instalados no país. De acordo com o Ibope/NetRatings, tínhamos cerca de 18 milhões de internautas residenciais.

Softwares das décadas passadas

Nesses vinte anos de internet no Brasil, muita coisa mudou. Hoje a rede mundial está muito mais presente em nosso cotidiano e se tornou um dos principais meios de comunicação e de entretenimento do país. Além disso, o comércio eletrônico passou a ser uma exigência para empresas, mesmo que sejam de pequeno porte.

E para podermos traçar um comparativo, que tal darmos uma olhada nas tecnologias que dominavam a internet no passado?

Web browsers

Mosaic 1.0
Fonte da imagem: Wikipedia
Como já citamos anteriormente, o Mosaic foi o navegador responsável por popularizar a World Wide Web. Com a versão inicial (0.5) lançada em janeiro de 1993, o browser também servia como um cliente para protocolos de transferência de arquivos (FTP), leitura de fóruns de discussão via Usenet (NNTP) e Gopher, uma espécie de predecessor da WWW.

O software começou a ser desenvolvido no final de 1992, pelos engenheiros Marc Andreessen e Eric Bina, do Centro Nacional de Aplicações de Supercomputação (NCSA), na Universidade de Illinois Urbana Champaign. O Mosaic foi aperfeiçoado até janeiro de 1997, quando foi oficialmente descontinuado.

Por causa de tanta popularidade, muita gente pensa que o navegador do NCSA foi o primeiro browser a surgir. Mas a verdade é que o Mosaic foi precedido por dois outros navegadores, o Erwise e o ViolaWWW.

O Erwise foi lançado em abril de 1992 e foi o primeiro navegador web a usar uma interface gráfica de interação com o usuário. O software foi desenvolvido para funcionar com o sistema operacional Unix, e foi concebido como projeto de mestrado de quatro estudantes finlandeses da Universidade de Tecnologia de Helsinque: Kim Nyberg, Teemu Rantanen, Kati Suominen and Kari Sydänmaanlakka.

Captura de tela do Erwise
Fonte da imagem: Wikipedia
Dizem que Timothy Berners-Lee, criador da WWW, viajou até a Finlândia para incentivar os estudantes a continuarem com o desenvolvimento do Erwise, que havia sido interrompido depois que todos se formaram. Infelizmente o projeto não vingou por falta de patrocínio.

Já o ViolaWWW teve uma carreira bem mais popular. O navegador, desenvolvido por Pei-Yuan Wei na Universidade da Califórnia em Berkley, na época chegou até a ser recomendado como browser ideal pela Organização Europeia para a Investigação Nuclear (CERN).

ViolaWWW
Fonte da imagem: Wikipedia
A primeira versão do ViolaWWW saiu em abril de 1992, também para o sistema Unix. Foi o primeiro navegador a ter suporte para folhas de estilo e tabelas, além de scripts embarcados e formulários para a entrada de informações.

Clientes de email

Um dos primeiros clientes de email a ter uma interface com o usuário, ainda que em modo texto, foi o Elm. Criado por volta de 1986, ele oferecia aos usuários a possibilidade de responder e repassar mensagens com atalhos fornecidos em uma linha de comando.

Que tal a cara do Elm?
Fonte da imagem: Wikipedia
A última versão do Elm foi lançada em 2005 e, por incrível que pareça, ainda está em desenvolvimento, mesmo que funcione apenas em modo texto e em sistemas Unix. Hoje esse cliente de email tem funções mais avançadas, como a possibilidade de ordenar as mensagens por data ou nome, além de poder lidar com anexos e ter uma interface mais visual.
Um dos concorrentes do Elm foi o MUTT, lançado em 1996 e que trouxe novidades de peso, como a possibilidade de ordenar as mensagens por assunto (threads) e de utilizar os protocolos POP e IMAP.

Outros clientes de email popular na época foi o Citadel/UX, que tinha suporte para criptografia SSL e para diversos protocolos de email, além de possibilitar que seus usuários compartilhassem agendas.

Além desse, também podemos destacar o Eudora, que nasceu em 1988 e o YAM, que tinha suporte para múltiplos usuários, hierarquia ilimitada de pastas, filtros, interface configurável e diversas funções que fazem parte ainda hoje dos clientes de email mais modernos.

E acredite, naquela época também já existiam spammers. O primeiro registro de que se tem notícia de um spam foi sobre o anúncio de um novo sistema de computador em 1973, enviado para mais de 600 usuários da ARPANET, que tiveram seus endereços digitados manualmente pelo spammer. Haja paciência!

Comunicação instantânea

Conversa por meio do Talk
Fonte da imagem: Wikipedia
MSN? Google Talk? Nada disso! Os primeiros softwares de comunicação instantânea não tinham nem um servidor central, em que os usuários se conectavam. A comunicação era feita no estilo peer-to-peer, ponta a ponta.

O comando talk, do Unix, foi muito popular durante os anos 80 e início da década de 90. Uma característica curiosa era o fato de que a mensagem era enviada letra a letra e, portanto, a outra ponta podia ler as palavras à medida que elas eram digitadas.

Outro sistema muito popular e bem mais moderno é o Internet Relay Chat (IRC). Inventado em 1988, o protocolo foi desenvolvido para possibilitar a comunicação em grupo, em salas de bate-papo chamadas de “canais”. Porém, o sistema também possibilitava conversas privadas e até mesmo troca de arquivos.

XChat, cliente IRC em uso ainda hoje
Fonte da imagem: Wikipedia

Engana-se quem pensa que o IRC está morto e que usar o mIRC é coisa do passado. Em maio de 2009, os cem principais servidores de IRC da internet proporcionaram conversas entre mais de meio milhão de usuários, distribuídos em centenas de milhares de canais. É comum encontrar canais dedicados a projetos de software livre em redes como a Freenode e OTFC, em que desenvolvedores e usuários discutem os rumos de cada projeto.

Em meados dos anos 90 começaram a surgir os clientes de mensagem instantânea mais parecidos com o que temos hoje dia. Entre eles destacam-se o PowPow, desenvolvido pela empresa Tribal Voice, o AOL Instant Messenger (AIM), ainda em desenvolvimento e uso, e o famoso ICQ, que teve sua primeira versão lançado em 1996 e foi o primeiro software desse tipo a ser amplamente utilizado na internet.

Os sites do passado

Que tal a aparência do Baixaki em 2001?

Pouca gente sabe, mas existe uma espécie de museu online que guarda cópias dos sites ao longo dos anos. A Wayback Machine é uma máquina do tempo virtual, mantida pela Internet Archive, uma organização sem fins lucrativos com base em São Francisco, Califórnia.

Ao visitar o site do projeto, o usuário pode ver como eram as páginas anos atrás e até navegar por elas. Quer ver como era o Baixaki em 2001, por exemplo? Então acesse a Wayback Machine, digite o endereço http://baixaki.com.br no campo para entrada de texto, e clique no botão “Show All”. Depois, basta navegar pelo calendário e pela história do site.

Aproveite e confira também como eram as páginas iniciais do Yahoo! em 1996, do Google em 1998 e do portal Terra, em 2000.

sexta-feira, 6 de abril de 2012

Internet no celular: qual operadora escolher?

Saiba quais são os planos das principais operadoras para que você possa acessar a internet a partir do celular sem perder o controle de quanto dinheiro sai do seu bolso. 
 
 
Acessar a internet a partir do celular já se tornou uma realidade para muitos brasileiros. Com smartphones cada vez mais acessíveis – alguns modelos já podem ser encontrados por R$ 300 –, as opções de planos pré-pagos permitem que o consumidor acesse a web gastando menos de R$ 0,50 por dia.

Contudo, antes de escolher um plano apenas pelo valor, é preciso levar em consideração o seu perfil de consumidor e qual será o uso que você fará da internet em seu celular. De nada adianta pagar por um plano que proporcione um pacote diário maior de dados se, em hipótese alguma, você acabará utilizando nem ao menos a metade da franquia disponível.

 
(Fonte da imagem: iStock)

As tabelas abaixo mostram algumas das opções disponibilizadas pelas próprias operadoras. Todos os valores e condições foram retirados dos sites oficiais da Claro, da Oi, da TIM e da Vivo, com consulta realizada entre os dias 3 e 5 de abril. Dessa forma, os valores são de inteira responsabilidade das companhias e estão sujeitos a alterações.

Além disso, é importante ressaltar que muitas vezes as operadoras podem ser flexíveis com seus planos, oferecendo condições diferenciadas para aqueles consumidores que já possuem outros planos de minutos em ligação e envios de mensagens. Por isso, antes de fechar negócio, vale a pena entrar em contato com a companhia em questão e verificar se é possível contratar uma proposta personalizada.

Planos pré-pagos

Os planos pré-pagos respondem hoje pela maior parcela de consumidores que acessa a internet via celular. De simples configuração, rápido acesso e baixo custo, eles acabam atraindo a maioria dos clientes que têm como perfil o uso de redes sociais e pequenas consultas diárias para leitura de notícias ou emails.

Nessa modalidade de plano, três itens devem ser observados pelo consumidor: quanto será o investimento mensal, qual é a velocidade máxima de conexão e qual é franquia de dados diária que você tem disponível. A forma de contratação, bem como as condições de uso, também varia de operadora para operadora.

Preço e contratação

Este é o principal item que deve ser observado pelo consumidor e, por conta disso, muitas vezes o que parece mais atrativo em uma propaganda pode não ser a condição mais vantajosa no final do mês. Claro, TIM e Oi possuem opções de planos que podem ser pagos apenas pelo dia de uso. Se em 30 dias você utiliza a internet apenas durante 12 deles, pagará apenas pelos dias em que navegou. O custo entre as três é exatamente o mesmo (R$ 0,50 por dia ou R$ 15 por mês).

Contudo, contratar planos com maior período de fidelidade pode acabar pesando menos no seu bolso, caso você utilize o aparelho para navegar em todos os 30 dias. O plano semanal da Oi, por exemplo, custa R$ 2,90 por semana, totalizando R$ 11,60 durante o mês. Na Claro, a opção intermediária é o plano quinzenal (R$ 6,90 a cada 15 dias, totalizando R$ 13,80 por mês).
Quem quiser optar por uma franquia mensal pode economizar ainda um pouco mais. Os planos da Oi e da Vivo podem sair por apenas R$ 9,90 por mês, o que significa na prática um custo de R$ 0,33 por dia. O plano mensal da Claro custa um pouco mais, contudo ainda assim sai mais barato do que as outras opções da operadora.

Pacote de dados e velocidade

O segundo aspecto a ser analisado é qual a franquia disponível dentro do plano que você contratou. As operadoras costumam adotar políticas diferentes, de acordo com o seu tipo de plano. Dependendo do propósito com que você pretende utilizá-lo, contratar um plano com apenas 1 MB por dia, por exemplo, pode não ser o suficiente.

Porém, se o que mais preocupa você é a velocidade de transferência de dados, leve esse item em consideração antes de adquirir um plano. Vivo e Oi oferecem velocidade máxima de até 1 Mbps, o que significa que ela pode ser abaixo desse valor. Já a Claro e a TIM prometem velocidades de até 300 kbps. Em qualquer uma delas, a velocidade é reduzida após a franquia ter sido atingida.

Planos pós-pagos

Para quem está disposto a assumir a mensalidade de um plano de dados, as opções aumentam consideravelmente. Além dos planos tradicionais oferecidos pelas companhias, consumidores que já possuam outros pacotes de dados e mensagens podem ainda personalizar a tarifa, o que faz com que a variação seja grande nesse quesito.

Claro

A operadora Claro está entre as que oferecem um maior número de opções para os clientes. Basicamente, há duas modalidades distintas: controle e pós. Na primeira, após exceder o valor da franquia contratada, o custo por MB a mais é cobrado à parte, chegando a R$ 4/MB. Entretanto, os valores dos planos são de, no máximo, R$ 11,90.
 
Já na modalidade pós, há nove opções de pacotes de dados. Com exceção da franquia de 10 MB, nas demais a operadora oferece o dobro da franquia contratada. Assim, adquirindo 100 MB, por exemplo, você ganha o direito de transferir 200 MB durante os 30 dias. A velocidade é mantida caso você exceda o valor da franquia, mas os MB a mais são tarifados.

Oi

A Oi também aposta na variedade de planos para seduzir o consumidor. Com velocidade máxima de 1 Mbps, a empresa comercializa seis planos distintos, cuja variação está na franquia mensal disponível. Os pacotes vão de 50 MB a 2 GB e os valores dos planos variam entre R$ 14,90 e R$ 84,90. Após o uso da franquia, não há tarifação, mas a velocidade máxima de navegação é reduzida para 150 kbps.

TIM

A TIM aposta na simplicidade para o consumidor e disponibiliza um único tipo de plano na modalidade pós-paga. Por R$ 29,90 mensais, é possível contratar o Liberty Web Smart, com pacote mensal de 300 MB e velocidade máxima de navegação de 1 Mbps. Após o uso da franquia, a velocidade é reduzida para 50 Kbps.

 

Vivo

A Vivo é uma das empresas que oferecem a maior variedade de planos. O consumidor pode contratar franquias que variam de 20 MB/mês a 10 GB/mês. Após atingir a franquia contratada, é possível ainda optar entre redução da velocidade, que por padrão é de até 1 Mbps, ou manutenção da velocidade, mediante pagamento adicional. Os valores iniciam em R$ 9,90 e podem chegar a até R$ 199 mensais.

O conselho mais importante: pesquise

Se com relação aos preços não é difícil escolher um plano que se adapte ao seu bolso, nos quesitos velocidade e pacote de dados muitas vezes só na prática é possível definir qual é a franquia que melhor se adequa ao seu perfil. Por isso, depois de enquadrar os valores dentro do seu orçamento, escolha uma plano mais barato e com franquia menor de dados.

À medida que for utilizando, você perceberá se o pacote mensal disponível é suficiente ou não e, caso seja necessário, poderá solicitar a mudança de plano a qualquer momento. Lembre-se: é melhor economizar desde o início até encontrar um plano que se adeque ao seu perfil do que pagar por um serviço que talvez você nunca precise utilizar.

quinta-feira, 5 de abril de 2012

Como a bomba atômica ajudou a criar a internet?

Apesar de terrível, o processo de desenvolvimento da bomba atômica foi fundamental para a criação da internet.


    Por Felipe Arruda em 29 de Março de 2012
     
     
    Teste aquático com bomba atômica de 21 quilotons (Fonte da imagem: U.S. Army)

    Não há dúvidas de que toda guerra é triste e trágica. Isso piora exponencialmente caso o uso de armas nucleares esteja envolvido. Para constatar os terríveis efeitos de uma bomba atômica, por exemplo, basta assistir aos inúmeros documentários existentes sobre as cidades de Hiroshima e Nagasaki. Porém, também é inegável que muitos avanços tecnológicos e científicos foram desenvolvidos pela indústria militar, especialmente a dos Estados Unidos.
    Durante os anos 50, a terra do Tio Sam enfrentava um dos momentos mais tensos de sua história, se preparando para um conflito nuclear com a União Soviética que poderia matar centenas de milhares de pessoas e devastar parte da infraestrutura dos países. Para combater essa ameaça, os conselheiros do então Presidente Harry S. Truman recomendaram aos Estados Unidos um enorme rearmamento para acabar com a “ameaça comunista”.

    O início da Guerra Fria

    Na ocasião, um relatório de 58 páginas descrevia as ações a serem tomadas pelo país, incluindo a possibilidade de ataques nucleares de prevenção à URSS. Em 1952, a eleição do novo presidente dos Estados Unidos, Dwight David Eisenhower, continuou a “aquecer” a Guerra Fria, ameaçando a URSS de uma “retaliação massiva” caso um ataque fosse feito aos EUA, independentemente do tipo de armamento utilizado, nuclear ou comum.

    Entretanto, por volta de 1961, o Secretário de Defesa norte-americano, Robert McNamara, descartou a possibilidade de retaliação massiva e passou a adotar uma estratégia mais flexível para reagir aos possíveis ataques da URSS, evitando, por exemplo, que as cidades soviéticas fossem consideradas como alvos em potencial.

    Mísseis poderosos, controles vulneráveis

     
    Inspeção do míssil Minutemen I, de 1962 (Fonte da imagem: U.S. Air Force)

    Ao mesmo tempo, os mísseis nucleares norte-americanos ficavam cada vez mais precisos e mais rápidos, reduzindo, por exemplo, o lançamento de um desses projéteis de oito horas para questão de alguns minutos, graças ao uso de propelentes de estado sólido. Tudo isso estava devidamente preparado para o caso de um ataque ter que ser feito às pressas, com a mínima provocação possível do adversário.

    Entretanto, o cenário atual das instalações militares gerou uma preocupação: os mísseis eram potentes e fáceis de serem disparados, porém, os controles operacionais para que essa ação fosse executada continuavam tão vulneráveis quanto os de uma década atrás. Em 1963, um documento secreto enviado para o presidente Kennedy descrevia uma série de cenários de ataques nucleares que poderiam colocar os EUA em maus lençóis, incluindo um em que a União Soviética poderia matar de 30 a 150 milhões de pessoas e acabar com até 70% da capacidade industrial do país.

    Com base nesses casos, o documento indicava, também, estratégias que o presidente deveria usar para reagir às investidas soviéticas e estabelecer a negociação de cessar-fogo. Entretanto, todas as essas ações exigiam um método de comunicação confiável e que pudesse sobreviver a ataques nucleares.

    Alternativa aos meios de comunicação da época

     
    (Fonte da imagem: Encore)

    A vulnerabilidade dos meios de comunicação e dos controles de mísseis assombrou os Estados Unidos durante a era nuclear. Uma explosão atômica na ionosfera, por exemplo, poderia prejudicar toda a comunicação por ondas de rádio FM durante horas, enquanto que algumas detonações em solo poderiam derrubar a central telefônica da AT&T.
    Em outras palavras, os Estados Unidos precisavam de um meio de comunicação que permanecesse ativo, para que o contato com as forças de ataque pudesse ser realizado a qualquer momento e de qualquer local, mesmo que elas ficassem espalhadas pelo país como uma estratégia de combate ao ataque do inimigo.
    Sendo assim, a RAND, instituição sem fins lucrativos com sede na Califórnia, foi incumbida de apresentar uma solução para o problema. E o resultado entregue pela organização foi revolucionário em diversos aspectos, chegando a guiar os princípios da internet que conhecemos hoje.

    À prova de bombas

     
    Com o novo modelo de rede, bombardeios não interromperiam a comunicação (Fonte da imagem: Wikimedia)

    Um pesquisador da RAND, Paul Baran, foi o responsável por uma solução que mudava radicalmente a forma e a natureza da rede de comunicação nacional. As redes convencionais, até então, possuíam comando e controle em seu centro e, a partir dele, o contato era estendido para os outros pontos da rede. Porém, isso era muito arriscado: uma bomba no centro e tudo pararia de funcionar.
    Sendo assim, Baran começou a pensar em uma alternativa para esse modelo, uma rede distribuída e que trabalhasse com o conceito de redundância, ou seja, caso uma de suas máquinas falhasse, outra entraria no lugar dela automaticamente.  A inspiração veio das teorias neurológicas, que tratavam da maneira como o cérebro poderia continuar operante mesmo após a morte de algumas de suas células.
    Entre os detalhes descritos no seu projeto de 1962, intitulado "On Distributed Communication Networks", estava o fato de que, na rede nova, uma mensagem não precisava de uma rota pré-definida para seguir. No modelo novo de comunicação, bastaria preencher os campos remetente e destinatário e, com base nisso, a mensagem encontraria o melhor caminho para chegar ao seu destino.

    Monitoramento autônomo

    Os diversos pontos que formam a rede, chamados de “nodos”, seriam os responsáveis por monitorar qual a rota mais rápida para cada estação e, a partir disso, direcionar a mensagem. Além de agilizar a comunicação, isso também faz com que o sistema possa desviar dos trechos inoperantes no momento, ou seja, o ataque a uma parte da rede não seria mais uma amaça.

    Além disso, Baran também notou que uma mensagem poderia ser enviada mais rapidamente caso ela fosse quebrada em pequenos “pacotes” de informações, que trafegariam independentemente pela rede, reunindo-se no destino final. Apesar de as ideias serem ótimas, havia um problema: como isso tudo seria implementado era um verdadeiro enigma, já que a tecnologia analógica da época não atendia aos requisitos exigidos pelo projeto.

    Para isso, Baran tinha uma proposta radical: unir computação e comunicação, duas áreas que, para a época, eram consideradas tão distintas que isso chegou a preocupar o pesquisador.

    A implementação das ideias de Baran


     
    Em 1965, as ideias de Baran foram repassadas, pela RAND, para a Força Aérea dos Estados Unidos, para que dessem continuidade à pesquisa e desenvolvimento do projeto. Como é fácil de ter percebido, o projeto já continha a base da internet que conhecemos hoje. Entretanto, não foi fácil convencer a AT&T, que detinha o monopólio da rede telefônica na época, de que seria importante colocar os novos conceitos em prática, para testá-los.

    Como as ideias eram inovadoras demais para aquele tempo, a AT&T demonstrou muita resistência. Mesmo com experimentos acadêmicos do Instituto de Tecnologia de Massachusetts, em 1965, que conseguiram realizar a troca de pacotes de dados entre computadores de cidades diferentes ligados em rede, a telefônica da época não demonstrou interesse no meio de comunicação digital, mesmo com as estimativas de que o novo modelo seria muito mais barato de se manter do que o analógico, cuja manutenção custava cerca de US$ 2 bilhões anuais.

     
    Representação gráfica dos diferentes modelos de redes de comunicação (Fonte da imagem: Cyber Telecom)

    Por essas razões, a AT&T não aceitou a proposta da Força Aérea. A única alternativa era a Agência de Comunicação de Defesa (DCA), mas Baran não acreditava que eles estariam interessados. Por não entenderem muito bem o conceito por trás da comunicação digital, empresas e organizações não viam o projeto com muito ânimo.

    Depois disso, o projeto foi arquivado. Foi só em 1969, quando a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) começou a desenvolver um projeto de terminais interconectados com o propósito de compartilhar recursos computacionais, o material desenvolvido por Paul Baran foi uma das fontes consultadas. Assim, podemos dizer que a resistência da troca de pacotes de dados que temos hoje na internet se deve, em grande parte, a uma pesquisa iniciada para desenvolver uma rede capaz de sobreviver a um ataque nuclear.

    E como se não bastasse, Paul Baran, que faleceu em março de 2011, também está entre os criadores de outra invenção muito útil nos dias de hoje: as passagens com detectores de metal usadas em aeroportos do mundo todo.

    ....

    Esse é o começo da história adaptada pelo site Ars Technica e contada por Johnny Ryan no livro “A History of the Internet and the Digital Future”. Infelizmente, a obra ainda não foi lançada no Brasil. Para saber um pouco mais sobre o desenvolvimento da internet, não deixe de conferir os infográficos sobre a história da internet até os anos 80 e durante os anos 90. Além disso, para complementar ainda mais o assunto abordado, há um artigo especial sobre a trajetória da internet no Brasil.
    tecmundo