quinta-feira, 14 de abril de 2011

Informática - Android

Lista dos Androids onde é possível obter acesso de root

Obter acesso de root no Android é um pré-requisito para poder usar muitos tweaks e utilitários, que vão desde ferramentas de thetering e ferramentas de acesso remoto, até modificações mais atrevidas, utilitários de overclock, para mudar o DPI da tela (fontes e ícones menores), rodar o Ubuntu e assim por diante. Com acesso de root você tem controle total sobre o sistema e pode utilizar os recursos oferecidos por ele como bem entender, com acesso a todos os binários e arquivos de configuração. Para qualquer geek, um Android sem acesso de root é como uma Ferrari que não passa dos 80 por hora, o que faz com que esse seja um fator importante na hora da compra.





Os desenvolvedores do Unrevoked publicaram uma lista com aparelhos recomendados e não recomendados em relação ao acesso de root. As melhores opções são sempre aparelhos como o Nexus One e o Nexus S, bem como o Xoom e outros aparelhos já colocados no mercado com este intuito. Em segundo lugar temos aparelhos como o Galaxy S, HTC Magic, Milestone e ZTE Blade, que podem ser rootados facilmente, bem como aparelhos como o HTC Evo, HTC Desiree HD, LG Optimus S e Galaxy 3, que possuem sistemas fracos de segurança, que podem ser bipassados com os passos certos.

Os piores são aparelhos como o Xperia X10, HTC Wildfire, Motorola Droid X, Droid 2, Droid Pro, Milestone 2 e praticamente todos os outros aparelhos da Motorola, que utilizam partições digitalmente assinadas, e que ainda não possuem previsão de quando serão crackeados. Neles, é até possível fazer modificações no sistema, mas sem acesso de root e sem acesso ao gerenciador de boot, as possibilidades são bastante limitadas.

A lista completa está disponível no http://unrevoked.com/rootwiki/doku.php/public/root_friendly

quarta-feira, 13 de abril de 2011

Rôbos - Tecnologia.

Feira mostra robôs inspirados em espécies de peixes e anfíbios
Robôs imitam formas e movimentos de animais.
Evento realizado na França reúne pessoas de 17 países.



O professor italiano Cesare Stefanini apresenta um robô biônico que imita uma espécie de peixe chamada lampreia durante o Workshop Internacional de Robôs Bioinspirados. O evento, realizado em Nantes, na França, reúne cerca de 200 pessoas de 17 países para exibir robôs que imitam formas e movimentos de animais (Foto: Damien Meyer/AFP)



Outro robô biônico apresentado na feira em Nantes, na França, imita os movimentos e as cores de uma salamandra, uma espécie de anfíbio. Usando animais como modelos para robôs, cientistas pretendem usá-los para fazer testes biológicos (Foto: Damien Meyer/AFP)

segunda-feira, 11 de abril de 2011

Informática - Linux.

A saga dos drivers e firmwares proprietários em sistemas GNU/Linux

Introdução

Lá pelo final do século passado, um importante fabricante de hardware especializado tomou uma decisão inédita: liberar as especificações técnicas de seus produtos, para que os desenvolvedores pudessem criar drivers livres com o suporte adequado (sob um contrato de não-divulgação dessas informações chamado NDA). Tal evento permitiu na entrada do Tux em uma nova área da computação, até antes inimaginável: os jogos. O fabricante em questão era a "finada" Voodoo (adquirida pela nVidia), os drivers criados ofereciam suporte à API Glide (já extinta) por parte do servido XFree86 (hoje X.org) e os produtos vendidos eram as aceleradoras 3D da série Voodoo, como as Voodoo clássicas, a série Banshee e as "novíssimas" Voodoo 3...

Nos dias atuais, a nVidia e a AMD/ATI vêm atacando nas duas frentes, liberando tanto drivers proprietários (ForceWare e Catalyst) quanto auxiliando as investidas na criação de drivers livres (Noveau e RadeonHD), embora muitas das inovações tecnológicas ainda estejam concentradas para a plataforma Windows. Quanto às demais (Intel), há tempos dispõem de drivers abertos (mas pela insignificante parte do mercado que dominam, a Via e a SiS não contam). Mesmo assim, nem tudo são flores no universo dos drivers & firmwares proprietários para sistemas GNU/Linux.

Ainda por volta desses anos, o mercado nacional foi invadido com uma enxurrada de modens especiais, chamados de softmodens: estes, ao invés de processarem via hardware as instruções relacionadas ao tratamento do sinal, forneciam apenas os componentes físicos necessários para prover a conexão com a linha telefônica, deixando a CPU responsável por esta tarefa, mediante do uso de drivers especiais. Ora, como a grande maioria das empresas dedicavam-se ao Windows por questões mercadológicas (motivo pelos quais estes dispositivos eram também chamados de winmodens), muitos linuxers iniciantes ficaram à ver navios, dependendo de conexões banda-larga compartilhadas ou até mesmo um PC desktop com o Windows, compartilhando a conexão discada.

Outra situação interessante a ser citada, são os drivers proprietários para alguns chips das interface de redes wireless. Empresas, como a Atheros e Broadcom (infelizmente, as principais), não fornecem drivers livres para o Tux, nos obrigando a nos contentar com limitados drivers livres desenvolvidos por terceiros, onde a sua implementação foi baseada no uso de técnicas de engenharia reversa. Entretanto, através de programas como o NDISWrapper, poderemos utilizar drivers feitos para o Windows no Linux, pois tal solução atua como uma espécie de interpretador, traduzindo comandos nativos para o kernel daquele sistema para o nosso amado Tux. Funciona? Sim, mas não como desejaríamos, com uma série de limitações e instabilidades. Pelo menos, com a grande adoção do Android em dispositivos móveis, esperamos que este cenário mude à meio ou longo prazo.

Estes são apenas alguns exemplos clássicos de hardwares não são suportados, devido ao fato de muitos fabricantes não se interessarem em desenvolverem os drivers de código-aberto adequados, para que estes possam ser integrados ao kernel Linux. Em muitos casos, até existe um certo interesse; mas, devido à forte concorrência entre os fabricantes, eles temem que a publicação destas peças de softwares possam revelar a forma como as suas tecnologias funcionam debaixo dos panos, possibilitando a concorrência utilizá-las para outros propósitos. Em outras circunstâncias, determinadas codificações "denunciam" o uso de métodos e/ou procedimentos protegidos por patentes de softwares, os quais acabam resultando em caros processos na justiça.

Por outro lado, graças à este cenário sombrio, uma série de iniciativas começaram a aparecer, em prol do desenvolvimento de drivers livres. Uma delas até inusitadas, como foi o caso de um físico francês que desenvolveu os drivers necessários para o funcionamento de 235 webcams diferentes. E o mais interessante: ele o fez puramente por hobby, para atender os desejos da filha que não podia usar os dispositivos, porque simplesmente não eram suportados! Isto foi possível devido ao fato de que diferentes webcams compartilham o mesmo projeto de controlador; neste caso, os drivers genéricos SPCA5XX e o GSPCA (Generic Software Package for a Camera Adapters) possibilitaram o suporte de uma pequena família de controladores para webcams.

Mas foi no final de janeiro de 2007, que Greg Kroah-Hartman escreveu um novo capítulo, ao postar em seu blog o anúncio da comunidade de desenvolvedores do kernel Linux, para o desenvolvimento gratuito de drivers de dispositivos sem suporte ao Tux. Bastaria apenas aos fabricantes interessados enviar as especificações técnicas do dispositivo, descrevendo como ele funcional, além de reportar o contato (e-mail) do engenheiro responsável pelo projeto do hardware, para que este último possa responder algumas questões técnicas sobre o projeto, a fim de facilitar o desenvolvimento dos drivers em questão. Inclusive, as cláusulas NDA (Non-Disclosure Agreement) seriam respeitadas. Eis, uma grande iniciativa! No entanto, se por um lado os problemas de falta de drivers são resolvidos, por outro lado novos inconvenientes começam a surgir: a indignação dos entusiastas do Software Livre em relação à utilização de firmwares proprietários no kernel (também chamados de blob binários).

Como bem sabemos, todo e qualquer software - firmwares ou drivers - escrito que esteja interagindo com o kernel e utilizando os seus recursos, deverá ter o seu código-fonte disponibilizado livremente, sob os termos da licença GNU GPL. No entanto, devido às questões mercadológicas envolvidas, muitos fabricantes não aceitam tais termos, o que penalizaria bastante o kernel Linux no que concerne o suporte a hardwares. As desculpas (por parte das empresas), é a mesma: proteção de sua propriedade intelectual, que pode ser usada pela concorrência, se for revelada através da abertura do código-fonte de seus firmwares. Tal problema é (ideologicamente) tão grave, que Richard Stallman chegou a anunciar que o kernel Linux "não é Livre".

A partir deste contexto, surgiram algumas interessantes iniciativas. Em destaque, temos o anúncio do Linux Libre, o qual disponibiliza o próprio kernel Linux, mas adaptado com a remoção de todos os trechos de códigos que fazem a ligação do núcleo com os firmwares proprietários dos dispositivos suportados. A ideia original já havia sido adotada pelo gNewSense, que nada mais era uma derivação direta do Ubuntu, mas livre de todo o tipo de softwares proprietários. A seguir, veio o Debian, que lançou a sua mais recente distribuição (Squeeze) dotada de um kernel totalmente livre de softwares proprietários. Porém, embora estejam desabilitados, tais peças de softwares ainda se encontram disponíveis, em um repositório à parte denominados firmware-nonfree.

E assim, a vida (do Tux) continua...

Se até este presente momento, os leitores do Hardware.com.br acham que os softwares proprietários são o maior problema, ainda há mais por vir: trata-se do DRM, um mecanismo de regulamentação de direitos autorais que impede os usuários de executarem ou reproduzirem conteúdos modificados - neste caso, um software (firmware) de um determinado hardware protegido pela DRM. Prevendo estas (e outras) possibilidades, a GNU GPL em sua versão 3 considera uma série de aspectos restritivos relacionados à estas práticas, criando regras que restringem o uso de proteções como o DRM, quando este último é designado para impedir a possibilidade de edição do código-fonte licenciado sob os termos da GNU GPL (embora não proíba o seu uso, ao contrário dos que muitos pensam). Bem, tais mudanças repercutiram tanto na comunidade, que até o próprio Linus Torvalds a rejeitou.

Até mesmo as tão temidas e odiadas patentes de softwares não ficam de fora, por tornarem a vida dos desenvolvedores um verdadeiro campo minado. Mesmo que o software livre tenha sido escrito à partir do zero, as ideias e os seus conceitos, além das tecnologias envolvidas, podem estar "protegidas" por patentes de softwares, que não só inviabiliza o seu desenvolvimento, como também concede aos donos das patentes o "direito" de decidir o destino de todo o trabalho desenvolvido até então. Idem sobre as leis de direitos autorais, que dificultam a redistribuição de um código-fonte protegido por ela.

Mas este assunto, fica para uma próxima oportunidade... &;-D

Por Ednei Pacheco

Informática - falsificações.

HD 'mágico' da China: 500 GB com apenas 128 MB

Com certeza os falsificadores percorreram um longo caminho desde a época em que se comprava um video-game no Paraguai e chegava-se em casa com uma caixa cheia de pedaços de madeira. Hoje em dia temos não apenas uma gigante quantidade de produtos com um visual que imita outros produtos da moda, quanto também algumas falsificações bastante convincentes, principalmente em relação a baterias, cartões de memória, pendrives e outros itens.

Em muitos casos o golpe consiste em uma simples remarcação, ou seja, vender outro produto similar, porém de uma marca mais barata como se fosse um pendrive da Kingston ou uma bateria da Nokia, por exemplo, entretanto em outros a coisa pode ser bem mais grave:




Esta foto foi postada por um colega do leste da rússia, que mora perto da fronteira com a China. Esta é uma imitação de um HD de 2.5" externo da Samsung que parece autêntico se olhado por fora, com um invólucro que, excetuando-se alguns erros de escrita até que parece autêntico, inclui os logos e certificados:




Dentro dele temos duas porcas para simular o peso e um pendrive de 128 MB, cujo controlador foi modificado para funcionar em loop, reportando uma partição de 500 GB para o sistema e armazenando a tabela de alocação de arquivos, porém guardando apenas os 128 MB de dados copiados.

O resultado prático desse hack é que ao plugar o drive no sistema, ele é realmente identificado como um HD USB e o sistema reporta a presença de uma partição de 500 GB, e ao escrever vários arquivos a operação de gravação é realmente executada e o gerenciador de arquivos mostra todos os arquivos copiados, inclusive informando os tamanhos corretamente. Entretanto, ao tentar abrir or arquivos, você perceberá que estão todos vazios, com exceção do último, que conterá os 128 MB finais.

Este mesmo hack é muitas vezes encontrado em pendrives falsificados, onde a capacidade real pode ser bem mais baixa que a reportada, graças ao emprego do mesmo hack. Como uma indústria de falsificação tão desenvolvida quanto a que existe na China, um simples controlador modificado é coisa de criança.

Informática - Windows.

Segundo a StatCounter o Windows 7 passou do Windows XP em uso nos EUA: agora ele é usado em cerca de 32,2% dos computadores de lá, enquanto o XP fica com a marca - ainda grande - de 30,7%. É a primeira vez que notam o 7 passando do XP, mesmo considerando que essas estatísticas podem apresentar margens de erro bem grandes perto da realidade.



O Windows Vista, maior fracasso comercial da MS depois do Millennium, fica com 19,5% e o Mac OS X com 14,8%. Apesar de ter fama de caro (mesmo por lá, quando comparado a outros PCs e notebooks) o sucesso dele nos EUA é bem maior do que em outros países, por uma série de questões.

Em números globais, no entanto, o bom e velho XP continua resistindo na liderança. A StatCounter estima a porcentagem de uso global do XP como 46,8%, número impressionante considerando a idade dele - foi lançado em 2001! O 7 globalmente fica com 31,5%.

Confirmando que esses números não querem dizer muita coisa, afinal consideram apenas alguns "vários" grandes sites nas estatísticas de acessos, a Net Applications ainda aponta uma menor participação do Windows 7: 24,2% globalmente, e o XP com 54,4%.

O Linux sempre fica com aquela parte de quase 1% bastante duvidosa, dando a entender que ainda é restrito a um público mais técnico, geek, fã do sistema mesmo ou no mínimo usado por amigos ou parentes de alguém que recomendou.

Vamos ver como serão as coisas com o Windows 8, afinal não é todo mundo que topa trocar de sistema a cada 3 anos pagando por ele. O Windows 7 foi tão bem recebido que, dependendo dos recursos e forma de lançamento do 8, o 7 poderá ser o novo XP, resistindo por um bom tempo e prejudicando as vendas do seu sucessor.

Informática - novidades.

A empresa Cycle Computing construiu um supercomputador baseado em nuvem computacional com vistas à pesquisa científica.

Quem teve a ideia do projeto foi Jason Stowe, CEO e fundador da empresa, cuja área de atuação tem sido dar a seus clientes acesso a recursos de supercomputação que normalmente só estão ao alcance de universidades e grandes instituições de pesquisa.
Supercomputador Linux com 10 mil núcleos é construído na nuvem Amazon.


A Cycle Computing já tinha construído alguns blocos (conhecidos como clusters) computacionais na Elastic Compute Cloud (nuvem computacional elástica) da Amazon, chegando a atingir um poder de processamento equivalente a milhares de núcleos. Na verdade, arrebanhar 10 mil núcleos na Amazon já deve ter sido façanha realizada outras vezes. Só que, no caso de Stower, foi alcançado este número usando clusters de computação de alto desempenho, conhecidos como clusters HPC ( high-performance computing).

- Não há referências a qualquer feito maior do que este na área - disse Stowe.

Se tivesse sido testado com critérios de velocidade, o musculoso cluster, que é baseado no sistema operacional Linux, poderia ter sido suficientemente poderoso para entrar na lista dos 500 supercomputadores mais rápidos.

Mas detalhes no site " Network World ".

Informática - Futuro ?




Assim como o movimento dos corpos obedece às Leis de Newton, o universo da tecnologia se comporta há décadas como mandam os postulados de uma tal Lei de Moore. Elaborada em estudo publicado há 46 anos pelo fundador da Intel, Gordon Moore, a teoria diz que é possível colocar o dobro de transistores dentro de um microprocessador pelo mesmo custo de produção a cada 18 meses ou dois anos. O problema - que começa a desafiar a trilionária indústria da tecnologia - é que daqui a no máximo uma década a Lei de Moore não será mais aplicável. Além de causar enormes prejuízos, o fim do princípio pode, de acordo com previsões mais catastróficas, "balançar a estrutura econômica do capitalismo".

É justamente esse poder dado ao chip - a capacidade dos processadores de crescer exponencialmente em um curto espaço de tempo - que impulsiona uma robusta e bem-sucedida indústria movida a lançamentos fabulosos a cada Natal. Por isso, tão preocupante (para a indústria) quanto um mundo em que as maçãs de Newton venham a cair mais devagar é um cenário tecnológico sem a validade da Lei de Moore, pois as estruturas dos chips serão pequenas a ponto de desafiar as dimensões do átomo. Assim preveem cientistas, analistas e o próprio Moore.


Com seus negócios ameaçados por essa perspectiva, a indústria corre com as pesquisas para substituir a tecnologia atual e evitar a estagnação dos seus produtos. Nas palavras do físico do City College de Nova York, Michio Kaku, em seu recém-lançado "Physics of the future", "o colapso da Lei de Moore é um problema de importância internacional" que pode "balançar a estrutura econômica do capitalismo".

O que está em jogo é um mercado gigantesco. Apenas o setor de semicondutores (venda de chips), o embrião disso tudo, vai movimentar US$ 325 bilhões em 2011, segundo previsão da IHS iSuppli. E os produtos que ele proporciona movimentam cifras incalculavelmente maiores.
Tecnologia à base de luz pode substituir a atual, mas ainda é cara

Em 2011, a maior fabricante de processadores do mundo, a Intel, gastará US$ 7,3 bilhões em pesquisa e desenvolvimento para, entre outras coisas, driblar o fim da Lei de Moore. Mas nem ela nem suas concorrentes fazem previsões sinistras quanto as de Kaku.

- A Intel garante que continuará usando o silício até 2020. Até lá, portanto, a Lei de Moore continuará valendo. Mas estamos chegando cada vez mais perto do limite desse material - afirma Fidel Rios, engenheiro de aplicações da Intel no Brasil. - Por enquanto, o silício é o que oferece o melhor custo-benefício, mas já pesquisamos diversos outros materiais e tecnologias que podem substituí-lo para que o avanço dos chips prossiga sendo viável após 2020.

O diretor de engenharia da AMD, outra gigante do mercado de chips, não acredita no fim da Lei de Moore.

- Mesmo que sejam atingidos os limites de miniaturização de circuitos em silício, pesquisas por novos materiais e técnicas de construção de chips vão continuar permitindo crescimento de performance a médio e longo prazo - diz Roberto Brandão, que não revela quanto a AMD investe em pesquisa.

Apesar desse otimismo com as futuras tecnologias, há um temor real de que haja estagnação no mercado. Kaku prevê, por exemplo, que o Vale do Silício se transformará num "cinturão enferrujado" com o ocaso do material que lhe empresta o nome.

- Podemos dizer, sim, que a tendência é que haja uma estagnação no ritmo da indústria. Mas a área de microeletrônica tem evoluído de forma fantástica e, com a necessidade se impondo, as empresas procurarão uma solução - analisa Antonio Petraglia, professor de engenharia elétrica da Coppe/UFRJ com pós-doutorado na Universidade da Califórnia.

Os fabricantes de equipamentos eletrônicos serão diretamente afetados pelo destino da Lei de Moore. Procuradas, Positivo, Dell, HP e a Associação Brasileira da Indústria Elétrica e Eletrônica (Abinee) não se posicionaram sobre a questão.

Já Len Jelinek, pesquisador da consultoria americana IHS iSuppli, diz que o consumidor não se sentirá afetado:

- Os consumidores estão mais interessados em como as coisas funcionam do que na tecnologia que há por trás.

Otimismos à parte, é provável que os transistores no silício farão, em breve, parte do passado. Nesse caso, o que virá dentro de PCs, Macbooks e smartphones?


A resposta mais provável é a tecnologia óptica. Como lembra o cientista-chefe da IBM no Brasil, Fábio Gandour, pode ser viável "trocarmos o elétron pela luz". Ou seja, fazer com que as informações circulem dentro do chip por meio de fótons, em vez de eletricidade. A tecnologia é promissora porque gasta menos energia, emite menos calor e é muito mais rápida. Só que, por enquanto, é cara demais. Gandour também aponta como opção o nanotubo de carbono, cuja vantagem maior está na espessura de sua "parede": apenas um átomo. Outra tecnologia cara demais por ora
Enquanto essas opções se mostram economicamente inviáveis, a indústria tenta uma sobrevida à Lei de Moore, estendendo as potencialidades dos circuitos integrados.

- Exemplos disso são os chips com mais de um componente, como a linha Fusion da AMD e a Sandy Bridge da Intel, que integram o processamento gráfico ao circuito tradicional. Ou seja, fazem duas coisas num só componente - afirma Jelinek.

Antonio Petraglia, da Coppe, diz que as fabricantes de chip também usam bastante o germânio, semi$, para potencializar o fluxo de elétrons dentro do chip.

- A Lei de Moore não é uma lei física e, sim, uma percepção adequada da tecnologia. Mas ela é, antes de qualquer coisa, uma excelente jogada de marketing - polemiza Gandour. - Estamos chegando, sim, perto do limite da tecnologia empregada hoje, mas isso só assusta quem não investe em pesquisa e desenvolvimento. E isso a IBM faz com US$ 6 bilhões anuais.
'Software terá papel mais importante', diz pesquisador

Se o futuro dos chips é uma dúvida, o certo é que a ciência e o consumo demandam máquinas cada vez mais potentes. Exemplo disso são computadores capazes de realizar processos complexos ao mesmo tempo, como o Watson da IBM, que venceu humanos num programa de perguntas e respostas nos EUA há alguns meses. Ou, como lembra Fidel Rios, da Intel, computadores intuitivos, que respondem ao pensamento.

Enquanto os esforços se concentram no avanço sem fim do chip para possibilitar esse futuro, alguns cientistas questionam se os processadores terão papel tão relevante assim. Pesquisa publicada em dezembro por um grupo de conselheiros da Casa Branca diz que o aperfeiçoamento dos algoritmos dos softwares - área que até pouco tempo esteve no segundo plano da ciência da computação - promove resultados milhares de vezes mais eficazes no desempenho dos computadores do que as melhorias no hardware. É nisso que acredita o coordenador do Centro de Referência em Inteligência Empresarial (Crie) da Coppe/UFRJ, o engenheiro de produção Marcos Cavalcanti:

- Estamos passando por uma mudança de paradigma. O futuro da computação está muito mais ligado ao gerenciamento de vários processos, vários chips, do que em chips mais poderosos. O software desempenhará papel mais importante do que o hardware.

PS.Parece que minhas suspeitas estão se confirmando. :(

domingo, 10 de abril de 2011

Informática - Novas Tecnologias.





Montei esse servidor para realizar as seguintes tarefas em minha casa:

- Servidor de impressão.
- Servidor de Arquivo.
- Servidor de Rede compartilha a internet por Wireless.
- Servidor Web.
- Servidor de Câmeras de vigilância Wireless.

Esta operando como o panejado e muito bem. :)

sábado, 9 de abril de 2011

Novo mapa da Terra, gravitacionalmente falando

Novo mapa da Terra, gravitacionalmente falando: "O formato de batata do geóide resulta da equalização da superfície do planeta para que todos os pontos tenham exatamente a mesma gravidade."



Novo mapa da Terra, gravitacionalmente falando

"O formato de batata do geóide resulta da equalização da superfície do planeta para que todos os pontos tenham exatamente a mesma gravidade."

Tecnologia Espacial.



Uma chance para quem quer dar uma volta no espaço.