quarta-feira, 7 de março de 2012

Microsoft publica preview do Windows Embedded Standard 8

A Microsoft publicou uma versão de testes do Windows Embedded Standard 8, uma versão do sistema dela para dispositivos embarcados. Normalmente o Windows Embedded é utilizado em dispositivos de controle de acesso, caixas eletrônicos, equipamentos industriais e médicos diversos, entre outras áreas.

O download está disponível na forma do Community Technology Preview. Vários componentes comuns do Windows 8 estão sendo portados para ele, incluindo os recursos de toque e aplicativos Metro, o que poderá facilitar a interação com os usuários em diversos tipos de máquinas. Isso implica em grandes mudanças no sistema, levando para esta versão muito daquilo que se viu no preview do Windows 8 para desktops.

O preview do Windows Embedded Standard 8 está disponível apenas para processadores x86. Ele facilita a intregração de certos tipos de aplicativos, funcionando de forma um pouco mais modular do que o tradicional Windows que conhecemos.

Vários recursos comuns do Windows 8 estão disponíveis nele já, como o AppLocker para bloqueio de aplicativos indesejados, BitLocker para criptografia do dispositivo de armazenamento, aquele famigerado boot protegido com UEFI, entre várias outras coisas listadas neste documento (PDF).

A edição Enterprise desta versão do Windows deverá ser lançada três meses depois que o Windows 8 para desktops for lançado, com a edição Standard vindo depois de seis meses. A versão Embedded Compact deve aparecer já no segundo semestre. Tudo indica que também estará disponível para ARM, seguindo a linha do Windows daqui para frente.

Assim como nas outras versões de testes desta edição do Windows, é necessário preencher um cadastro e responder a uma pesquisa para obter a chave de registro (famoso número serial) e iniciar o download. Essa versão de testes irá expirar em janeiro de 2013. Na prática qualquer um com uma Windows Live ID pode baixar.

Fonte: http://www.hardware.com.br/noticias/2012-03/windows-embedded-standard8.htm

sábado, 3 de março de 2012

Programador do Megaupload recebe liberdade condicional



O responsável pela programação do site Megaupload, Bram van der Kolk, após ter o direito à liberdade condicional na Nova Zelândia, deixou a sede do tribunal de North Shore, nesta quinta-feira, junto com a esposa. As informações são da agência "EFE".

Sócio da empresa, Van der Kolk, de 29 anos, aguarda o julgamento de extradição aos Estados Unidos pelas acusações de pirataria virtual, crime organizado e lavagem de dinheiro ao lado do fundador da página, Kim Dotcom, e mais outros cinco acionistas.

O holandês recebeu o direito à condicional junto com o responsável técnico Finn Batato, de 38 anos, em janeiro, mas estavam presos aguardando o parecer sobre a idoneidade dos locais de residência propostos. O técnico, no entanto, ficará no presídio por mais uma noite, por ainda não ter recebido a permissão por escrito da esposa de Kim Dotcom autorizando sua estadia na mansão do dono da empresa.

Cofundador do Megaupload, Mathias Ortmann, 40 anos, irá ao tribunal de Manukau nesta quinta-feira para saber se tem ou não liberdade condicional.

Fonte: http://www.sidneyrezende.com/noticia/161625+programador+do+megaupload+recebe+liberdade+condicional

Hackers atacaram Nasa pelo menos 13 vezes em 2011, diz agência


Foto: DivulgaçãoA Agência Espacial dos Estados Unidos, Nasa, afirmou esta semana que foi vítima de 13 grandes violações em seus sistemas, provocadas por hackers, apenas no ano passado. Entre os ataques, foram roubadas credenciais de funcionários e acessados projetos confidenciais para missões do grupo.


De acordo com o inspetor-geral da Administração Nacional de Aeronáutica e do Espaço, Paul Martin, essa sensibilidade diante dos hacker pode ser prejudicial à segurança do país. Ele comentou sobre o assunto durante um Congresso que tratou exatamente das violações cibernéticas.
Ele explicou que em novembro a Nasa conseguiu identificar que os hacker estavam trabalhando a partir de um endereço protocolar (IP) da China. De lá, eles teriam invadido a rede do Laboratório de Propulsão de Jatos (JPL, sigla em inglês), um dos principais laboratórios da agência norte-americana, responsável por 23 das mais importantes espaçonaves do país. De lá são conduzidas missões como as mais recentes para Marte, Saturno e Júpiter.

Martin admitiu que os hackers conseguiram um acesso total ao sistema do laboratório, o que deu a eles capacidade para modificar ou deletar quaisquer documentos, além de criar novas contas de usuários e implantar ferramentas para drenagem de informação. Ao fim, eles puderam ainda modificar o registro de acessos do sistema e esconder suas intervenções.
O inspetor-geral explicou que a agência procura melhorar a defesa contra esse tipo de ataque, porém que tem sido lenta para codificar os dados dos computadores e laptops, o que dificultaria que as informações pudessem ser acessadas pelas "pessoas erradas".

Fonte: http://www.sidneyrezende.com/noticia/164063+hackers+atacaram+nasa+pelo+menos+13+vezes+em+2011+diz+agencia

domingo, 26 de fevereiro de 2012

Você sabia que usar um estabilizador não serve para nada?

Conectar o computador nesses aparelhos pode não ser uma boa ideia. Confira agora quais são os motivos para essa afirmação.

Pare tudo o que está fazendo e olhe para o seu computador. Responda para você mesmo: onde ele está conectado? A resposta que a grande maioria dos usuários deve dar é a mesma: estabilizador. O equipamento é responsável pela conexão de aparelhos eletrônicos a tomadas na casa dos brasileiros há décadas, antes mesmo de existirem os computadores pessoais.

Isso acontece porque, desde os idos de 1940, o Brasil sofre com a instabilidade na tensão das redes elétricas, o que pode causar problemas sérios aos aparelhos eletrônicos. Mas você já se perguntou se os estabilizadores realmente conseguem estabilizar as correntes elétricas para mandar um sinal limpo aos dispositivos?
O Tecmundo foi atrás das informações para mostrar se a afirmação “Usar um estabilizador não serve para nada” é realmente correta. Aproveite este artigo para tirar todas as dúvidas que você possui em relação aos aparelhos e também para saber se vale a pena utilizar estabilizadores para ligar os seus eletroeletrônicos.

O que prometem?

Quando um estabilizador é comprado, os consumidores estão esperando uma série de vantagens para seus equipamentos. Promete-se aos usuários, que os dispositivos serão os principais responsáveis pelo nivelamento da tensão elétrica (voltagem) da rede. Com isso, picos de energia não afetariam diretamente os aparelhos.

Teoricamente, sempre que a rede elétrica sobe de tensão, os estabilizadores entram em ação para regular a voltagem aplicada a cada aparelho e evitar que eles sejam queimados. Quando a rede baixa sua tensão, o processo ocorre de maneira inversa: ele é utilizado para aumentar a tensão e não deixar que os eletrônicos sejam desligados. Ressaltamos: teoricamente.

O que eles realmente fazem?

Pode-se dizer que os estabilizadores servem para queimar no lugar dos aparelhos. Como assim, Tecmundo? É simples, todos eles são construídos com um fusível de proteção, que é queimado em situações de tensão muito instável da rede elétrica. Quando isso acontece, o estabilizador deixa de funcionar e o fornecimento de energia é interrompido.

Dessa forma, a instabilidade na tensão (possíveis sobrecargas) não chega diretamente aos eletroeletrônicos e estragos maiores são evitados. Fora isso, também se pode dizer que estabilizadores são excelentes extensores de capacidade para tomadas (os populares “Benjamins” ou “Tês”). Isso porque permitem que vários aparelhos sejam ligados em uma mesma tomada, mas sem riscos de curto-circuito (um perigo existente).

Nós contatamos o professor do Departamento de Eletrotécnica da Universidade Tecnológica Federal do Paraná, Eduardo Romaneli, doutor em Eletrônica de Potência, para trazer um parecer técnico ao artigo. Ele nos deu várias informações que comprovam a ineficácia dos estabilizadores em redes domésticas no Brasil.

Segundo ele, atualmente, com o desenvolvimento de fontes de alimentação universais que atuam automaticamente em redes de 127 V ou 220 V, o uso de estabilizadores é desnecessário. O professor pondera também que estabilizadores não têm capacidade para atuar na qualidade da energia elétrica, por isso, as redes com altos níveis de poluição não têm suas tensões corrigidas (inclusive, há casos em que a qualidade do sinal entregue aos dispositivos eletrônicos é inferior ao da rede comercial).

Romaneli afirma ainda que os melhores estabilizadores oferecem tempos de resposta em torno de 8,3 milissegundos, o que ainda é considerado muito alto. Esse tempo de resposta, quando muito alto, pode ser responsável por falhas de funcionamento em aparelhos sensíveis. Outro ponto negativo é a limitação do efeito de estabilização da tensão limitada a alguns patamares fixos.

Dessa forma, fica claro que a real funcionalidade dos estabilizadores está muito aquém do que se espera de um dispositivo eletrônico de manutenção elétrica. Então surge outra dúvida na cabeça dos usuários: existe algo que possa ser utilizado para uma manutenção da tensão elétrica que seja realmente eficaz?

Filtros de linha: um pouco menos de decepção

Filtros de linha são um pouco melhores do que estabilizadores, mas estão bem longe de serem os verdadeiros salvadores. A grande maioria deles não corrige problemas na rede elétrica, passando o mesmo ruído recebido pela tomada para os aparelhos que estiverem conectados. Pelo menos é isso que acontece com os filtros mais baratos do mercado.
Quem pode gastar um pouco mais encontra nos filtros de linha com suporte para filtragem eletromagnética uma boa opção. O problema é que, no Brasil, esse tipo de componente é raro e a grande maioria dos “filtros” não passa de extensões. Isso acontece porque não há componentes de filtragem, apenas o fusível para bloquear possíveis surtos de tensão (igual ao que acontece com os estabilizadores).

Qual a verdadeira salvação?

Infelizmente, a alternativa que realmente funciona é um pouco mais cara do que estabilizadores e filtros de linha. Estamos falando dos no-breaks. Esse tipo de componente elétrico oferece proteção em quatro frentes diferentes:
  • Proteção contra surtos de tensão;
  • Proteção contra queda de tensão;
  • Proteção contra queda na energia (falta de luz);
  • Proteção contra oscilação da frequência.
Dentro do segmento dos no-breaks, ainda é possível dividi-los em dois tipos diferentes. Os no-breaks offline, que são os mais comuns e baratos, são muito indicados para residências, pois conseguem armazenar energia elétrica em suas baterias para suprir a necessidade por curtos períodos de tempo, além de manter o sinal elétrico estável e limpo.

Já grandes servidores costumam utilizar no-breaks online, que são o que existe de mais completo em termos de prevenção de problemas elétricos. Esse tipo de aparelho está em constante troca de energia, pois alimenta os computadores (por exemplo) com a carga da bateria, ao mesmo tempo em que se recarrega pela energia oriunda das tomadas.
Segundo o já mencionado professor Eduardo Romaneli, são os no-breaks online que oferecem segurança e estabilidade mais confiáveis. O problema, como já dissemos, são os altos custos para a aquisição deles. Por isso, estima-se que a maioria esmagadora desses no-breaks está instalada para alimentar servidores e centrais vitais para as empresas.

Nota-se, portanto, que em instalações elétricas domésticas é muito mais recomendado o uso de no-breaks offline. Mas isso somente em locais onde a rede elétrica é instável demais, causando surtos de sinal que possam ocasionar estragos nos aparelhos eletrônicos. Em redes mais estáveis, a utilização de filtros de linha com suporte a filtragens eletromagnéticas seria suficiente.

Fonte: http://www.tecmundo.com.br/energia/10658-voce-sabia-que-usar-um-estabilizador-nao-serve-para-nada-.htm

 


sábado, 25 de fevereiro de 2012

MANIFESTO DOS PIRATAS

Os Piratas de Ontem e de Hoje

por The Pirate Bay, 


Mais de um século atrás, Thomas Edison conseguiu a patente de um dispositivo que poderia “fazer para o olho o que o fonógrafo faz para a orelha”. Chamou-o cinetoscópio [Kinetoscope]. Ele não só foi um dos primeiros a gravar um vídeo, ele também foi a primeira pessoa a possuir os direitos autorais [copyright] de um filme.
Por causa das patentes de Edison para o cinema era quase financeiramente impossível conseguir criar filmes na costa leste dos EUA. Os estúdios de cinema, então, mudaram para a Califórnia, e fundaram o que hoje chamamos de Hollywood. O motivo foi principalmente porque lá não havia nenhuma patente. Também não havia nenhuma lei de proteção de direitos autorais que se tenha conhecimento, por isso os estúdios podiam copiar velhas histórias e fazer filmes baseados nelas – como Fantasia, um dos maiores sucessos da Disney.
Assim, toda a base desta indústria, que hoje está gritando com a perda de controle sobre os direitos imateriais, é que eles contornaram os direitos imateriais. Eles copiaram (ou em sua terminologia: “roubaram”) os trabalhos criativos dos outros, sem pagar por isso. Eles fizeram isso para terem um lucro enorme. Hoje, eles são todos bem sucedidos e a maioria dos estúdios está na lista Fortune 500 das empresas mais ricas do mundo.



A razão pela qual eles estão sempre reclamando sobre “piratas” hoje é simples. Nós fizemos o que eles fizeram. Nós contornamos as regras que eles criaram e criamos as nossas. Nós esmagamos o seu monopólio, dando às pessoas algo mais eficiente. Nós permitimos às pessoas terem uma comunicação direta entre si, contornando o rentável intermediário, que em alguns casos tomam mais de 107% dos lucros (sim, você paga para trabalhar para eles). É tudo baseado no fato de que estamos em competição. Nós temos provado que a existência deles na sua forma atual não é mais necessária. Nós somos apenas melhor do que eles são.
E a parte engraçada é que as nossas regras são muito semelhantes às ideias dos fundadores dos EUA. Nós lutamos por liberdade de expressão. Vemos todas as pessoas como iguais. Acreditamos que o público, não a elite, deveria governar a nação. Acreditamos que as leis deve ser criadas para servir o público, e não as corporações ricas.
The Pirate Bay é verdadeiramente uma comunidade internacional. A equipe está espalhada por todo o mundo – mas nós ficamos fora do EUA.
Temos raízes suecas e um amigo sueco disse o seguinte: A palavra SOPA significa “lixo” em sueco. A palavra PIPA significa “tubo” em sueco. Isto não é, obviamente, uma coincidência. Eles querem transformar a internet em um tubo de mão única, com eles em cima, empurrando o lixo para baixo através do tubo para o resto de nós, consumidores obedientes.
A opinião pública sobre este assunto é clara. Pergunte a qualquer um na rua e você vai aprender que ninguém quer ser alimentado com lixo.


Por que o governo dos EUA querem que o povo norte-americano seja alimentado com o lixo está além da nossa imaginação, mas esperamos que você os detenha, antes que todos no afoguemos.
O SOPA não pode fazer nada para parar o TPB.


No pior caso, vamos mudar o domínio de alto nível do nosso atual .org a uma das centenas de outros nomes que nós também já usamos. Em países onde o TPB é bloqueado, China e Arábia Saudita vem à mente, eles bloqueiam centenas de nomes de nosso domínio. E funcionou? Na verdade, não. Para corrigir o “problema da pirataria”, a pessoa deve ir à fonte do problema. A indústria do entretenimento diz que está criando “cultura”, mas o que eles realmente fazem é vender coisas como bonecas caríssimas e fazem meninas de 11 anos de idade se tornarem anoréxicas. Quer a partir do trabalho nas fábricas, que cria as bonecas por basicamente nenhum salário, quer por assistir filmes e shows de TV que as fazem pensar que são gordas.



No grande jogo de computador criado por Sid Meiers, Civilization, você pode construir Maravilhas do Mundo. Uma das mais poderosas é Hollywood. Com ela você controla toda a cultura e mídia do mundo. Rupert Murdoch estava feliz com o MySpace e não tinha problemas com a sua própria pirataria até que falhou. Agora ele está reclamando que o Google é a maior fonte de pirataria no mundo – porque ele é ciumento. Ele quer manter o seu controle mental sobre as pessoas e claramente você consegue obter uma visão mais honesta das coisas na Wikipedia e no Google do que na Fox News.



Alguns fatos (anos, datas) provavelmente estão errado neste comunicado à imprensa. A razão é que não podemos obter estas informações quando Wikipedia está fora do ar. Por causa da pressão dos nossos decadentes concorrentes.
Pedimos desculpas por isso.


Fonte: http://burgos4patas.blogspot.com/2012/02/manifesto-dos-piratas.html






 

Fabricação de TVs com software de interatividade Ginga será obrigatória em 2013

Uma portaria interministerial publicada nesta sexta-feira (24), no Diário Oficial da União, estabelece o Processo Produtivo Básico (PPB) para televisores adaptados com o recurso da interatividade produzidos na Zona Franca de Manaus (ZFM). Desta forma, a partir de 2013, aparelhos fabricados no País deverão conter o middleware Ginga, que garante a interatividade no sistema nipo-brasileiro de TV digital.

A Portaria n°140 foi elaborada pelos ministérios do Desenvolvimento, Indústria e Comércio Exterior e da Ciência, Tecnologia e Inovação. O documento fixa o seguinte cronograma para a produção de TVs interativas: até dia 30 de junho de 2012, os fabricantes estão dispensados da obrigatoriedade; de 1º de julho até 31 de dezembro deste ano, o recurso é opcional; a partir de 1º de janeiro de 2013, 75% dos televisores deverão vir com o Ginga de fábrica; e a partir de 1º de janeiro de 2014, esse porcentual sobe para 90% dos aparelhos.

“No processo de negociação que envolveu a indústria, a sociedade e especialistas, o governo entendeu que esses são os prazos razoáveis e factíveis para implementar a medida. O objetivo é garantir um efetivo desenvolvimento da interatividade na TV brasileira”, explica o assessor da Secretaria de Telecomunicações do Ministério das Comunicações, Flávio Lenz.

De acordo com a medida, os fabricantes que optarem pela produção de aparelhos interativos ainda em 2012 serão beneficiados. O número de TVs comercializado com o Ginga no segundo semestre deste ano será descontado dos 75% obrigatórios para 2013. Por exemplo, se uma empresa produzir 100 mil televisores com o Ginga em 2012, poderá deduzir essa quantia de sua obrigação em 2013. Isso, respeitando um limite mínimo de 60% de TVs com o Ginga no ano que vem.

A portaria também define que modelos de TV do tipo conectada (com acesso à internet) deverão vir obrigatoriamente com o Ginga. A razão para essa medida, no entendimento do governo, é de que não há necessidade de as empresas adicionarem nenhum componente ao televisor.

Ginga - O sistema nipo-brasileiro de TV digital (ISDB-T) foi adotado no País em 2006. O decreto que traçou as diretrizes para a implantação da tecnologia trouxe três pontos: a mobilidade, que permite levar a televisão a aparelhos celulares e notebooks; a alta definição de som e imagem; e a interatividade, única característica que ainda não havia sido totalmente implementada e que deve ser garantida pelo Ginga.

O Ginga é um middleware (camada de software intermediário) que permite o desenvolvimento de aplicações interativas para a TV digital de forma independente da plataforma de hardware dos fabricantes de terminais de acesso (set-top boxes). É totalmente desenvolvido em código livre e, portanto, qualquer empresa pode criar sua própria implementação sem a necessidade do pagamento de royalties.

Resultado de anos de pesquisas lideradas pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e pela Universidade Federal da Paraíba (UFPB), o Ginga é considerado um dos ambientes operativos mais modernos para executar aplicações de TV e IPTV que contemplem interatividade.       

Fonte: http://www.abn.com.br/editorias1.php?id=69515 

sexta-feira, 24 de fevereiro de 2012

Grupo de pesquisadores demonstra transistor de um único átomo

Um grupo multinacional de cientistas, com representantes da Austrália, EUA e Coréia do Sul apresentou um transistor de um único átomo, criado com a introdução de um átomo de fósforo sobre uma estrutura de silício, o que é em teoria o menor que se pode chegar antes dos computadores quânticos.
 
Para realizar o feito, o grupo utilizou um STM (scanning tunnelling microscope) para posicionar átomo de fósforo precisamente entre os eletrodos de silício, permitindo que o comportamento elétrico do átomo de fósforo seja lido através deles, criando o precursor de um transistor funcional. Naturalmente, a estrutura completa possui múltiplos átomos, mas a parte computacional é executada pelo átomo central, daí o título do estudo, que foi publicado pela revista Nature.

Assim como outros projetos, a falha no estudo é o fato de a estrutura precisar ser criada artesanalmente através do STM e precisar ser mantida a uma temperatura muito baixa (20 mK) dentro de um refrigerador com hélio líquido para funcionar, tudo isso para obter um único transistor.

De qualquer forma, o grupo conseguiu remover algumas das barreiras preliminares e mostrar que o conceito realmente funciona. Agora vem a parte difícil, que é tentar encontrar alguma forma de criar circuitos usando estes transistores e produzi-los em escala industrial, o que, caso eventualmente seja conseguido, ainda demorará décadas.

Antigamente, acreditava-se que o limite de miniaturização para os transistores de silício ficaria entre os 30 e 20 nm, limite que a Intel já atingiu com a geração atual de processadores, fabricados usando uma técnica de 22 nm. Inovações como o SOI, Low-k dieletrics e os tri-gate transistors combinados com refinamentos nas técnicas de produção estão estendendo estes limites, com a Intel já fazendo testes com wafers de 14 nm (que podem entrar em produção a partir de 2013) e prometendo wafers com transistores de 10 nm para 2015.

Estima-se que fabricantes com grande disponibilidade de capital, como a Intel e potencialmente a TSMC possam conseguir refinar suas técnicas de produção para produzir transistores de 8 nm ou 6.5 nm (half-node), mantendo a corrida da miniaturização por mais 6 ou 7 anos, mas é um consenso que não será possível avançar mais do que isso com o uso do silício e litografia. Como a partir dos 32 nm os ganhos a cada nova geração serão cada vez menores (transistores com um gate-leakage mais alto, com um elevado nível de defeitos e uma taxa de erros progressivamente maior) muitos especialistas argumentam que qualquer ganho a partir dos 14 nm será irrelevante, pois a miniaturização adicional introduzirá tantos problemas que a maioria dos fabricantes preferirá continuar nos 14 nm.

De qualquer forma, seja em 2013, em 2015 ou em 2017, a tecnologia atual de fabricação chegará a seu limite, sem que outra tecnologia mais avançada tenha ainda despontado no horizonte, com todas as possibilidades ainda há duas ou mais décadas do mercado.

Fonte: http://www.hardware.com.br/noticias/2012-02/single-atom.html 

Fabricantes e Google assinam acordo de privacidade

A Justiça da Califórnia anunciou nesta quarta-feira, 22/1, que seis das maiores companhias de tecnologia _ Apple, Amazon, Google, Microsoft, HP e RIM (fabricante do BlackBerry) assinaram um acordo pelo qual se comprometem a oferecer mais informações quanto às suas normas de privacidade antes que usuários baixem aplicativos.

A intenção do acordo, negociado pela Procuradora Geral da Califórnia, Karla Harris, é a de que o uso de aplicativos para dispositivos móveis não provoque a perda de privacidade de seus usuários.

Segundo a agência Reuters, a Procuradora Geral da Califórnia revelou que das 30 aplicações para dispositivos móveis mais baixadas, 22 não incluem notificações sobre a privacidade dos usuários.

Fonte: http://computerworld.uol.com.br/seguranca/2012/02/23/fabricantes-e-google-assinam-acordo-de-privacidade/

Metade do tráfego móvel global é gerado por vídeos, diz estudo



Os vídeos responderam por metade do tráfego da internet móvel nos últimos três meses – encerrados em janeiro - ante 40% no mesmo período do ano anterior, de acordo com estudo da ByteMobile.


Mas, afinal, de onde vem esse crescimento? Aumento da demanda por tablets, suporte à tecnologia HD, o hábito de assistir TV no smartphone? Segundo o estudo, em algumas redes monitoradas pela empresa a participação do formato subiu para 69%.

Os usuários de tablets e smartphones têm elevado o consumo por assistirem longas-metragens nas pequenas telas, assinarem serviços de streaming e se comunicarem por videoconferência.

“A popularização dos dispositivos móveis, combinada com a explosão de conteúdo e aplicativos que tiram proveito de recursos sofisticados, levou o tráfico de dados a novos patamares”, afirmou Stacey Infantino, um dos autores da pesquisa. “Com o 2G e o 3G abrindo caminho para o 4G – aumentando o apetite dos internautas por vídeos em alta definição, sob demanda e por streaming – a capacidade de rede se tornou um desafio para operadoras”.

A ByteMobile destacou que o volume consumido aumenta consideravelmente de acordo com a qualidade da imagem. Enquanto cinco minutos a 360p – resolução mais popular para dispositivos móveis - exige de 10MB a 15MB, o mesmo tempo para conteúdo em HD demanda 75MB.
Também não chega a ser uma surpresa a constatação de que usuários de tablets consomem mais informações do que os de smartphones. Na comparação entre iPhone e iPad, três vezes mais; na plataforma Android, duas vezes. Os que possuem o tablet da Apple, aliás, geram um tráfego quase duas vezes maior do que os que preferiram um com o SO da Google.

Fonte: http://computerworld.uol.com.br/telecom/2012/02/24/metade-do-trafego-movel-global-e-gerado-por-videos-diz-estudo/

quinta-feira, 23 de fevereiro de 2012

YouPorn é invadido e dados dos usuários são divulgados

Mais de 1 milhão de endereços de email e senhas do YouPorn, um dos sites de pornografia mais populares do mundo, foram vazados na internet na terça-feira. De acordo com o site Huffington Post, que um porta-voz da empresa que mantém o serviço, Kate Miller, afirmou que o site não foi hackeado, mas o serviço de chat YP Chat, administrado por terceiros, "não tomou as precauções adequadas na obtenção dos dados de seus usuários".

O porta-voz afirmou ao site que o YouPorn toma todas as providências para manter a privacidade dos seus usuários, que o serviço está funcionando normalmente e que o serviço de chat responsável pelo vazamento foi tirado do ar e está sob investigação.


O YouPorn é um dos 100 sites mais visitados do mundo, segundo o ranking da Alexa. A empresa afirmou que tomou medidas para notificar todos os usuários envolvidos.

Fonte: http://tecnologia.terra.com.br/noticias/0,,OI5628640-EI12884,00-Dados+de+mais+de+milhao+de+usuarios+do+YouPorn+vazam+na+web.html

quarta-feira, 22 de fevereiro de 2012

Fundador do Megaupload é solto na Nova Zelândia


Nesta terça-feira, dia 22 de fevereiro, o fundador do site de download Megaupload, Kim Dotcom, foi solto na Nova Zelândia. De acordo com a agência Reuters, Dotcom pagou uma fiança para ser libertado, porém o valor não foi divulgado.
 

Por outro lado, a Associated Press afirma que o fundador do site foi solto sem pagar nada por isso. O Ministério da Justiça do país não quis dar detalhes sobre as condições que levaram a soltura de Dotcom, afirmando que apenas o juiz do caso tem acesso a estas informações sigilosas.

O juiz Nevin Dawson deu a liberdade condicional ao fundador do Megaupload acreditando que ele não traz risco de fuga. Dotcom teve seus bens apreendidos e afirma estar feliz em poder voltar para sua família, rever seus três filhos e sua esposa grávida. Este também foi um dos motivos de sua libertação, pois o juiz acredita que, por sua família morar no local, ele não tem motivos para deixar a cidade.

Restrições a Dotcom

De acordo com o site TVNZ, o fundador do site de download terá algumas restrições e obrigações no período em que estiver em condicional. Entre elas está apenas residir em sua mansão em Coatesville, não usar transporte marítimo ou aéreo particular e não ter acesso à internet. Dotcom também deverá usar uma pulseira eletrônica, que irá monitorá-lo para que ele não se desloque a mais de 80 quilômetros de sua casa.

Dotcom foi preso no dia 20 de janeiro em meio a acusações de pirataria e lavagem de dinheiro. Em sua detenção, foram apreendidos milhões de dólares em propriedades e investimentos, inclusive obras e arte e luxuosos carros. De acordo com a acusação, o fundador do site de downloads liderava um grupo que copiava e distribuía filmes, músicas e diversos outros conteúdos sem autorização e que estavam protegidos pelos direitos autorais. O grupo teria lucrado US$ 175 milhões desde o ano de 2005 com esta atividade.

Fonte: http://www.noticiasbr.com.br/fundador-do-megaupload-e-solto-na-nova-zelandia-42719.html

Google pode lançar óculos com Android até o final do ano

O Google pode lançar, até o final do ano, um par de óculos com tela integrada que reproduzirá conteúdo atualizações de serviços do Google sem tirar o aparelho do bolso. De acordo com o jornal The New York Times, as atualizações seriam realizadas em tempo real a partir do smartphone do usuário ou por meio da rede celular. O produto, desenvolvido no laboratório secreto Google X, chegaria ao mercado até o final de 2012 com preço entre US$ 250 e US$ 600.

De acordo com fontes do jornal, o óculos rodaria um software baseado no sistema operacional Android, usado em smartphones e tablets, e teria uma pequena tela próxima a um dos olhos do usuário. Os óculos seriam equipados também com conexão 3G ou 4G e diversos sensores, como de movimento e também GPS.

Funcionários do Google consultados pelo jornal afirmaram que os óculos serão equipados com uma câmera de baixa resolução que filmará o ambiente ao redor do usuário, de modo a mostrar informações sobre locais ou sobre amigos que estão nas redondezas. Eles afirmam que os óculos não foram feitos para serem usados constantemente.

Segundo um dos funcionários da empresa, a tela integrada nos óculos mostrará as informações com recursos de realidade aumentada e menos em páginas de aplicativos convencionais, como os acessados por meio de smartphones. Procurado pelo jornal, o Google não comentou o assunto.

Fonte: http://tecnologia.ig.com.br/google-pode-lancar-oculos-com-tela-ate-o-final-do-ano-diz-jornal/n1597648329934.html

A Lei de Moore

Todo ano, você provavelmente espera pagar um pouco mais pela maioria dos produtos e serviços. O oposto tem acontecido no caso dos computadores e no campo das comunicações, especialmente no que diz respeito ao custo de hardware. Por muitas décadas, o custo de hardware têm caído rapidamente. A cada um ou dois anos, a capacidade dos computadores tem sido praticamente duplicada sem qualquer aumento no preço. Esta extraordinária observação é frequentemente chamada de Lei de Moore, em reconhecimento a pessoa que identificou essa tendência, Gordon Moore, co-fundador da Intel - uma das principais fabricantes de processadores de computadores e sistemas embarcados da atualidade.
A Lei de Moore é especialmente verdadeira em relação a quantidade de memória que os computadores tem a disposição para os programas, à quantidade de armazenamento secundário (tal como armazenamento em disco) que tem que guardar programas e dados por longos períodos de tempo, e à velocidade de processamento - velocidade na qual os computadores executam seus programas. Crescimento semelhante vem acontecendo no campo das comunicações, no qual o custo tem despencado a medida que uma enorme demanda por largura de banda (ou seja, capacidade de transportar informações) tem atraído grande concorrência. Não conhecemos nenhuma outra área na qual a tecnologia aumenta tão rapidamente e os custos caem na mesma velocidade. Tal crescimento é verdadeiramente amparado pela revolução da informação.

Fonte: Java How to Program 9e (Paul Deitel, Harvey Deitel)

terça-feira, 21 de fevereiro de 2012

Cloud Computing - Visão Geral

Desembiguação - O que é exatamente Cloud Computing?

Cloud computing recebe esse nome de uma metáfora usada para representar a Internet. Geralmente a Internet é representada em diagramas de redes por uma nuvem, como na figura abaixo:
O ícone da nuvem representa "todas as outras coisas" que fazem a rede funcionar. Ele é como se fosse um "etc." para o mapa da rede. Esta é provavelmente a noção mais aplicada ao conceito de cloud computing.

Cloud computing promete cortar gastos operacionais e financeiros, e o mais importante, permite ao departamento de TI focar nas estratégias de projetos ao invés da manutenção de um datacenter que possa estar funcionando.

Como Funciona

Há mais coisas do que simplesmente comparar cloud computing com a Internet. Em essência, cloud computing é a "construção" que lhe permite acessar aplicações que na realidade estão em outra localização que não seu computador ou em outro dispositivo conectado à Internet; muito frequentemente, este pode ser um datacenter distante. Há muitas vantagens nisso. Por exemplo, pense na última vez que vocês comprou o Microsoft Word e o instalou nos computadores da sua empresa. Ou você executou com o CD/DVD-ROM e instalou em todos os computadores, ou configurou seu servidor de distrituição de software para automaticamente instalar a aplicação em suas máquinas. E cada vez que a Microsoft lança um service pack, você tem que ir em todos os computadores e instalar esse pack, ou você configura seu servidor para distribuí-lo. Ah, e não esqueça os custos de todas as licenças.

A beleza da cloud computing, é que outra companhia hospeda sua aplicação (ou suíte de aplicações, se for o caso). Isto significa que eles assumem os custos dos servidores, gerenciam as atualizações de softwares, e - dependendo de seu contrato - você paga menos pelo serviço.

Não esqueça o equipamento que você não vai precisar comprar - o que resultará em menos despesas - desse modo o diretor financeiro vai realmente sorrir quando te ver. Tendo alguém para hospedar suas aplicações, você não precisará comprar os servidores, nem pagar pela energia elétrica e refrigeração deles.
Também é conveniente para teletrabalhadores (trabalhadores que trabalham a partir de casa) e para trabalhadores que precisam viajar, que podem simplesmente logar e usar suas aplicações onde estiverem.

Fonte: Fonte: Cloud Computing A Practical Approach  (Anthony T. Velte, Toby J. Velte, Ph.D., Robert Elsenpeter)

Cursos Gratuitos da Intel (EAD com certificado)

Eis uma boa oportunidade de buscar aprimoramento técnico. A Intel disponibiliza cursos online grátis com emissão de certificado. O usuário, após começar um curso, terá 56 dias para concluir todos os módulos. Ao completar o curso com no mínimo 90% de aproveitamento o aluno receberá o certificado.

Alguns cursos disponíveis:
Governança Corporativa;
Cloud Computing;
Segurança da Informação;
e-Business;
Mobilidade, etc.

Consulte o site e veja todos os cursos e condições:
http://www.nextg.com.br/home.aspx

segunda-feira, 20 de fevereiro de 2012

Cloud Computing - Básico

Cloud computing está em toda parte. Pegue qualquer revista de tecnologia ou visite sites e blogs de TI e provavelmente você verá algo sobre cloud computing. O único problema é que nem todo mundo concorda sobre o que realmente é isso. Pergunte a dez profissionais diferentes o que é cloud computing, e você terá dez respostas distintas. Cloud computing é mesmo importante ou tudo isso é apenas publicidade? Algumas pessoas não pensam assim. De fato, em 2008 o diretor executivo da Oracle, Larry Ellison, abordou toda a questão da computação em nuvem, declarando que o termo era muito usado e aplicado a tudo no mundo da informática.

"A indústria dos computadores é a única que é mais guiada pela moda do que a moda feminina," disse ele para o grupo de analistas da Oracle.

Fonte: Cloud Computing A Practical Approach  (Anthony T. Velte, Toby J. Velte, Ph.D., Robert Elsenpeter)

Organização do Computador

Independentemente dos diferentes aspectos físicos, virtualmente cada computador pode ser dividido em seis unidades lógicas ou seções:

1.Unidade de entrada. Esta é a seção "receptora" do computador. Ela obtém informações (dados e programas de computador) de dispositivos de entrada e coloca essas informações a disposição de outras unidades de modo que possam ser processadas. A maior parte da informação que é inserida nos computadores é atravéz de dispositivos como mouses e teclados mas também pode ser inserida de muitas outras maneiras, como pelo microfone do seu computador, escaneando imagens e recebendo informações de rede, como a internet.

2. Unidade de saída. Esta é a secão de "envio" do computador. Ela pega a informação que o computador processou e a coloca a disposição para os vários dispositivos de saída para torná-la acessível para uso externo do computador. A informação pode ser exibida na tela, impressa em papel ou usada para controlar outros dispositivos. Computadores também podem externar sua informações para redes, tal como a internet.

3.Unidade de memória. Esta é a seção de "armazenamento" relativamente de baixa capacidade e de acesso rápido do computador. Retém informações que foram inseridas pela unidade de entrada, para se tornarem imediatamente disponíveis para processamento quando necessário. A unidade de memória também retém informações processadas até que elas possam ser colocadas em dispositivos de saída pela unidade de saída. As informações na unidade de memória são, em geral, perdidas quando o computador é desligado. A unidade de memória costuma ser chamada de memória ou memória principal.

4.Unidade de aritmética e lógica (ALU - arithmetic and logic unit). Esta é a seção de "fabricação" do computador. É responsável pela realização de cálculos, como adição, subtração, multiplicação e divisão. Esta seção contém os mecanismos de decisão que permitem o computador, por exemplo, comparar dois itens da unidade de memória para determinar se são iguais ou não.

5.Unidade central de processamento (CPU - central processing unit). Esta é a seção "administrativa" do computador. Ela coordena e supervisiona a operação das outras seções. A CPU diz à unidade de entrada quando as informações devem ser lidas e transferidas para
a unidade de memória, informa à ALU quando as informações da unidade de memória devem ser utilizadas em cálculos e instrui a unidade de saída sobre quando enviar as informações da unidade de memória para certos dispositivos de saída. Muitos computadores atuais têm múltiplas CPUs e, portanto, podem realizar muitas operações simultaneamente - esses computadores são chamados de
multiprocessadores.

6.Unidade de armazenamento secundária. Esta é a seção de "armazenamento" de alta capacidade e de longo prazo do computador. Programas ou dados que não são utilizados ativamente pelas outras unidades, em geral, são colocados em dispositivos de
arnazenamento secundário (por exemplo, unidades de disco) até que sejam novamente necessários, talvez horas, dias, meses ou até mesmo anos mais tarde. As informações no armazenamento secundário exigem muito mais tempo para serem acessadas do que
aquelas da memória principal, mas o custo por unidade de almazenamento secundário é muito menor que o da memória principal. Os exemplos de dispositivos de armazenamento secundário incluem CDs e DVDs, que podem armazenar até centenas de milhões de caracteres e bilhões de caracteres, respectivamente.

Fonte: Deitel - Java Como Programar 6ª Ed.

Europeus protestam contra leis antipirataria

Milhares de europeus foram às ruas neste final de semana protestar contra a onda de leis antipirataria que estão em discussão em vários países do bloco e nos Estados Unidos.

Cerca de 30 mil pessoas, segundo agências internacionais, se reuniram em vários pontos da Alemanha para protestar. Também houve passeatas na Polônia, Hungria, França, Irlanda e Bélgica.

Além de protestarem contra o ACTA, o tratado internacional que deseja criar um conjunto de leis severas para punir quem baixar conteúdo protegido, os europeus foram às ruas para evitar que o governo tente aproveitar a criação do pacto antipirataria para criar regras para vigiar o que é feito na internet. Parte dos europeus crê que os governos vão criar leis severas para ter o controle de conteúdo.

Os protestos dos europeus têm surtido efeito. Os governos da Polônia, Eslováquia, Letônia e República Tcheca resolveram estudar mais o ACTA para ver ser vão aderir ou não. A Alemanha também adiou a assinatura do tratado.

O ACTA está sendo discutida desde 2006. O grande patrocinador do tratado são os Estados Unidos e o Japão.

Fonte: http://info.abril.com.br/noticias/internet/europeus-protestam-contra-leis-antipirataria-19022012-4.shl

Google e Facebook são acusados de rastrearem usuários

Google e Facebook estão são acusados de monitorarem a navegação na web dos donos de iPhones, PCs e Macs, através do navegador Safari, para direcionarem publicidades 'relevantes' aos usuários. A descoberta foi feita pelo pesquisador da Universidade de Stanford, Jonathan Mayer, que apresentou um relatório publicado pelo jornal Wall Street Journal, revelando um pequeno "truque" utilizado pelo Google para permitir tal monitoramento.

O Safari possui configurações de privacidade que impedem a coleta das informações registradas pelos usuários durante a navegação. Porém, segundo Mayer, o Google conseguiu contornar a restrição, enviando uma mensagem em branco para o navegador para fazê-lo aceitar "cookies" não autorizados. Segundo o relatório, o Facebook e outras empresas de publicidade utilizam métodos semelhantes para coletar o histórico de navegação e outros dados dos usuários de forma anônima e não autorizada.

Assim que o código foi descoberto o Google desativou o recurso e começou a se defender das acusações. A empresa de Mountain View alega que o relatório publicado por Mayer possui erros, e afirma que seus cookies apenas coletam informações anônimas. "O The Wall Street Journal descaracterizou o que realmente acontece e o motivo pelo qual a função existe. Nós usamos a conhecida funcionalidade do Safari para fornecer recursos que os usuários logados no Google ativam. É importante ressaltar que esses cookies de publicidade não reconhecem nenhum tipo de informação pessoal do usuário", disse um porta-voz do Google.

O Google completa sua defesa dizendo que o Safari bloqueia os cookies de terceiros de forma padrão, mas permite que recursos da web criados por terceiros habilitem temporariamente o recebimento desses cookies para envio de publicidade. A gigante de buscas começou a utilizar essa funcionalidade para habilitar os recursos de assinatura de usuários do Google no Safari, além de proporcionar um envio de publicidade personalizada, com a autorização do usuário.

Por outro lado, a descoberta causou revolta entre os defensores da privacidade online, aumentando a discussão sobre as novas políticas de privacidade anunciadas pelo Google, que entra em vigor no dia 01 de março. Muitos rejeitam a ideia do Google saber mais informações sobre o usuário, e a União Europeia solicita ao Google que interrompa a adoção da nova política, até que eles investiguem a mesma por completo, garantindo que os dados dos usuários estarão protegidos. Já a Apple se pronunciou informando que está trabalhando em uma solução que interrompa a prática adotada pelo Google.

Fonte: http://www.correiodoestado.com.br/noticias/google-e-acusado-de-hackear-iphones-para-rastrear-informacoe_141701/

Definindo "Computador"

Computadores foram inventados para "computar". De acordo com o dicionário Aurélio, o computador é um "aparelho ou dispositivo capaz de realizar operações lógicas e matemáticas segundo programas previamente preparados". Eles fazem isso mas não é só por isso que estamos vivendo na "Era da Informação". Isso reflete outras coisas que computadores fazem: armazenar e recuperar dados, gerenciar redes de comunicações, processar texto, gerar e manipular imagens e sons, e assim por diante. No fundo os computadores são circuitos que fazem coisas transformando-as em linguagem matemática. A maioria de nós nunca vê as equações e poucos entenderiam se as visse. A maioria de nós, porém, participa da cultura digital, seja usando um cartão de banco, digitando um documento, baixando um email, entre outras atividades. Para estas e outras aplicações, nós podemos usar todo poder dessa invenção sem jamais ver uma equação. No que diz respeito a utilização pública, geral, massiva, "computação" é a coisa menos importante que os computadores fazem.

Mas foi para resolver equações que esse computador eletrônico digital foi criado. A palavra "computador" originalmente significava uma pessoa que resolvia equações; e foi somente por volta de 1945 que a palavra foi alterada para se referir à maquinaria.
Harvard Mark I
Algumas máquinas automáticas primitivas eram chamadas "calculadoras", como a Harvard Mark I.

Que uma invenção deve encontrar espaço na sociedade os inventores já sabiam. A história do computador ilustra isso. Não que o computador acabou não sendo usado para cálculo - ele é usado para cálculo por muitos estudantes, cientistas e engenheiros atualmente. Isso, ao menos, os inventores dos computadores previram. Mas as pessoas foram encontrando outras formas de usar a invenção. Como eles fizeram isso, transformando as máquinas matemáticas dos anos de 1940 nas redes de informações da década de 1990 que vêm se atualizando constantemente.
Pessoas "computando" na Aviação Norte Americana, Los Angeles, no inícios dos anos 1950. 
Fonte: A History Of Modern Computing 2nd ed - Paul Ceruzzi.

domingo, 19 de fevereiro de 2012

Saudações pessoal!

Boa noite!
Criei este blog com o propósito de postar algumas informações relevantes sobre informática, programação, hardware, sistemas operacionais, etc.
Em breve novas postagens.
Agradeço desde já a visita! :)