Busca

sábado, 23 de janeiro de 2010

Banco Bradesco expande biometria para reforçar segurança em caixas eletrônicos

Em 2010, empresa investirá 250 milhões reais nessa tecnologia, que substitui as senhas convencionais em transações bancárias nos terminais.

O Bradesco decidiu expandir o uso da para reforçar a segurança durante as transações. A instituição financeira estima que até o final de 2011 aproximadamente 70% dos seus ATMs estejam equipados com leitores que reconhecem os correntistas pelas veias da palma da mão.



Para atingir essa meta, o Bradesco investirá este ano 250 milhões reais na compra de mais oito mil terminais equipados com o sistema PalmSecure, desenvolvido pela fabricante japonesa Fujitsu. A tecnologia permite que os correntistas sejam identificados e autentiquem transações bancárias por meio da característica vascular da mão, capturada pelo sensor infravermelho do dispositivo.

Atualmente, segundo o vice-presidente de TI do Bradesco, Laércio Albino César, esse sistema está presente em 40% dos caixas eletrônicos do banco espalhados pelo Brasil. Ou seja, 12.500 dos 30.650 dos ATMs instalados em agências estão equipados com leitores da tecnologia de biometria adotada pelo banco.

Albino prevê chegar ao final de 2011 com uma base de 20 mil terminais eletrônicos equipados com o dispositivo PalmSecure. Com a disseminação da tecnologia, o Bradesco espera poder substituir as senhas convencionais durante as operações nos terminais de autoatendimento.

“Pensamos em eliminar as senhas porque constatamos que o reconhecimento biométrico é seguro. Em mais de dois anos, não registramos nenhum caso de fraude”, garante Albino.

Adesão dos clientes

O Bradesco iniciou os testes dos terminais eletrônicos com leitura biométrica da palma da mão em maio de 2006. Depois da experiência, na sede do banco, na Cidade de Deus em Osasco, a instituição estendeu a tecnologia para outras regiões.

Entretanto, para ser reconhecido biometricamente durante as transações nos ATMs, o correntista precisa fazer um cadastro em sua agência. De acordo com Albino, 1,5 milhão dos 22 milhões de clientes do Bradesco já aderiram ao sistema de autenticação. A expectativa do banco é de que até final de 2011 esse número aumente para 5 milhões.

Segundo Albino, boa parte dos clientes que se cadastraram para usar a biometria nos ATMs são aposentados que se sentem mais à vontade com a tecnologia por não precisarem mais decorar as senhas de letras, solicitada nas operações pelos terminais.

Além de ser mais segura que o uso de senha convencional, o executivo do Bradesco destaca que a biometria reduz o tempo gasto para realização das transações nos terminais, o que contribui para diminuir o tamanho das filas.

Interesse da Alemanha pelo modelo

A Federação Brasileira de Bancos (Febraban) discute há algum tempo com seus associados o uso da biometria nos serviços bancários para aumentar a segurança. Entretanto, a instituição avalia, alguns metodos além do adotado pelo Bradesco. Porém, ainda não há um consenso no setor sobre qual a tecnologia mais adequada.

No caso do Bradesco, Albino afirma que não há planos de implantação de outras tecnologias de biometria. “O Bradesco já definiu a leitura da palma da mão como a mais correta e casou com ela. Fizemos grandes investimentos nesse sistema, que já era adotado no Japão. Consideramos esse sistema o mais adequado”, diz o executivo.

O vice-presidente de TI do Bradesco afirma que uma demonstração de que o banco está no caminho certo é o fato de a Alemanha estar interessada em conhecer a experiência do banco brasileiro. Um especialista da instituição fará uma exposição sobre projeto do Bradesco naquele país para a associação de bancos local, que poderá vir a adotar o modelo.

Curso vai ensinar o que é o PL 29

Aulas abordarão o projeto de lei que trata de convergência tecnológica no setor de comunicação.

O Instituto de Estudos de Televisão oferece no mês de fevereiro, no Rio de Janeiro, o curso “PL-29: mudanças que você deve saber”.

Ministradas pelo professor de Sistemas de Comunicação e Novas Tecnologias da Escola de Comunicação da Universidade Federal do Rio de Janeiro (UFRJ), Marcos Dantas, as aulas abordarão os conceitos e os possíveis reflexos - se aprovado - do Projeto de Lei nº 29 (PL29), que trata de convergência tecnológica nos setores de telecomunicações, radiodifusão e TV por assinatura.

As aulas começarão no dia 23/2 e se estenderão até o dia 26 do mesmo mês no horário das 19h às 22h. O preço do curso é 450 reais, com possibilidade de descontos. Matrículas devem ser feitas no site do instituto ou pelo telefone (21) 2558 8606.

Dilma Rousseff defende regulamentação de profissões de TI

A ministra e o presidente Lula receberam do presidente do Sindpd, Antonio Neto, projeto que regulamenta profissão de Analista de Sistemas.

A ministra-chefe da Casa Civil, Dilma Rousseff, defendeu hoje que a profissão de analista de sistemas seja regulamentada. “Considero importantíssimo que essa profissão seja regulamentada. O presidente determinou que fizéssemos um estudo específico para isso.”

A declaração foi feita nesta sexta-feira (22/1), durante a inauguração da nova sede própria do Sindicato dos Trabalhadores em Processamento de Dados e Tecnologia da Informação do Estado de São Paulo (Sindpd).

Durante a cerimônia, o Presidente da República Luiz Inácio Lula da Silva recebeu das mãos do presidente do Sindpd, Antonio Neto, cópia do projeto de lei do Senado PLS 607/07, de autoria do senador Expedito Junior (PR-RO), que regulamenta o exercício da profissão de Analista de Sistemas.

“Precisamos de um Conselho Federal de Tecnologia da Informação, e sua criação deve ser uma prerrogativa do Executivo”, disse Neto. Segundo estimativa do sindicato, há cerca de 600 mil profissionais de tecnologia no país.

Demanda antiga
A regulamentação da profissão tem sido uma demanda do setor há mais de 30 anos, que é o tempo decorrido desde a apresentação do primeiro projeto de lei ligado ao tema, o PL 1205/79, e tem sido uma demanda do sindicato desde sua fundação, em agosto de 1984. O Sindpd tem hoje 30 mil associados.

O mesmo pedido regulamenta a profissão de Técnico de Informática e outros cargos correlacionados, bem como cria um Conselho Federal de Informática e conselhos regionais nos Estados.

Depois de muita discussão e uma dúzia de projetos, o PLS 607/07 foi aprovado em 19/1/2009 pela Comissão de Justiça e Cidadania do Senado, e seguiu para análise da Comissão de Assuntos Sociais. No entanto, conforme alerta o assessor da presidência do Sindpd, Alessandro Rodrigues, há grande risco de o projeto ser vetado, já que a criação de contribuições financeiras de interesse de categorias profissionais compete somente à União, de acordo com o artigo 149 da Constituição brasileira. Por conta disso, o projeto foi entregue ao presidente, para que o encaminhe ao Congresso.

sexta-feira, 22 de janeiro de 2010

As cinco armadilhas que atrapalham os projetos de virtualização

Da mesma forma que a migração para ambientes virtuais traz benefícios para as empresas, ela pode representar um risco ao desempenho dos sistemas, se não for tratada de forma adequada

Um número cada vez maior de companhias investe na virtualização. Entre os motivos que levam os CIOs a se sentirem atraídos por esse tipo de projeto está a facilidade para migrar aplicativos da infraestrutura física para a virtual. Mas, assim como pode representar uma série de benefícios, essa tecnologia esconde diversos riscos.

Quando se conduz um projeto de virtualização, basta tomar uma decisão sem planejamento ou cair em um dos buracos de desempenho para prejudicar toda a infraestrutura virtual dos aplicativos. Para evitar os riscos, confira abaixo cinco questões de desempenho de virtualização que devem ser levadas em conta.

1. Hardware inadequado
Um dos propósitos da virtualização é eliminar os servidores físicos, mas isso não significa que o equipamento não é importante, afirma o administrador de operações de Sistemas da Informação da companhia de serviços de TI Computacenter (CCC), Ian Scanlon.

A CCC migrou mais de 700 servidores que rodavam suas operações internas de TI para a solução da VMware, no começo de 2007, e tem poucos problemas de desempenho, mesmo com aplicações que exigem muitos recursos, afirma Scanlon. Todas as máquinas virtuais são executadas em servidores blade da HP, com 48GB de memória RAM e grande espaço SAN em cada um deles.

Com esse equipamento, todos os dados, aplicações baseadas em servidor SQL e outros sistemas não passam por instabilidade durante as operações da empresa.

2. Argumentos fracos
Servidores virtuais ajudam na economia, mas se houver um grande o foco em redução de custos, quando eles forem configurados, você não conseguirá economizar dinheiro ou ter um bom desempenho, afirma Scanlon. Conexões de rede em banda larga, fibra no lugar de cobre, por exemplo, fazem muito mais sentido para economizar alguns trocados mais à frente, acrescenta o executivo.

“Adotamos a migração querendo reduzir custos, inicialmente, algo que não fizemos de verdade”, afirma Scanlon. “Os benefícios estão na agilidade, no tempo necessário para ativar um novo servidor ou ampliar algo, facilitando a administração. Não estamos economizando muito, mas acredito que ninguém aqui diria que tomamos uma decisão errada”.

Segundo uma pesquisa realizada pela revista CIO nos Estados Unidos, muitas companhias percebem economias significativas com a virtualização, mas valorizam os ganhos em agilidade tanto quanto os cortes de gastos.

3. Reduza os planos de suporte
Todos gostam de ter servidores “gratuitos” com algumas máquinas virtuais em um único equipamento, mas isso não elimina a carga total da infraestrutura, afirma o analista do Burton Group, Chris Wolf. Na verdade, a carga é provavelmente maior em termos de energia, rede e recursos de armazenamento.

Cinco máquinas virtuais em um host físico utilizam a mesma quantidade de banda larga e espaço em disco que cinco servidores físicos, e precisam da mesma quantidade de configurações, segurança, administração, licenciamento, atualizações e todo o resto do trabalho empenhado em manter uma aplicação ou um data center ativo, acrescenta Wolf. Cortar os planos de suporte ou fracassar o planejamento para novas máquinas virtuais pode não afetar um dia de trabalho, mas a raiz de softwares terá uma queda rápida no desempenho.

4. Apontar problemas e não resolvê-los
Em várias companhias, as áreas de TI são divididas em subáreas. As pessoas que não sabem lidar bem com responsabilidades compartilhadas passarão a gestão de qualquer coisa que é executada em um servidor virtualizado para o “cara da virtualização”, afirma o diretor sênior de marketing da divisão Ionix da EMC, Bob Quillan, que trabalha com gestão de infraestruturas virtuais.

Ao criar outra área responsável por algo relacionado a todo o departamento de TI, as companhias se expõem a um ambiente de sessões de “apontar dedos” – ao invés de trabalhar cada problema quando algo der errado. A TI tradicional não estão acostumada às mudanças que uma infraestrutura de máquinas virtuais traz e, por isso, costumam reclamar e culpar a tecnologia. Analisar e estabelecer procedimentos de resposta dentro de um ambiente virtual, assim como em um físico, é o único jeito de evitar que os pequenos problemas se tornem desastres.

5. Sobrecarregue suas aplicações
O hypervisor pode ser o mesmo entre duas máquinas virtuais rodando na mesma máquina (ou em máquinas idênticas), mas as aplicações que são executadas nelas mudam completamente as dinâmicas, de modo que é preciso continuar trabalhando nos planos de capacidade de acordo com a demanda de acada aplicação em cada servidor, afirma Scanlon.

É fácil colocar meia dúzia de máquinas virtuais executando uma aplicação normal em um servidor físico, mas pode ser difícil estruturar apenas duas máquinas virtuais rodando um aplicativo pesado.

Executar servidores Citrix de aplicativos virtuais em uma máquina virtual também não é um problema, a menos que alguém esqueça que o aplicativo Citrix é um servidor virtual, cujos recursos para atender demandas serão consumidos rapidamente quando todo mundo que o utiliza se logar na ferramenta, caso não tenham sido feitos testes que simulem condições reais de trabalho.

"Tivemos poucos problemas de desempenho desde que migramos, mas acho que isso é mais porque começamos com um hardware muito bom”, afirma Scanlon. “Ele nos manteve longe de muitos problemas”.

YouTube testa HTML5


O YouTube colocou no ar esta semana um modelo experimental do site que utiliza o padrão HTML5 na reprodução dos vídeos, em vez do Adobe Flash. Segundo informações do portal de vídeos, o HTML5 é um dos recursos mais solicitados pelos usuários.

A diferença está no tipo de codificação de áudio e vídeo utilizado pelo novo modelo. Com o HTML5 não é preciso baixar plug-ins para a sua máquina. A questão é que nem todos os navegadores são compatíveis com o HTML5. Hoje, apenas o Google Chrome, o Apple Safari e o ChromeFrame no Internet Explorer estão aptos a mostrar as páginas feitas no sistema com a tab video e compatibilidade com o formato h.264.

Há ainda a restrição de alguns recursos do Youtube nos vídeos em HTML5. Segundo o YouTube, não há a possibilidade de exibir anúncios nos vídeos, assim como legendas e anotações. O endereço do site é www.youtube.com/html5

quinta-feira, 21 de janeiro de 2010

Skype ameça telefone convencional em chamadas internacionais

Skype começa a tomar o lugar do telefone convencional em chamadas internacionais. E, pelo jeito, deve substituir em pouco tempo e de uma vez por todas o aparelho em escritórios e residências. O software permite fazer ligações de longa distância praticamente de graça por VoIP, e já tem sido utilizado em dispositivos móveis, como notebooks e celulares (alguns já vêm com o programa pré-instalado).

A avaliação da TeleGeography registra que o volume de ligações telefônicas internacionais nos últimos 25 anos cresceu 15% anualmente. Mas os últimos anos houve desaceleração; em 2008, foram 376 bilhões de minutos, enquanto o ano passado registrou 406 bilhões de minutos.

Já as ligações internacionais entre usuários do Skype apresentou crescimento de 51% em 2008, e a expansão estimada para 2009 é de 63%, ou 54 bilhões de minutos. Apesar do volume crescente de chamadas internacionais, a TeleGeography pondera que o Skype não é um serviço à prova de recessão.

O serviço conta hoje com 520 milhões de usuários registrados. Criado em 2003 com sede em Luxemburgo, a receita ainda é considerada modesta. Foram US$ 551 milhões em 2008. E a companhia sofre para convercer os usuários a pagar pelos serviços pelos quais já se acostumaram a não pagar. A meta do serviço é dobrar em até dois anos, seu faturamento anual, indo para US$ 1 bilhão.

Baidu processa empresa americana por negligência


Agora é a vez do Baidu reclamar. O maior mecanismo de busca da China decidiu processar seu registro de nome de domínio baseado nos Estados Unidos por suposta neglicência, relacionada a um ataque acontecido na semana passada que bloqueou o acesso ao site.

O Baidu responde hoje por 60% das buscas feitas na internet na China. A ação contra a Register.com foi impetrada em um tribunal de Nova York. A alegação não especifica os danos causados. Crackers teria bloqueado o acesso ao Baidu no dia 12 de janeiro, redirecionando o tráfego para um ste de um grupo que se auto-denominava 'Ciberexército Iraniano' e que teria assumido a responsabilidade do ataque. Ainda não existem provas de que o grupo tenha origem ou esteja ligado ao Irã.

Em comunicado, o Baidu reclamou: "Por causa da grosseira neglicência da Register.com, a resolução do nome do domínio www.baidu.com foi ilegal e maliciosamente alterada". A 'resolução' é relativa ao processo por meio do qual o endereço do site é escrito na série de números que o computador reconhece como seu endereço na web. No entanto, o Baidu não explicou exatamente qual a acusação sobre o Register.com.

Sony lança cartão de memória que faz transferência de dados wireless.

A Sony lançou um novo cartão de memória com tecnologia de transferência de dados por wireless. O produto já tinha sido mostrado na CES 2010, e é mais um que ganha as prateleiras.


O modelo apresentado pela empresa japonesa é de 8 GB, mas modelos de 16 Gb e 32 GB também estarão disponíveis.

A grande novidade é mesmo a tecnologia desenvolvida pela Sony de transferência de dados. Basta aproximar o cartão de memória a 3 cm do dispositivo que irá receber os dados (imagens, fotos, arquivos, etc.) e a transferência é feita. A velocidade de transferência é bem alta: 560 Mbps. Estará disponível no Japão, ainda sem preço definido.

10 crimes mais misteriosos e nunca solucionados da internet

Conheça os crimes que intrigam a rede desde 1989



Hacker é a palavra da moda. Eles são o terror das empresas e de pessoas que acham que estão protegidas com um antivírus. Mas os crimes online são muito mais complexos. No mundo da informática, quebras de segurança ocorrem a todo instante e apenas algumas poucas vezes os malfeitores acabam rastreados e identificados pela polícia ou por algum outro órgão de segurança pública.

Quando um grande crime cibernético não é solucionado, muitas vezes ele também acaba ficando esquecido. Ou seja, as pessoas que não habitam o universo dos crimes tecnológicos sequer ficam sabendo que tal fato aconteceu. Por isso, elaboramos uma lista com os 10 crimes cibernéticos que jamais foram solucionados.

1. O Worm WANK (outubro de 1989)

É considerado primeiro ataque de um hacker. O WANK foi um worm que atingiu em cheio os escritórios da NASA em Greenbelt, cidade no estado americano de Maryland. O programa invasor – cujas iniciais significam Worms Against Nuclear Killers (literalmente, “vermes contra os assassinos nucleares”) – fez aparecer um banner em todos os computadores do sistema.

Foi um protesto que teve como intuito tentar impedir o lançamento da sonda Galileo (que utilizava plutônio como combustível) a Júpiter. Dizem que a NASA gastou cerca de meio milhão de dólares em tempo e recursos para fazer a limpeza completa do seu sistema. Até hoje, ninguém tem certeza de onde o ataque se originou, embora muitos dedos tenham sido apontados para hackers de Melbourne, na Austrália.

2. Satélite hackeado do Ministério da Defesa (fevereiro de 1999)

Um pequeno grupo de hackers do sul da Inglaterra conseguiu se apoderar do controle de um satélite (modelo Skynet) do Ministério da Defesa local. A invasão se caracterizou por aquilo que os oficiais encarregados chamaram de “guerra de informações” – o ataque ficou notório por ter prejudicado seriamente os canais de comunicação entre os órgãos militares.

Ao final do ataque, os hackers reprogramaram o sistema de controle antes de serem descobertos e, embora a unidade de crimes cibernéticos da Scotland Yard e as Forças Armadas americanas tenham trabalhado em conjunto para investigar o caso, não foi efetuada nenhuma prisão.

3. Cartões de crédito na CD Universe (janeiro de 2000)

Um caso de chantagem com desfecho trágico, a postagem de mais de 300 mil números de cartões de crédito pelo hacker Maxim, de um site chamado “The Maxus Credit Card Pipeline”, continua sem solução desde o começo do ano 2000, data do ocorrido.

Maxim roubou as informações desses cartões ao invadir o CDUniverse.com, tendo exigido 100 mil dólares em espécie para destruir os dados. Ainda que muitos acreditem que Maxim seja do leste europeu, o caso continua sem solução.

4. Roubo de código-fonte militar (dezembro de 2000)

Entre as muitas coisas que ninguém gostaria que caíssem em mãos erradas, certamente encontra-se o código-fonte dos sistemas de controle de mísseis teleguiados. No final do ano 2000, um hacker invadiu o sistema de um laboratório de pesquisas navais em Washington, capital dos EUA, e surrupiou dois terços do código-fonte de um software que era responsável justamente por tal controle.

Tratava-se do OS/COMET, da companhia Exigent Software Technology, empresa trabalhando sob contrato para o governo norte-americano. As autoridades conseguiram rastrear a origem do intruso, de codinome “Leaf”, até a universidade de Kaiserslautern, na Alemanha, mas foi só até aí que chegaram. Depois disso, a trilha simplesmente desaparecia.

5. Hacker anti-DRM (outubro de 2001)

Hackers não são necessariamente más pessoas (quem rouba e comete crimes é o cracker). Muitas vezes, os hackers estão apenas tentando corrigir algo errado ou facilitar a vida do público consumidor de tecnologia. Foi esse o caso do hacker conhecido como Beale Screamer, cujo programa, o FreeMe, permitia aos usuários do Windows Media desvencilhar-se do famigerado DRM, sigla pela qual é mais conhecido o procedimento de segurança “digital rights management” que vem agregado a inúmeros arquivos de música e vídeo.

Quando a Microsoft começou uma caçada a Beale, diversos ativistas anti-DRM passaram a tratá-lo como um verdadeiro herói tecnológico.


6. Kucinich no CBS News (outubro de 2003)

A campanha presidencial do pré-candidato Dennis Kucinich não andava muito bem das pernas em meados de 2003, quando um hacker fez o que era preciso para dar a ela um gás renovado. Na manhã de uma sexta-feira, a homepage do CBSNews.com foi substituída pelo logotipo da campanha.

A página, então, era automaticamente redirecionada para um vídeo de 30 minutos, chamado “This is the moment”, no qual o candidato expunha sua filosofia política. A campanha de Kucinich descartou oficialmente qualquer envolvimento com a invasão e quem quer que tenha sido responsável jamais foi identificado.

7. Inscrição na faculdade (março de 2006)

Nos Estados Unidos, não existe vestibular. Mesmo assim, esperar pela resposta de uma universidade ou colégio de graduação ao pedido de admissão causa angústia extrema a todos os potenciais candidatos. Por isso, quando um hacker conseguiu entrar no sistema automatizado de inscrições de várias dessas escolas, em 2006, foi natural que ele quisesse dividir sua proeza. Assim, dezenas e dezenas de instituições americanas de alto nível, como Harvard e Stanford, viram seus candidatos se utilizando do método para checar qual o status de seus processos de admissão.

O hacker, que permanece incógnito até hoje, postou nos fóruns online da revista Business Week todas as instruções necessárias para uma invasão bem-sucedida – informação removida do ar pouco depois. Todos os candidatos que fizeram uso do esquema foram informados que receberiam pelo correio cartas de reprovação aos seus pedidos de admissão.

8. Ataque aos 26 mil sites (começo de 2008)

O MSNBC.com foi um dos milhares de sites usados por um grupo de hackers desconhecido, no início de 2008, para redirecionar seu tráfego a um código JavaScript próprio, hospedado em servidores conhecidos por espalhar malwares. O código malicioso se escondia em áreas dos sites invisíveis aos usuários, mas de onde podia ser ativado pelos hackers.

9. Quebra do supermercado (fevereiro de 2008)

Obscurecido apenas pela invasão da cadeia de lojas de departamentos T.J. Maxx em 2005, o roubo de pelo menos 1,8 mil números de cartões de crédito e de débito (além da exposição de cerca de 4,2 milhões ao todo) das redes de supermercados Hannaford e Sweetbay (ambas de propriedade do grupo belga Delhaize), ocorrido na Flórida e no nordeste dos EUA, continua sem solução.

Representantes das duas redes de supermercados e experts em segurança ainda não descobriram como os criminosos conseguiram acessar o sistema. A ação na T.J. Maxx se aproveitou de uma vulnerabilidade no sistema wireless de transferência utilizado em suas lojas. No entanto, a Hannaford e a Sweetbay não empregam qualquer tipo de tecnologia sem fio em seus pagamentos e transferências. Sem maiores informações, a dificuldade de identificar e capturar os responsáveis pelo roubo cresce exponencialmente a cada dia.

10. Redirecionando o Comcast.net (maio de 2008)

Um hackeamento engenhoso nem sempre envolve a descoberta de uma vulnerabilidade escondida ou um complicado esquema de seqüestro de dados confidenciais. Às vezes, é apenas um caso de informação preciosa que ficou comprometida. Foi mais ou menos o que aconteceu há alguns meses, quando um membro do grupo de hackers Kryogenics conseguiu acesso não-autorizado aos registros do Comcast.net, gerenciados pela empresa Network Solutions.

Uma ação que teve como alvo o DNS do site, ela fazia com que as pessoas que tentassem acessar seu webmail na homepage da Comcast fossem automaticamente redirecionadas à página dos hackers. Porta-vozes da Comcast e da Network Solutions ainda não descobriram como os hackers conseguiram acesso aos nomes de usuários e respectivas senhas.

Banda larga móvel terá 1,5 bilhão de assinantes em 2013

As assinaturas de banda larga móvel deverão saltar de pouco menos de 200 milhões em 2008 para 1,5 bilhão em 2013, segundo pesquisa elaborada pela empresa de soluções para comunicação Acision, em parceria com a fabricante de hardware para redes Cisco.

O acesso a internet via dispositivos móveis é considerada pelo Fórum Econômico Mundial o "agente da mudança" para o progresso econômico e social, de acordo com relatório divulgado nesta segunda-feira (18/1). Segundo a previsão do Fórum, em 2012 1,7 bilhão de pessoas terão celular, o que ajudará a elevar os gastos anuais globais em telefonia móvel a US$ 2,3 trilhões.

Inovações
O sucesso da banda larga móvel se deve a duas inovações: os progressos das redes de alta velocidade (3G, Wifi e superiores) e os dispositivos com mais capacidade de armazenamento e tela maior.

O estudo prevê que, em 2013, deverão ser vendidos cerca de 300 milhões de smartphones, o que representará 23% da venda total de celulares. Mas suas limitações em termos de tamanho de tela, processamento e bateria vão exigir especial habilidade dos desenvolvedores de conteúdo e aplicativos.

Para baixar todo esse conteúdo será preciso banda, constata o documento. A previsão é que o tráfego móvel de dados deverá aumentar 66 vezes entre 2008 e 2013. Como resultado, as operadoras deverão dedicar atenção especial aos problemas de congestionamento e à qualidade da experiência do usuário.

Outro desafio para as operadoras e provedoras será equilibrar a oferta de velocidades maiores com planos de banda larga móvel acessíveis a mais pessoas. A transparência de preços será fundamental para essa expansão. Uma possibilidade é o acesso pré-pago que deve represar 59% dos assinantes.

quarta-feira, 20 de janeiro de 2010

NIC.br opera nova cópia de servidor DNS raiz

O Núcleo de Informação e Coordenação do Ponto BR (NIC.br), em parceria com a instituição sueca Autonomica, anuncia a instalação da cópia do servidor DNS raiz I no Brasil. O equipamento está conectado desde o dia 13 de janeiro ao Ponto de Troca de Tráfego (PTT) de Porto Alegre. Essa é a quarta cópia ("espelho") de root-servers a operar no País. O objetivo dessa ação é diminuir o tempo de resolução de nomes de todos os domínios, aumentando ainda a autonomia e a confiabilidade no acesso global ao DNS por brasileiros.

De acordo com Milton Kaoru Kashiwakura, diretor de Serviços e Tecnologia do NIC.br, a instalação da cópia do servidor raiz ajuda sensivelmente a aumentar a velocidade da conexão com a Internet. "Fazendo a analogia com uma ligação telefônica, quando queremos ligar para alguém, a primeira providência é obter número telefônico desejado. A Internet funciona da mesma forma, ao digitar o nome de um site em busca de seu IP (o equivalente ao número telefônico), o usuário é atendido pelos servidores DNS globais. A boa sensação de conectividade está relacionada à rapidez com que a informação chega até o usuário, que depende além da largura de banda, da distância e rotas entre os computadores envolvidos na comunicação. É muito importante que os nomes dos sites sejam resolvidos pelo sistema DNS rapidamente", comenta Milton. Poucos países possuem mais de quatro cópias de servidores DNS raiz, entre eles estão Alemanha, Austrália, China, Estados Unidos, França, Índia, Itália, Japão e Reino Unido.

Histórico

Antes da existência das cópias desses servidores, a navegação era consideravelmente mais lenta. Até 2003, o internauta que precisasse acessar os servidores DNS raiz mais próximos levava aproximadamente mais de 100 milissegundos para obter a resposta. Com esse novo servidor, uma rede conectada ao PTT de Porto Alegre realizará o mesmo procedimento em menos de 10 milissegundos.

"Outras questões ainda precisam ser resolvidas para que os usuários brasileiros possam tirar o melhor proveito da web. O espelho do servidor I ajudará a diminuir o tempo de acesso ao site, mas a navegabilidade e o download do conteúdo, por exemplo, ainda dependem da qualidade da banda larga"

domingo, 17 de janeiro de 2010

RSA de 768-bit Crackeado

Pesquisadores conseguiram decompor um número de 768-bit com 232 decimais em seus dois fatores primos e publicaram um artigo [2] sobre a proeza com os devidos resultados. O número é a seqüência liberada como "RSA-768" sob a já finalizada RSA Challenge [3]. Como resultado, as criptografias via chave RSA com 768-bit já podem ser consideradas crackeadas. O feito foi realizado por uma equipe de pesquisadores provenientes de vários países: Suíca, Japão, Alemanha, França, EUA e Holanda. O desenvolvimento da técnica de crackeamento até o resultado atual com sua fatoração levou dois anos e meio.




O primeiro passo para a quebra da chave RSA de 768-bit consistiu no cálculo e na seleção polinomial. Essa etapa durou aproximadamente meio ano em um cluster de 80 PCs. Já a segunda etapa foi a que levou mais tempo e esforço da equipe, e demandou dois anos inteiros em um cluster com algumas centenas de máquinas. De acordo com os pesquisadores, um computador com um processador Opteron e 2GB de memória RAM levaria em torno de 1.500 anos para completar essa "tarefa". Lembramos que a criptografia por chave RSA de 512-bit já foi crackeada há aproximadamente uma década.

PPTP VPN com Pfsense Firewall

Usando VPN no pfsense para interligação


Instalando Mikrotik em um CF

Este pequeno video mostra como instalar no compact flash o sistema mikrotik e depois dar um boot na routerboard com o compact flash.


DDoS Massivo nos Servidores DNS da InterNetX

No dia 6 de janeiro de 2010, os serviços de DNS da InterNetX [2] sofreram um massivo ataque DDoS (Distributed Denial of Service) [3], derrubando todos os seus serviços na Alemanha. A empresa ainda está tentando entender o tipo e o escopo desse ataque. Por volta da uma da manhã (em horário local) o acesso aos servidores da InterNetX estavam, se não difíceis, impossíveis de serem alcançados. Atualmente os hosts adicionaram filtros técnicos para mitigar os efeitos dos ataques. O servidor já estava de volta em execução no dia seguinte.


Desde 2004, a InterNetX se tornou parte da United Internet Holding [4]. A companhia informa que atualmente hospeda algo em torno de 2.9 milhões de domínios, adicionalmente aos negócios de revenda de domínio da Schlundtech [5]. Um responsável pela 1&1 informa que o problema não afetou os domínios hospedados por provedores dentro da United Internet, como os próprios 1&1 e GMX. Lembramos que os servidores DNS da InterNetX já haviam sofrido um ataque DDoS massivo no final de 2008.

sábado, 16 de janeiro de 2010

Preço de licença SCM pode cair de R$ 9 mil para R$ 1,2 mil

A Agência Nacional de Telecomunicações (Anatel) prepara um novo regulamento para incentivar pequenos provedores de internet que queiram entrar no setor de telecomunicações com licenças de Serviço de Comunicação Multimídia (SCM). Para essas empresas, o órgão estuda redução do preço das autorizações, que atualmente custam cerca de 9 mil reais e que podem cair para até 1,2 mil reais, dependendo da área de cobertura.

O SCM é um serviço fixo de telecomunicações de interesse coletivo, que pode ser prestado em âmbito regional, nacional e internacional, no regime privado. Os credenciados podem ofertar aos assinantes capacidade de transmissão, emissão e recepção de informações multimídia, utilizando quaisquer meios de uma área de prestação de serviço.

A revisão do regulamento de licenças SCM é uma proposta da conselheira da Anatel, Emília Ribeiro, que está fazendo um estudo para diferenciar preços para compra de concessões nacionais ou regionais nessa área. Atualmente, o valor é o mesmo, independente da área de cobertura.

Emília informa que o objetivo da proposta é reduzir os valores para provedores que atuam em cidades pequenas. Segundo ela, o custo poderá cair para até 1,2 mil reais, em caso de cidades com 30 mil habitantes.

A conselheira está sugerindo também que haja menos exigências para a liberação das concessões SCM para pequenos provedores. Emília dá o exemplo da necessidade de instalação de linha 0800 para atendimento de consumidores. Provedores regionais poderão ter obrigações diferentes dos que têm cobertura nacional.

Parte do plano nacional de banda larga
Com essas alterações, a conselheira da Anatel espera ampliar o número de prestadores de SCM no Brasil e estimular empresas que atualmente oferecem esses serviços de forma clandestina. De acordo com a Anatel, foram expedidas 1,5 mil concessões para atuação nessa área, incluindo grandes provedores, departamentos estaduais de trânsito e de polícia, além de universidade.

Porém, Emília estima haver atualmente pelo menos outros 2 mil provedores ofertando SCM de forma ilegal. Com a revisão da regulamentação, a Anatel espera que o número de provedores aumente para 5 mil até o final de 2010.

A conselheira da Anatel destaca que esses provedores são importantes para o Plano Nacional de Banda Larga (PNBL), que está sendo preparado pelo governo federal. “São eles que vão entregar a última milha e não adianta construir estradas sem pavimentar as ruas”, compara a técnica.

O novo regulamento para concessão de SCM deverá passar pela Advocacia Geral da União (AGU) para receber parecer jurídico e depois pelo Conselho da Anatel para entrar em consulta pública. Emília acredita que as mudanças entrarão em vigor no segundo semestre.

Ataques DDoS estão mais fortes do que nunca

Os ataques de negação de serviço (DDoS), que têm como objetivo deixar algum serviço web indisponível, vêm atingindo as companhias desde o início da era digital, embora tenham tido pouco destaque na mídia nos últimos anos. A ameaça, no entanto, está mais forte nos últimos seis meses do que nunca esteve, graças a algumas mudanças na natureza desses ataques.
Os alvos continuam os mesmos: companhias privadas e sites governamentais. As tentativas são de roubar informações ou atrapalhar operações em benefício de alguma concorrente ou pela simples impopularidade do alvo. Mas a ferocidade e a profundidade dos ataques crescem exponencialmente, graças, em parte, à proliferação de botnets (softwares robô que agem de forma autônoma) e ao bom trabalho dos criminosos, que estão conseguindo disfarçar ataques de tráfego legítimo.




O chefe de segurança da empresa norte-americana Akamai Technologies, Andy Ellis, afirma que a abrangência dos ataques DDoS já é tão vasta que quem controlam a ameaça já não dá conta de administrar todas as máquinas que têm sob controle.
Ellis pode observar de perto a ameaça, porque muitos dos usuários da Akamai são companhias globais que rodam bilhões de operações online todos os dias, como Audi, NBC, Fujitsu, Departamento de Defesa dos EUA e Nasdaq. Segundo o chefe de segurança da Akamai Technologies, raramente existe algum momento em que os clientes da empresa não estão sob a mira de DDoS.
“Vemos poucos malwares pontuais, voltados a atolar as máquinas dos clientes”, diz Ellis, referindo-se às pragas da velha guarda, como Blaster e Mydoom. “Hoje, os criminosos mantêm o controle da máquina e agem por meio de botnets”, completa. No ano passado, a Akamai observou recordes de ataques DDoS, alguns deles com mais de 120 gigabits por segundo.

Um dos exemplos foi um ataque em 4 de julho de 2009, contra computadores do governo dos Estados Unidos. Cerca de 180 mil computadores afetados atingiram sites do governo e causaram dores de cabeça para negócios baseados no País e também na Coréia do Sul. O ataque começou no sábado, derrubando os sites da Comissão Federal do Comércio dos Estados Unidos (FTC) e o Departamento de Transporte dos Estados Unidos (DOT). O US Bankcorp, sexto maior banco comercial do país, também foi atingido.

Os ataques também foram direcionados para serviços do Google, Yahoo e Amazon. Os ataques contra o Google não duraram muito, mas se levar em consideração que o conteúdo da empresa responde por 5% de todo o tráfego de internet, tem-se uma ideia melhor da gravidade da situação.

O chefe de tecnologia da empresa de segurança Prolexic Technologies, Paul Slop, comanda de perto uma equipe de 30 engenheiros que se dedicam em tempo integral ao estudo do problema. “Construímos um banco de dados sobre reputação de endereços IP e temos registro de cerca de 4 milhões de computadores infectados. É surpreendente a quantidade de botnets e a facilidade com que cria novos”, afirma.

As maiores tendências do ataque, de acordo com observações da Prolexic, é com que eles se pareçam cada vez mais com tráfego legítmo de internet. Em vez de criar um grande pico de tráfego que costuma indicar o início de um ataque, ele começa a subir vagarosamente por meio do escalonamento da ação dos diversos bots. Os bots, por sua vez, variam no estilo de ataque, tornando a tarefa de separar ataques de usuários reais um verdadeiro desafio.

Cloud computing: a verdade por trás do discurso da indústria

A computação em nuvem (ou cloud computing, em inglês) transformou-se no termo mais repetido ultimamente no mercado de TI. O problema é que, apesar de muitas pessoas falarem sobre o assunto, poucas conseguem ter uma definição clara do que ele realmente significa. O que representa um problema para os CIOs, os quais ficam perdidos em meio ao bombardeio de ofertas por parte dos fornecedores.

Como uma metáfora para a internet, ‘a nuvem’ é um termo já familiar, mas quando combinada com a palavra ‘computação’ torna-se um conceito maior e mais confuso. Alguns analistas definem o cloud computing como uma versão atualizada de utility computing – modelo no qual o usuário paga apenas pelo que realmente consome. Outros têm uma visão mais ampla e argumentam que computação em nuvem é qualquer recurso utilizado fora das fronteiras do firewall, o que inclui a terceirização tradicional.

Em uma definição simplificada, o cloud computing é um modelo que permite à TI aumentar a capacidade de processamento ou adicionar novos recursos sem ter de investir em uma nova infraestrutura, treinamento de pessoas ou pagar pelas licenças de software.

Com o intuito de mostrar as diversas facetas da computação em nuvem, analistas, fornecedores e usuários listaram os vários componentes que podem ser inseridos nesse modelo:

1. SaaS (software como serviço)
Nessa modalidade, uma mesma aplicação pode ser oferecida para dezenas de usuários por meio de uma arquitetura. Do lado dos clientes, isso significa economia de investimentos em servidores ou licenças de software.

2. Utility computing
A ideia não é nova, mas esse modelo tem servido para que grandes fornecedores ofereçam armanezamento e servidores virtuais sob demanda para as organizações.

3. Web services
Esse conceito está intimamente ligado ao SaaS. No caso dos serviços baseados na Web, os provedores fornecem APIs (interface de programação dos aplicativos, em português) que permitem aos desenvolvedores explorarem as funcionalidades das aplicações por meio da Web.

4. Plataforma como serviço
Outra variação do SaaS, esse modelo de cloud computing permite oferecer desenvolvimento como um serviço. Ou seja, o cliente pode ter sua própria aplicação rodando em um provedor de infraestrutura e a mesma é entregue aos usuários por meio da Internet.

5. Managed Service Providers (provedores de serviços gerenciados)
Uma das formas mais antigas de computação em nuvem, o serviços gerenciado é basicamente focada em aplicações ligadas à TI do que no usuário final. Um exemplo é uma oferta de serviço de varredura dos e-mails para verificar a existência de vírus ou uma aplicação para monitoramento da rede.

6. Service commerce platforms (plataformas de serviços comerciais)
Este modelo representa uma mistura entre SaaS e MSP, na medida em que oferece um serviço e os usuários podem interagir com o mesmo. A iniciativa costuma ser mais comum em iniciativas ligadas a comércio, como o caso de sistemas para gestão de despesas.

7. Integração dos serviços na nuvem
A integração de serviços baseados nas nuvens ainda é algo recente. Mas, basicamente, ela prevê a interconexão entre os diversas iniciativas de cloud computing.

domingo, 10 de janeiro de 2010

Redes sociais: como utilizar as ferramentas para gerenciar equipes

O ano de 2010 promete grandes rupturas. Depois de um momento de crise internacional, há uma expectativa de que as empresas apostem em novos modelos de negócio e, ao mesmo tempo, valorizem mais os profissionais que estejam preparados para mudanças.

Dentro desse contexto, o CIO - bem como os demais executivos do C-level - vão ter de aprender a utilizar as redes sociais para gerenciar suas equipes, defende o consultor de negócios e tecnologia do Grupo Datasystem, Jonathas Rios. Para ele, a Web 2.0 oferece uma série de ferramentais para reter talentos ou aumentar a produtividade e que, necessariamente, precisam estar no radar dos executivos.

A seguir, Jonathas faz uma lista de qual o caminho para que, a partir do blog, o CIO transforme as redes sociais em aliadas e, por consequência, consiga ser encarado como um agente de mudança pelas organizações:

1. Tenha um blog – Quando se trata de uma grande empresa ou de departamentos com muitos colaboradores, um blog pode ser a alternativa ideal para entrar em contato com as pessoas. É claro que se comunicar pessoalmente é muito mais eficaz para formar um vínculo com os colaboradores, mas é preciso perceber que não existe tempo hábil para isso, principalmente se levarmos em conta que – embora muitas organizações não saibam – os gestores também têm vida pessoal. A ideia do blog é estender a influência além das fronteiras geográficas representadas por salas, andares, unidades de negócios, cidades e países.

2. Seja transparente – Todos sabem que um alto executivo não pode dizer publicamente o que sabe, mas eles têm a missão de se apresentarem como pessoas reais e comuns. Para isso, a dica é: deixe deu posto de lado por um instante e expresse no blog quem você realmente é por trás do título de liderança na corporação.

3. Conte histórias nos blogs – Não há nada que prenda mais a atenção de um leitor do que uma boa história.

4. Incentive o diálogo – É importante que os gestores façam perguntas nos blogs, respondam a questionamentos e mostrem que realmente são eles mesmos quem gerenciam o site e, além disso, que estão preocupados com as impressões e dúvidas de suas equipes.

5. Realize enquetes – Mesmo que não sejam uma grande ferramenta de comunicação, as enquetes são ótimos parâmetros para que os líderes identifiquem qual, exatamente, é o perfil de seu público mais atuante.

6. Não seja um fantasma – Algumas pessoas reagirão negativamente à iniciativa do blog, bem como a alguns textos postados. No momento em que expressarem descontentamento, é importante que os executivos mantenham o diálogo com essas pessoas. Isso porque, dessa forma, mostrarão que podem argumentar e que ouvem as opiniões contrárias às suas.

7. Demonstre – Nada é mais marcante do que uma imagem. Por isso, é interessante que os “blogueiros executivos” postem vídeos em suas páginas. Uma boa sugestão é a de que entrevistem outros gestores da mesma companhia sobre determinados temas de interesse do público e divulguem no blog.

8. Peça ajuda – É normal que os gestores não estejam familiarizados com as tecnologias colaborativas. Assim, é válido que peçam o auxílio de funcionários mais jovens, demonstrando humildade e reconhecimento dos talentos alheios.

9. Reconheça publicamente – Depois de auxiliados, os líderes devem postar algum comentário reconhecendo em público quão importante foi o apoio daqueles que o ajudaram. Nada é mais gratificante do que o reconhecimento.

10. Vá em frente – As iniciativas às vezes demoram um pouco para cair nas graças do público, por isso é importante que os executivos não desistam do blog e utilizem-no como ferramenta para liderar as mudanças que serão necessárias em 2010.

LTE: conheça a nova tecnologia que será a banda larga móvel turbinada

Nada de WiMax e 3G. Programado para estrear em 2013, LTE se mostra como potencial tecnologia para redes 4G pela velocidade de acesso.

Tal qual o telefone celular, há uma mudança de paradigma em curso para as redes de telefonia móvel: elas já não servem apenas para falar. Cada vez mais, são os dados de chamadas por vídeos, conteúdo multimídia e navegação online que tomam o espectro.
Na inversão de papéis entre o consumo de chamadas por voz e o de dados, uma nova tecnologia promete ser a ponte para que a web móvel se torne prioridade dentro das operadoras de telefonia.
O Long Term Evolution (LTE) deverá ser oficializado como padrão de rede para banda larga móvel neste mês, quando o 3rd Generation Partner Program (3GPP) publica as especificações finalizadas em dezembro, e dá um empurrão na adoção do potencial primeiro sistema 4G do planeta.
E porque tanta expectativa a respeito do LTE, que já conta com redes em testes no Reino Unido e planos de investimentos por operadoras nos Estados Unidos e na Suécia? Sem grandes surpresas, a atenção dada ao LTE tem relação com sua capacidade de navegação.
Enquanto os padrões por trás das redes 3G que você usa hoje, como HSPA ou UMTS, atingem velocidades máximas de 14 Megabits por segundo (Mbps), testes com o LTE indicam picos de navegação de até 120 Mbps, quase 10 vezes mais rápido.“Trata-se de uma quebra de paradigma. Redes LTE são projetadas para a troca de dados”, e não ao redor das chamadas de voz, explica José Geraldo Alves de Almeida, gerente de desenvolvimento e negócios da Motorola.
“A tendência das redes é essa agora. Mesmo que a voz ainda seja o grosso (do faturamento pelas operadoras), o crescimento futuro está ao redor de serviços” oferecidos seja pelas operadoras ou por desenvolvedores independentes, explica o executivo.
A popularização do 4G, com chances cada vez maiores de ser personificado pelo LTE, fomentará um novo mercado de aplicações e serviços móveis, principalmente que envolvam conteúdo multimídia e aplicações de geoposicionamento.
Mais que isso: o LTE representa a primeira "banda larga móvel de verdade", um conceito que o mercado se cansou de relacionar ao WiMax mas que, pela falta de investimentos no padrão pelo mundo, ainda não chegou a se concretizar.Movimentações para que o LTE tome a definição no mercado para si não faltam.
Após a confirmação pelo 3GPP que tinha finalizado o esboço da especificação, a Verizon anunciou que começaria a procurar parceiros para estrear a primeira rede comercial LTE dos Estados Unidos entre o final de 2009 e o começo de 2010.
Simultaneamente, a TeliaSonera anunciou em janeiro que selecionou parceiros para desenvolver sua rede do padrão na Suécia, que deverá ser lançada comercialmente também no começo de 2010.
Os prazos, no entanto, são flutuantes principalmente pelo impacto da crise econômica mundial nos investimentos reservados pelas operadoras em novos equipamentos.
Como José Geraldo explica: “cada nova geração (de telefonia) significa duas coisas: mais velocidade pra dados e capacidade de colocar o usuário no sistema; e necessidade de dinheiro para trocar todos os equipamentos de acesso”.