quinta-feira, 16 de dezembro de 2010

Cópia bit a bit

Opa, será verdade ?


         Para a análise forense, a cópia bit-a-bit é de fundamental importância para a busca de evidências computacionais que venha a comprovar a inocência ou a culpa de um réu. Comumente ouvimos pessoas tecnicamente qualificadas explorando o comando dd como uma forma de realizar esta cópia. Mas será que um comando que roda em um sistema operacional tem a capacidade de descer a este nível de sinalização ?,  um pouco de arquitetura computacional mostra que para os dados serem disponibilizados pelo hardware para o S.O eles são alocados em unidades chamadas de clusters ou blocos e seu tamanho varia de acordo com o sistema de arquivos bem como a capacidade total de armazenamento do HD , ou seja esse comando está mais para uma cópia bloco a bloco e não bit-a-bit. Para uma cópia bit-a-bit os fabricantes de duplicadores físicos garantem descer a esse nível . Como o valor destes duplicadores físicos não está ao alcance da maioria dos peritos ou curiosos, o comando dd é realmente o que se aproxima mais do que realmente queremos.

Vejamos como o dd é usado..

# dd if=/dev/hda1 of=/home/imagem.img

Para visualizar o processo use:

# watch df -h

Sempre calcule o hash de sua imagem:

# md5sum imagem

# ef929460b3731851259137194fe5ac47  imagem

domingo, 21 de novembro de 2010

Controle de banda com CBQ / HTB .

Passei por uma demanda de serviço de QoS a poucos meses, o que me levou a cair mais afundo na pesquisa dos serviços que o CBQ - (Class Based Queueing) e o HTB - (Hierachical Token Bucket) oferecem.


O controle de banda vem sendo bastante utilizado na otimização do tráfego de downstream ( trafego de entrada ), bem como o upstream ( trafego de saída ), com isso a escolha de um serviço eficiente, deve levar em consideração o custo beneficio de tais aplicações.

O CBQ, apesar de ser mais complexo de configurar , necessitando um grau maior de conhecimento em linux pelo fato da recopilação do kernel ser inevitável, produz melhores resultados no fluxo da informação em ambos os sentidos (up , down). Isso pode ser de fundamental importância quando temos que dimensionar links com diferentes taxas up-down, ex links ADSL.
Se esse é o seu caso essa é a solução.

O HTB, bem mais simples de configurar, não contempla bons resultados para diferentes taxas up-down, porem atende as expectativas quando a palavra e link's síncronos com taxas up-down equivalentes. Se o seu link possui igual taxa de up-down, essa é a solução.

Links de tutoriais: CBQ http://br-linux.org/artigos/dicas_cbq.htm (a única observação é a confusão feita no entendimento da tecnologia DSL e ADSL ).
HTB http://www.vivaolinux.com.br/artigo/Controle-de-trafego-utilizando-HTB-no-Debian-Sarge/?pagina=1

domingo, 31 de outubro de 2010

PLC, Uma conexão que está ganhando energia no Brasil

1.Introdução
A democratização do acesso à informação tem sido um dos principais motivos que permitiu a melhoria da qualidade de vida da sociedade. Durante o século XX, assistimos o surgimento e o crescimento da Internet com uma velocidade incrível. No ínicio da era comercial da grande rede de computadores, apenas pessoas que possuíam linha telefônica tinham acesso a rede mundial de computadores. Em seguida surgiram tecnologias como DSL, ADSL, ligações através de TV à Cabo e por rádio. O número de pessoas conectadas a rede cresceu de forma assustadora. No final da década de 90 surgiu uma tecnologia capaz de atingir ainda mais residências. Conhecida como PLC - Power Line Comunications - ou BPL - Broadband over Power Lines, permite o acesso a rede mundial de computadores através da utilização da rede elétrica já existente em mais de 95% do território brasileiro. Neste artigo, abordaremos um pouco do histórico dessa conexão, bem como sua arquitetura de funcionamento. Também discutiremos sobre suas vantagens e desvantagens comparadas a outros modos de conexão.
2.Histórico:
Por volta de 1920 já era perceptível a iniciativa da utilização da fiação eléctrica para a transmissão de dados, com tecnologias remotas mas bastantes usuais como a transmissão de pulsos de telégrafos sobre redes trifásica. na época tornava-se inviável aprofundamento de tais pesquisas, mas com os avanços da microeletrônica e o barateamento de equipamentos voltou a ser um assunto interessante a se pensar, passando a se chamar PLC-Power Line Comunications. Uma das primeiras tentativas foi com o "Riple Control" onde seria utilizada no controle da iluminação pública. Com as atuais pesquisas pode-se chegar a uma taxa de transmissão por volta 45Mbps com utilização de 72 portadoras de alta freqüência simultaneamente.
2.1.PLC Brasil:
A CEMIG. veio com o primeiro investidor nessa tecnologia no Brasil onde visava utilizar a tecnologia x10 para a transmissão em horários de pico, para que fosse distribuída homogeneamente. A companhia também utilizava a tecnologia para leituras automáticas nos medidores de consumo onde um simples laptop poderia se conectar a um transformador onde nele onde nele conterias as leituras mensais do bairro inteiro.
Outras companhias como a COPEL (PR), CELG (GO), Light (RJ), ELETROPAULO (SP) e EXCELSA fazem implementação de acesso à Internet via rede elétrica em residências para testes, mas pretendem disponibilizar ao público.
3. Funcionamento básico:
O princípio do funcionamento da BPL é que como a freqüência do sinal de conexão é na faixa dos MHz (91,7 a 30) e a energia elétrica é da ordem dos Hz (50 a 60 Hz) os dois sinais podem conviver tranqüilamente no mesmo meio. O sinal BPL é enviado pela central para um equipamento chamado INJETOR BPL, que se encarrega de inserir o sinal da Internet da rede elétrica. O sinal chega a outro equipamento chamado REPETIDOR BPL cuja função é não deixar que o sinal de Internet não seja atenuado. Quando o sinal chegar ao EXTRATOR BPL é convertido para ser usado pelo computador do usuário final. Vale informar que a velocidade do PLC possui velocidade não assíncrona. Isso significa dizer que se tem o mesmo desempenho tanto no envio, quanto no recebimento de dados. Analisemos o esquema a seguir:
QUADRO 1 -  Esquema de sinalização via rede elétrica.

        



FIGURA 1 -  Esquema de sinalização via rede elétrica.


3.1.Vantagens:
As vantagens da conexão BPL são: sua infra-estrutura atinge praticamente 95% dos lares brasileiros, o que significa uma redução na implantação sem comparações com outras tecnologias. Outro ponto positivo é a alta taxa de transmissão que pode alcançar 40Mbps atuando na freqüência de 1,7MHz a 30MHz. Uma característica importante da conexão na rede elétrica é o conceito de grids inteligentes:eles têm a função de monitorar a extensão da fiação elétrica, permitindo reduzir as perdas na transmissão. Por exemplo, no caso da queima de um transformador, é possível saber exatamente em que ponto o problema ocorreu.
3.2.Desvantagens:
Embora seja uma tecnologia promissora, a BPL também possui suas desvantagens: 
·         O sinal acaba atenuando (enfraquecendo) após percorrer distâncias muito longas.
·         A freqüência utilizada pelo sinal pode interferir em alguns equipamentos eletro-eletrônicos; de forma idêntica, outros aparelhos podem interferir na transmissão
·         A necessidade de instalação de repetidores em cada transformador externo, pois filtram sinais de alta freqüência
·         A Impedância variável - Como a fiação das residências foram feitas para que o aparelhos e dispositivos funcionam em paralelo o ligamentos e desligamentos de tais equipamentos mudariam completamente a situação da rede de forma freqüente atenuando assim o sinal de transmissão.
·         A Indutância elevada dos fios - os fios são livres de qualquer blindagem e também espesso e longos a indutâncias resultante em altas freqüências causam grandes atenuações nos sinais. 

GRÁFICO 1 - Histograma de atenuação


4.Legislação:
Com o surgimento de qualquer nova tecnologia, faz-se necessário uma regulamentação. Na área de transmissão de dados via rede elétrica pode ocorrer a interferência em outros meios de transmissão como radio e televisão. Além de existir o fato da radiação eletromagnética. Abordaremos a regulamentação que torna essa tecnologia segura e que não interfira em outros meios de comunição.

4.1.Padronização:
       Existem duas formas de padronização internacional tais como a americanada FCC (Federal Communications Comissiona), que permite qualquer comunicação desde que a portadora esteja abaixo de 525Khz e existe a Européia CENELEC (Comité Européen de Normalisation Electrotechnique que divide as faixas de acordo com o tipo de aplicação.
Banda A - de 9 a 95kHz - Para empresas de fornecimento de energia;
Banda B - 95 a 125kHz - Para uso público sem protocolos;
Banda C - 125 a 140kHz - Para uso público com protocolos;
Banda D - 140 a 148,5kHz - Para uso público sem protocolos;
Acima de 148,5kHz as comunicações via rede elétrica são proibidas.
  No Brasil com surgimentos das empresas estrangeiras no mercado, ocorreu um encontro para a regulamentação com a ANATEL (Agência Nacional de Telecomunicações) e com o apoio do CBC-7(Comissão Brasileira de Telecomunicações 7), em 13 de Abril de 2009  foi aprovado por unanimidade as normas tecnicasparao uso da PLC .Veja materia da epoca.  http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=18438&sid=8
 Conclusão
Observa-se que há um grande empenho da comunidade em desenvolver tecnologias de baixo custo visando um maior acesso da população à Internet, A PLC vem sendo uma das tecnologias mais promissoras nessa área, com os testes que vem sendo realizados nota-se que ainda tem muito a desenvolver, porém observa-se que a velocidade em que tais evoluções ocorrem, nos faz entender, que em um curto espaço de tempo, uma significativa parcela da população terá acesso a banda larga de qualidade e a baixo custo. Tal evolução não está relacionada somente a área de comunicação, mas abrange todos os campos sociais como  educação, saúde e segurança alvos maiores dos governos e da população em geral.

                                                                                                         Autores:

César Augusto Freitas Azevedo
Cláudio Henrique Bezerra de Souza
Credson Isaac L. dos Santos
Camila Munay Dantas Frutuoso
Laudo Ferreira Júnior
5. REFERÊNCIAS

MONQUEIRO Júlio César Bessa. Entendendo a Internet  sob rede elétrica. Disponível em   <http://www.guiadohardware.net/artigos/internet-rede-eletrica>Acesso em: 05 julho 2009.
PLC - Power Line Communication - Banda larga pela rede elétrica. Fórum de discussão. Disponível em <http://www.wirelessbrasil.org/wirelessbr/secoes/plc_banda_larga_rede_eletrica/resumo.html>Acesso em: 05 julho 2009.

MARQUES, Gabriel Alan Gehm. Transmissão de dados via rede elétrica. Monografia submetida à Universidade Federal de Santa Catarina. Disponível em:.<http://www.wirelessbrasil.org/wirelessbr/colaboradores/gabriel_marques/dados_via_rede_01.html >. Acesso em: 05 julho de 2009.

quinta-feira, 21 de outubro de 2010

802.11n um MIMO de rede!

Parecia ter chegado o limite físico das comunicações em sistemas wifi com o 802.11g, porém como sempre os projetistas deram mais uma sacada na arte de reinventar. O 802.11n veio com a  tecnologia MIMO usando múltiplos canais de transmissão e múltiplos canais de recepção para usufruir da comunicação em paralelo e assim ganhar com o almento de banda e o alcance das transmissões wifi. Quase que fazendo um mix das versões anteriores do protocolo wifi o 802.11n surge com taxas de transferências disponíveis: de 65 Mbps a 600 Mbps. -método de transmissão: MIMO-OFDM - Faixa de freqüência: 2,4 GHz e/ou 5 GHz e distancias de até ....
Opa, falar de distâncias em  redes sem fio é de fato uma questão complicada, são muitas as variáveis de influência, dentre elas:

a) O ganho das antenas instaladas no ponto de acesso e no cliente
b) A potência dos transmissores
c) Os obstáculos e fontes de interferência presentes no ambiente

Porém os fabricantes garantem 70m para ambientes fechados e 250 em ambientes abertos, más sabemos que com determinadas antenas podemos ampliar essa comunicação para a casa dos Km's.

Ofato é que o 802.11n no mínimo dobrou as taxas e distanciais do seu antecessor, o perigo é continuarmos a afirmar que o padrão wifi está chegando ao seu "limite físico". 

 

sábado, 2 de outubro de 2010

WiMAX 802.16, Uma Metropole conectada !

 Wimax (Worldwide Interoperability for Microwave Access/Interoperabilidade Mundial para Acesso de Micro-ondas).  surgiu em 2001 com a IEEE 802.16, com a proposta de disponibilizar uma comunicação sem fio, em grandes áreas metropolitanas. O  WiMAX Forum é um grupo de empresas que visão a interoperabilidade entre os dispositivos WiMAX. A WiMAX vem sendo testada já há algum tempo no Brasil. O padrão IEEE 802.16 já tem até sua faixa de frequência regulamentada pena ANATEL a faixa será a de 2.5 Ghz e deve ser usada pelas empresas de telefonia no padrão 4G de telefonia movel. Algumas cidades brasileiras já estão disponibilizando internet sem fio para a população a baixo custo, usando o padrão Pré WiMAX. Esse novo padrão vem agitando o mercado de telecomunicações, os leilões de freqüência estão sendo bastante discutidos pela comunidade, a Homologação de equipamentos pela ANATEL, já começa a ser efetivada, e muito breve será o dia em que teremos internet de qualidade associado a mobilidade e preços baixos.

Assistam aos vídeos e comente!



segunda-feira, 27 de setembro de 2010

Concurso Público TRT 21ª Região/RN 2010

O cespe unb divulgou o edital para o TRT 21ª Região/RN 2010  no seu site http://www.cespe.unb.br/concursos/ e confirma 12 vagas para TI entre analista e técnico judiciário especialista. As inscrições estão abertas até 4 de Novembro do corrente ano.

domingo, 26 de setembro de 2010

Gestão em Tecnologia da Informação, e sua origem

No início do uso dos recursos tecnológicos pelas empresas, a tecnologia era tratada como sendo uma ferramenta de suporte para os demais serviços das corporações e dos governos, porém com o advento da globalização e o forte cenário de competitividade entre as empresas, obrigou a estas empresas a ver a tecnologia da informação como sendo de suma importância para sua continuidade, elevando o setor de TI a ser um setor estratégico dentro da empresa, surge então a denominação "Propriedade da Informação". Essa propriedade passa a ser bem protegida e por falta de uma boa proteção é que surge a lei SOX (Sarbanes, Oxley , senadores que a criaram) nos Estados Unidos. Esta lei veio em decorrência dos escândalos financeiros das empresas Enron, Worldcom e outras que pulverizaram as economias pessoais de muitos americanos. A lei foi promulgada em 30 de julho de 2002 e prevê multas que variam de 1 milhão e 5 milhões de dólares e penas de reclusão entre 10 e 20 anos para os CEOs (Chief Executive Officer) e CFOs (Chief Finance Officer) das empresas. Estima-se que as empresas americanas gastarão entre 2 e 5 milhões de dólares para a adequação de seus controles internos a Sox. Com isso aumentou ainda mais a necessidade de uma padronização e gerenciamento dos processos referente a tecnologia da informação. Algum mecanismos de padronização surgirão e vem sendo aceito pela SOX, dentre eles os mais difundidos temos: ITIL (Information Technology Infrastructure Library) que lida com os processos referentes aos serviços de TI, COBIT para governança de TI e PMBOK é um conjunto de práticas em gestão de projetos de TI.

Selecionei alguns vídeos sobre o assunto, Aproveitem e postem comentários.

Selecionei alguns vídeos sobre o assunto, Aproveitem e postem comentários.

terça-feira, 21 de setembro de 2010

Os Principais tipos de virtualização:

Virtualização Total: Tem o objetivo de fornecer para o sistema operacional da máquina hospedada, uma cópia do hardwere da máquina hospedeira (máquina Real). Isso leva a grandes impecilhos. O primeiro deles é a nessecidade de grandes quantidades de dispositivos para serem suportados pelo VMM (Monitor de Máquina Virtual). A utilização de drives genéricos, surgiu com a proposta de diminuir esse problema,  porém isso ainda não garante a totalidade do uso dos recursos dos dispositivos. Outro problema,  é que para as máquinas hospedes, a virtualização é transparente, ou seja, elas não sabem que estão disputando recursos de hardwere com outras máquinas, forçando a VMM testar as instâncias do SO hospede, antes de implementar direto no hardware.


Paravirtualização: em linhas gerais, o sistema operacional da máquina virtual "sabe" que está rodando num ambiente virtualizado. Há um elemento, chamado Hypervisor, que podemos dizer, trata-se de uma API para que o sistema operacional conheça a virtualização, nessa API, os drives de cada máquina são rodados direto delas próprias, não havendo o uso de drivers genéricos. Embora a paravirtualização tenha ganhado um enorme desempenho frente a virtualização total, essa disparidade vem diminuindo com as implementações da Intel e da AMD em seus processadores que favorecem a virtualização total.

A virtualização, está ganhando adéptos na maioria das grandes empresas já a algum tempo. Seja por questões como: redução de gastos, gerenciamento, espaço fsico nos DataCenters, otimização do uso dos recursos de hardware, bem como, pela questão ecológica. Porém, há de observa-se, que, o melhor caminho para um bom projeto de virtualização, será sempre um bom planejamento, com um bom dimencionamento das cargas e dos recursos de: mémoria, processador, disco, barramento, arquitetura,´segurança e sem esquecer da necessidade ou não, do aumento no número de placas de redes nesse servidor.
Segue na aba de videos e na postagem anterior, algumas dicas e video-aulas sobre virtualização.
Aproveitem!!!!!!!!

domingo, 19 de setembro de 2010

Xen Virtualização Total de Qualidade

O Xen, (pronúncia xzen) é um hypervisor free usado em modo de paravirtualização  e de virtualização total, proporciona uma camada de interface entre o hardware e os sistemas operacionais virtualizados, voce pode inclusive especificar interface de rede para uso exclusivo de uma maquina virtual, proporcionando um firewall virtualizado. Isso é muito interessante para redução de gastos com infra estrutura..

vejam o video sobre virtualização da USP com o tema Maquinas virtuais, na aba de videos pressione F5 até ele apacesser caso não esteja em tela, a video aula é de 56m 35s.
Espero que gostem da matéria.

sábado, 18 de setembro de 2010

Politica de Segurança da informação

A Informação é o patrimônio mais precioso que as Empresas possuem, por essa razão, desenvolver, aplicar e manter uma Política de Segurança é fundamental. http://www.scribd.com/doc/3190548/Politica-de-Seguranca-em-Tecnologia-de-Informacao

Cinco medidas de segurança para proteger aplicações na nuvem

Segundo prestadores de serviços, algumas diretrizes garantem privacidade dos dados processados na infraestrutura de cloud computing.

Pen drive com malware forçou Pentágono a rever segurança

Documento do secretário adjunto de defesa dos EUA relata que a invasão levou à criação da política de “defesa ativa”. http://computerworld.uol.com.br/seguranca/2010/08/25/pen-drive-com-malware-forcou-pentagono-a-rever-ciberseguranca/

Boletim extraordinário da Microsoft devido à vulnerabilidade em arquivos de atalho

A Microsoft publicou um boletins de segurança em 2/8 relativo à vulnerabilidade amplamente divulgada no shell do Windows que permite execução remota de código à partir da manipulação de arquivos de link.http://www.rnp.br//cais/alertas/2010/ms10-ago-extra.html