Menu Sidebar
Menu

Cobertura da Mídia – Ertech Systems (12/2017)


11/12/2017

Firewall: o mítico “Muro de Fogo”
As redes corporativas talvez estejam mais em perigo do que nunca. A simples instalação de um firewall muitas vezes dá à empresa uma falsa sensação de segurança geral.


15/12/2017

O mítico “Muro de Fogo”
As redes corporativas talvez estejam mais em perigo do que nunca. A simples instalação de um firewall muitas vezes dá à empresa uma falsa sensação de segurança geral.

Firewall: o mítico “Muro de Fogo”

Apesar de toda a informação e conhecimento disseminado ao longo dos anos, ainda escuto de profissionais de TI experientes a seguinte frase: “Como isso pôde acontecer, estou atrás de um firewall?”, ou “Comprei um dos melhores firewall do mercado e ainda assim fui invadido, como isso é possível?”

As redes corporativas talvez estejam mais em perigo do que nunca. A simples instalação de um firewall muitas vezes dá a empresa uma falsa sensação de segurança geral.

Infelizmente, o firewall tornou-se uma panaceia de segurança da informação. Uma vez instalado, acredita-se que um firewall seja o fim e tudo de segurança da informação, protegendo a rede corporativa de todos os males.

Parafraseando Bruce Schneier, considerado o guru da segurança da informação pela The Economist, “Segurança é um processo, não um produto”.

Embora o firewall seja capaz de proteger o perímetro, pode fazer muito pouco sobre a atividade que se origina e termina dentro da rede corporativa. De acordo com o inquérito de segurança de informação do FBI, uma organização tem duas vezes mais chances de ser comprometida de dentro do que de fora.

De qualquer forma, focando apenas no firewall, vamos citar alguns erros comuns relacionados ao mítico “Muro de Fogo”:

1. Peso da marca e/ou produto:
Como em tudo na vida, o bom senso deve prevalecer. Não existe mágica em segurança! É necessário uma política de segurança da informação bem definida, um profissional capacitado para programar o firewall de acordo com a referida política, monitoramento contínuo e conhecimento técnico para analisar os logs e correlacionar os eventos. Sem isso, seu investimento no “melhor firewall do mercado” é inútil.
Não se engane… simplesmente programar o firewall e esquece-lo, independente da marca e/ou preço, será ruim. Não se trata apenas de tecnologia.

2. Capacitação técnica e operacional:
Há um problema recorrente sobre capacitação técnica no que se refere a programação e administração eficaz do firewall. Apenas para citar o básico, muitos profissionais sequer conhecem o protocolo TCP/IP para realizar uma análise objetiva do tráfego de pacotes. Acredito até que quem não possui conhecimentos básicos de lógica de programação, não deveria nem manipular um firewall. Digo isso pois quem não possui as referidas habilidades tende a analisar as regras de maneira isolada, cometendo erros gravíssimos.

3. Firewall x Política de segurança da informação:
A programação do firewall deveria refletir as definições da política de segurança da informação. Entretanto, por falta de controle e/ou desconhecimento, é comum observarmos uma enorme divergência. A política se torna um documento formal, e as regras são definidas ao sabor dos egos.

4. Paradoxo do gerenciamento de firewall:
A estrutura central da segurança é a política, um desafio ao qual conjuntos de regras específicas emergem. A mecânica disto pode dar errado rapidamente à medida que as organizações lutam com o gerenciamento de mudanças, à medida que os dispositivos, usos e aplicativos recebem acesso que devem ser revogados em uma data posterior. A limpeza de bases de regras pode ser realizada através dos sistemas de gerenciamento de firewall que vem com plataformas de hardware ou através de ferramentas de gerenciamento de terceiros, mas isso normalmente não acontece.

“Novos acessos são adicionados, mas o acesso antigo, expirado, raramente é removido. Não existem processos repetitivos consistentes. A complexidade cresce, a eficiência sofre e a probabilidade de erro e risco aumenta”, comenta Tim Woods, vice-presidente de tecnologia da FireMon.

O maior problema é que os administradores não tem visibilidade de suas políticas para identificar as regras redundantes, ocultas, sombreadas, excessivamente permissivas e desatualizadas, especialmente se eles estiverem administrando diferentes tipos de firewalls em seu ambiente. E a situação tende a piorar quando mais de um profissional tem permissão para manipular as regras de firewall.

“Observamos e concluímos que você pode adquirir o firewall mais incrível do mercado, entretanto, ainda assim não será possível proteger sua empresa se ele não estiver alinhado com a política de segurança, corretamente configurado, administrado e monitorado por profissionais qualificados em segurança da informação. Devemos enxergar o firewall como uma das ferramentas do serviço de segurança da informação. Firewall não é panaceia!”, conclui Renato Andalik, especialista em Tecnologia e Cibersegurança e cofundador da Ertech Systems.

*Este artigo foi publicado na Security Report e Segs.

Cobertura da Mídia – Ertech Systems (09/2017)


12/09/2017

Preparado para a ascensão dos robôs assassinos?
O surgimento dessas máquinas mortíferas é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista.


14/09/2017

A ascensão dos robôs assassinos
O surgimento dessas máquinas mortíferas é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista.


14/09/2017

Blockchain é a tecnologia de transações de um futuro próximo
A tecnologia empregada pelo blockchain é revolucionária e, num futuro não muito distante, vai transformar as relações entre as pessoas e a internet.


15/09/2017

A ascensão dos robôs assassinos
O surgimento dessas máquinas mortíferas é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista.

A ascensão dos robôs assassinos

Inicialmente, você saberia dizer o que é um robô? Pergunte a três roboticistas diferentes e você terá três respostas diferentes. Entretanto, como exemplo, podemos citar desde o aspirador de pó Roomba em sua casa até os carros autônomos. Hoje em dia, podemos classificar muitas coisas como robô, e este é apenas o início de sua proliferação.

“Eu diria que um robô é um agente artificialmente incorporado que pode tomar decisões que tem efeitos no mundo real”, diz a roboticista Anca Dragan, da Universidade Berkeley.

A inteligência, então, é o componente central que torna o robô uma máquina pensante e não apenas um brinquedo. Essa nuance é importante porque “robô” é uma palavra poderosa.

E aí começam as preocupações. Há dois lados inconfundíveis no debate sobre o futuro da inteligência artificial e da robótica. De um lado, empresas como o Google, Facebook, Amazon e Microsoft investem agressivamente em tecnologia para tornar seus sistemas cada vez mais inteligentes, e, do outro lado, estão pensadores proeminentes como Elon Musk e Stephen Hawking, que alertam para a necessidade de uma regulação pró-ativa da inteligência artificial, chamando-a de maior ameaça existencial da humanidade.

Recentemente, o Google decidiu tomar precauções adicionais para que as máquinas não se rebelem contra nós. A DeepMind, adquirida pela companhia em 2014 e que se tornou seu braço de inteligência artificial, criou medidas de segurança para que operadores humanos possam, em caso de necessidade, “tomar o controle de um robô que não esteja se comportando adequadamente e que possa causar consequências irreversíveis”.

O documento publicado foi um esforço conjunto entre a DeepMind do Google e o Instituto do Futuro da Humanidade da Universidade de Oxford, que, como o nome sugere, deseja que haja um futuro para a humanidade. O diretor-fundador, Nick Bostrom, falou sobre os possíveis perigos do desenvolvimento da inteligência artificial por décadas e escreveu livros inteiros sobre as implicações dos robôs superinteligentes.

Esse artigo em particular, intitulado “Safely Interruptible Agents”, investiga como desativar a inteligência artificial caso ela comece a se comportar de maneira indesejada. O artigo é extremamente científico, mas resumidamente descreve métodos para construir o equivalente a um “grande botão vermelho de pânico“.

“Assim que a inteligência artificial atingir um nível humano, será possível criar um ciclo de realimentação positivo que irá aumentar o ritmo de desenvolvimento. As IAs ajudariam a construir IAs melhores, que então ajudariam a criar IAs melhores, e assim sucessivamente”.

Os especialistas em tecnologia preveem que a inteligência artificial será usada em breve para fazer drones, veículos blindados e submarinos que possam encontrar e reconhecer alvos, tomar decisões sobre a abertura de fogo e aprender com as missões.

Preocupados, alguns dos principais pioneiros em robótica e inteligência artificial do mundo estão convocando as Nações Unidas a proibir o desenvolvimento e o uso de robôs assassinos. Mustafa Suleyman, da Alphabet, e Elon Musk, da Tesla, lideram um grupo de 116 especialistas de 26 países que estão pedindo a proibição de armas autônomas, comumente chamadas de “robôs assassinos”.

Segundo os signatários, “armas autônomas letais ameaçam se tornar a terceira revolução da guerra. Uma vez criadas, elas permitirão que o conflito armado se faça numa escala nunca visto antes, e em uma velocidade maior do que humanos podem entender”.

Eles reforçam ainda que “nós não tempos muito tempo para agir”, já que “uma vez que essa caixa de Pandora for aberta, será difícil fechá-la”. Por esses motivos, os especialistas dizem: “imploramos às partes envolvidas que encontrem um meio de proteger a todos nós desses perigos”.

A urgência que os especialistas pedem em sua carta não é infundada. Ryan Gariepy, o fundador da Clearpath Robotics, disse: “Ao contrário de outras manifestações sobre IA que ainda permanecem no domínio da ficção científica, os sistemas de armas autônomas estão em desenvolvimento no momento e têm um potencial destrutivo muito real para causar danos significativos a pessoas inocentes, além de instabilidade global”.

Enquanto a sugestão de robôs assassinos evoca imagens de ficção científica, como no filme Exterminador do Futuro, armas autônomas letais já estão em uso. A Coreia do Sul, por exemplo, já usa drones armados desenvolvidos pela empresa Dodaam Systems para patrulhar sua fronteira com a Coreia do Norte – embora, por enquanto, ações letais ainda exijam a autorização de um ser humano.

Outro exemplo é o sentinela SGR-A1 da Samsung, que, segundo informações, é tecnicamente capaz de disparar de forma autônoma, e está em uso ao longo da fronteira sul-coreana na zona desmilitarizada de 2,5m de largura. A arma de segurança, desenvolvida em nome do governo sul-coreano, foi a primeira de seu tipo com um sistema autônomo capaz de realizar vigilância, reconhecimento de voz, rastreamento e disparos com metralhadora ou lançador de granadas.

O fabricante de armas russo Kalashnikov anunciou no mês passado um “módulo de combate totalmente automatizado” equipado com múltiplas armas de fogo que pode identificar alvos e tomar decisões por conta própria.

Isso, no entanto, gera uma situação na qual outros países também se sentem pressionados a criar armas desse tipo, por medo de serem deixados para trás. Em uma recente matéria do Financial Times, um relatório do Departamento de Defesa dos EUA sugeria o investimento em armas autônomas letais para que os EUA pudessem “se manter à frente de seus adversários que também se aproveitarão dos benefícios dessa tecnologia”. Ou seja, estamos em rota de colisão com um futuro bastante perturbador.

“O surgimento de robôs assassinos militares é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista”, conclui Renato Andalik, especialista em Tecnologia e Cibersegurança e cofundador da Ertech Systems.

*Este artigo foi publicado na CIO, RedePRESS e Segs.

Próximas Postagens

Mouse ao Alto

Descomplicando a segurança de IoT à Cloud

Categorias