/
Resiliência cibernética

Os limites da memória de trabalho: cérebros humanos versus modelos de IA

AI brain

Na ciência da computação, o “conjunto de trabalho” se refere à quantidade de dados que um processador pode manipular ao mesmo tempo para resolver problemas. Essa ideia tem um paralelo interessante na cognição humana, conhecido como “memória de trabalho”. A memória de trabalho é como um bloco de notas mental onde guardamos informações temporariamente. É essencial para raciocinar e tomar decisões complexas.

No entanto, a memória de trabalho tem uma capacidade limitada que pode limitar nossa capacidade de lidar com problemas muito complicados. Essa visão é importante à medida que entramos em um mundo cada vez mais influenciado pela IA, especialmente em áreas como a segurança cibernética.

A largura de banda de um cérebro

A ciência cognitiva tem diferentes testes para medir a capacidade de memória de trabalho de uma pessoa. Esses testes mostram que existe um limite superior consistente, mesmo para pessoas que são pensadoras excepcionais.

Por exemplo, mestres de xadrez, matemáticos e músicos renomados têm habilidades incríveis, mas sua capacidade de memória operacional provavelmente não é muito diferente da de uma pessoa comum. Parece que a evolução ajustou nosso cérebro para um certo nível de habilidade cognitiva. Isso pode dificultar a compreensão completa de problemas muito grandes e complexos.

A vantagem da IA: escalar a janela de contexto (com ressalvas)

Sistemas de inteligência artificial, especialmente os Large Language Models (LLMs), têm uma limitação chamada “janela de contexto”. Esse é o número de tokens (palavras ou partes do código) que eles podem manipular de uma só vez. Ao contrário dos humanos, cuja memória de trabalho é fixa, a janela de contexto de uma IA pode ser expandida, embora seja cara. Mais GPUs, algoritmos melhores ou novo hardware podem aumentar a capacidade de uma IA.

No entanto, essa abordagem tem limites importantes. No início, tarefas como encontrar anomalias em conjuntos de dados enormes e complexos parecem perfeitas para LLMs. Gastar muito dinheiro em tempo de processamento de IA pode parecer valer a pena para esses insights.

Mas é importante saber que a detecção de anomalias geralmente se encaixa melhor com o aprendizado de máquina (ML) e as estatísticas tradicionais do que com redes neurais avançadas e aprendizado profundo. Isso é bom: os métodos tradicionais geralmente são mais previsíveis e confiáveis do que alguns aplicativos de IA.

No entanto, existe um problema maior. Os modelos e usos atuais da IA ainda são muito falhos. Exemplos como carros autônomos falhando e LLMs fazendo “alucinações” convincentes, mas erradas, nos lembram disso. Antes de usar a IA amplamente para resolver grandes problemas, devemos garantir que esses sistemas sejam confiáveis e consistentemente corretos.

Encontrando as ferramentas certas para o trabalho certo

Então, onde isso nos deixa? A chave é entender que os cérebros humanos e os modelos de IA têm pontos fortes diferentes. Os humanos, com nosso poder cognitivo fixo, são bons em resolver problemas detalhados dentro dos limites de nossa memória de trabalho. Geralmente escolhemos problemas que temos uma boa chance de resolver sozinhos.

Os modelos de IA, por outro lado, podem ser ampliados para problemas que seriam demais para a mente humana. Mas essa abordagem só faz sentido quando:

  • O valor financeiro da solução é maior do que o custo da computação.
  • Confiar na precisão do resultado é fundamental.

O alto custo do processamento de conjuntos de dados complexos, juntamente com os limites atuais de explicabilidade e correção, significa que os problemas que podemos resolver com a IA atual ainda são limitados. Atualmente, seu melhor uso é reduzir o escopo e a complexidade a um conjunto menor de problemas acessíveis por meio da cognição humana.

AI cybersecurity

Integrando a IA na cibersegurança: uma abordagem estratégica

Na cibersegurança, o objetivo não é apenas lutar Ameaças geradas por IA com mais IA, mas para usar a IA com sabedoria em protocolos de segurança. As equipes de segurança precisam ser inteligentes sobre como investem em IA, garantindo que ela aprimore suas habilidades sem criar novos pontos fracos.

Illumio está fazendo isso com Capacidades de segurança cibernética de IA como o Illumio Virtual Advisor, que oferece respostas conversacionais para perguntas sobre como configurar e usar a segmentação Zero Trust. E o novo mecanismo de etiquetagem com inteligência artificial oferece visibilidade instantânea dos ativos em data centers e ambientes de nuvem para ajudar as organizações a adotar a segmentação Zero Trust mais rapidamente.

Essas soluções usam a IA para analisar grandes quantidades de dados e, ao mesmo tempo, manter a supervisão humana no centro da tomada de decisões de segurança. Ao combinar os cérebros dinâmicos e adaptáveis dos humanos com o poder de processamento da IA, as equipes de segurança podem lidar melhor com o mundo complexo das ameaças modernas.

A IA reduzirá exponencialmente os custos e aumentará a confiança?

Um efeito semelhante ao da Lei de Moore poderia reduzir drasticamente o custo da IA de alto desempenho ao longo do tempo? Isso ainda é incerto. O progresso da IA depende não apenas do hardware, mas também de algoritmos melhores, conjuntos de dados aprimorados e avanços para tornar os resultados de IA confiáveis e confiáveis.

É por isso que é vital entender os limites e os custos associados à memória de trabalho humana e às janelas de contexto da IA. Escolher a ferramenta certa, seja o cérebro humano ou uma máquina, exige uma compreensão clara do tamanho do problema, de seu valor potencial, dos custos de encontrar uma solução e da confiabilidade dos resultados. Em segurança cibernética, isso significa usar estrategicamente a IA para aumentar as habilidades humanas, garantindo que a combinação de intuição humana e potência da máquina seja baseada na crescente confiança nas soluções de IA.

Olhando para o futuro, o futuro provavelmente envolverá uma forte parceria entre o pensamento humano e a inteligência artificial, cada um apoiando o outro para enfrentar os desafios de um mundo mais complicado.

Quer saber mais sobre as ofertas de IA da Illumio Zero Trust Segmentation Platform? Entre em contato conosco hoje.

Tópicos relacionados

Nenhum item encontrado.

Artigos relacionados

Principais suposições falsas de segurança na nuvem que criam riscos desnecessários
Resiliência cibernética

Principais suposições falsas de segurança na nuvem que criam riscos desnecessários

Já se passaram 15 anos desde que a Amazon Web Services lançou a primeira plataforma de infraestrutura em nuvem.

3 previsões de cibersegurança para 2020
Resiliência cibernética

3 previsões de cibersegurança para 2020

Informações sobre a convergência da infiltração física com ataques cibernéticos e o que isso significa para a segurança cibernética.

3 etapas para a resiliência cibernética para o setor de energia
Resiliência cibernética

3 etapas para a resiliência cibernética para o setor de energia

Saiba mais sobre as atualizações da Diretiva de Segurança da TSA, recomendações de segurança de especialistas e três etapas para a resiliência cibernética no setor de energia.

8 perguntas que os CISOs deveriam fazer sobre IA
Resiliência cibernética

8 perguntas que os CISOs deveriam fazer sobre IA

Descubra 8 perguntas que os CISOS devem considerar ao proteger suas organizações contra ataques de ransomware assistidos por IA. Essa é uma leitura obrigatória.

Volte às noções básicas de segurança para se preparar para os riscos de IA
Resiliência cibernética

Volte às noções básicas de segurança para se preparar para os riscos de IA

Conheça as opiniões de dois especialistas em segurança cibernética sobre como a IA funciona, onde estão suas vulnerabilidades e como os líderes de segurança podem combater seu impacto.

A IA não deve ser confiável: por que entender isso pode ser transformador
Resiliência cibernética

A IA não deve ser confiável: por que entender isso pode ser transformador

Saiba por que o CTO e cofundador da Illumio acredita que o “limite tecnológico” da IA é menor do que parece — e como isso influencia as formas como usamos a IA.

Assume Breach.
Minimize Impact.
Increase Resilience.

Ready to learn more about Zero Trust Segmentation?