Sem resumo de edição
Etiqueta: visualeditor
Etiqueta: visualeditor
Linha 10: Linha 10:


= Exemplos =
= Exemplos =
<br>
Conteúdos que podem ser encontrados:
* Fóruns de variedades;
 
* Venda de produtos variados, geralmente ilegal;
 
* Bibliotecas;
* Banco de dados;
* Pornografia ilegal;
* Tráfico de drogas e armas;
* ...
 
Esses conteúdos podem ser classificados em categorias:
* Conteúdo dinâmico: Páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
* Conteúdo isolado: São páginas que não possuem ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers ¹.
* Web privada: São sites que exigem um registro e um login.
* Web contextual: São páginas que o conteúdo varia de acordo com o contexto de acesso, por exemplo, o IP do cliente ou a sequência de navegação anterior. A maioria dessas páginas estão escondidas e não há possibilidade de acesso, propositadamente.
* Conteúdo de acesso limitado: Sites que limitam o acesso ás suas páginas de modo técnico.
* Conteúdo de scripts:Páginas que só são acessíveis apenas por links gerados por JavaScript.
* Conteúdos não-HTML/texto: São conteúdos textual codificado em arquivos multimídia ou formatos de arquivos específicos que não são manipulados pelos motores de busca. Por exemplo, conteúdos que utilizam o protocolo Gopher ²  ou hospedado em servidores FTP ³, por exemplo, não é indexada pela maioria dos mecanismos de busca.
 
 
¹ Web crawlers são indexadores de páginas automático. É usado, principalmente, por motores de busca (por exemplo o Google, Yahoo e Bing). Ele captura informações das páginas e cadastra os links encontrados, podendo assim, encontrar outras páginas e mantendo sua base de dados atualizada.
 
² Protocolo Gopher é um método de comunicação desenvolvido para distribuir e procurar documentos na internet. Desse modo, permitiu que arquivos armazenados em servidores fossem acessados remotamente a partir de outros lugares.
 
³ File Transfer Protocol (FTP), em português, Protocolo de Transferência de Arquivos. É o responsável por enviar arquivos para a web. Ele serve basicamente para que os usuários possam enviar ou receber documentos da internet por meio de um endereço no navegador ou um software instalado no computador.
 
Devemos nos atentar que, esses conteúdos macabros e ilegais, não irão aparecer a não ser que você procure por eles, ou seja, se procurarmos conteúdos ilegais, certamente iremos achar. Mas, se procurarmos alguns livros ou artigos científicos, também iremos achar sem dificuldades. Por isso é importante focar muito bem no que buscamos por lá, pois um link errado que se acessar pode nos levar para outro caminho bem diferente do que buscamos


= Soluções existentes =
= Soluções existentes =

Edição das 15h58min de 19 de maio de 2017

O que é?

A Deep Web é uma área da internet onde sua principal característica é o seu anonimato. Como nessa região da internet não há filtros como na internet convencional (Google), acaba sendo uma porta de entrada para pessoas má intencionadas com o intuito de propagar conteúdos ilegais. Para entendermos melhor como funciona essa divisão entre a internet que costumamos usar (Surface Web) e a Deep Web, podemos comparar com um iceberg: onde a ponta seria a Surface Web, que seriam os sites ou conteúdo que acessamos no dia a dia; e o resto (a parte submersa) seria a Deep Web. De acordo com o jornal britânico The Guardian, conseguimos acessar apenas 0,03 % da internet pelos mecanismos de buscas como o Google, e o restante está presente na Deep Web.

Objetivos

Existem várias teorias sobre o surgimento da Deep Web, mas a teoria mais aceita é a que ela começou a crescer com ajuda do exército norte americano, que queriam se comunicar com outras divisões de inteligências em outros países, sem serem detectados. Em 1995, os matemáticos do Laboratório de Pesquisas Navais dos Estados Unidos (NRL) começaram a trabalhar em um projeto para esse fim, que em 1997 foi aprovado e financiada pelo Departamento de Projetos de Defesa Norte-Americana (DOD). Em 1999, estudantes da Universidade do Instituto de Tecnologia de Massachusetts (MIT) começaram a trabalhar em conjunto com os matemáticos do Laboratório Naval. Foi nesse momento que começaram a desenvolver o software Tor (The Onion Router). Tor é um programa que tem como objetivo, proteger a identidade dos usuários enquanto eles navegam pela internet e está estritamente associado a Deep Web. Foi laçando por definitivo em setembro de 2002.

Benefícios

Sempre que pensamos na Deep Web, logo relacionamos com um lugar obscuro, onde só existam conteúdos macabros como pedofilia, canibalismo, tráfego de drogas e entre outras atrocidades. Porém, há também um lado bom da Deep Web. Existem vastas bibliotecas com livros que muitas vezes não encontramos na internet padrão, além de artigos científicos, pesquisas, filmes e dentre outros.

Exemplos

Conteúdos que podem ser encontrados:

  • Fóruns de variedades;
  • Venda de produtos variados, geralmente ilegal;
  • Bibliotecas;
  • Banco de dados;
  • Pornografia ilegal;
  • Tráfico de drogas e armas;
  • ...

Esses conteúdos podem ser classificados em categorias:

  • Conteúdo dinâmico: Páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
  • Conteúdo isolado: São páginas que não possuem ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers ¹.
  • Web privada: São sites que exigem um registro e um login.
  • Web contextual: São páginas que o conteúdo varia de acordo com o contexto de acesso, por exemplo, o IP do cliente ou a sequência de navegação anterior. A maioria dessas páginas estão escondidas e não há possibilidade de acesso, propositadamente.
  • Conteúdo de acesso limitado: Sites que limitam o acesso ás suas páginas de modo técnico.
  • Conteúdo de scripts:Páginas que só são acessíveis apenas por links gerados por JavaScript.
  • Conteúdos não-HTML/texto: São conteúdos textual codificado em arquivos multimídia ou formatos de arquivos específicos que não são manipulados pelos motores de busca. Por exemplo, conteúdos que utilizam o protocolo Gopher ²  ou hospedado em servidores FTP ³, por exemplo, não é indexada pela maioria dos mecanismos de busca.


¹ Web crawlers são indexadores de páginas automático. É usado, principalmente, por motores de busca (por exemplo o Google, Yahoo e Bing). Ele captura informações das páginas e cadastra os links encontrados, podendo assim, encontrar outras páginas e mantendo sua base de dados atualizada.

² Protocolo Gopher é um método de comunicação desenvolvido para distribuir e procurar documentos na internet. Desse modo, permitiu que arquivos armazenados em servidores fossem acessados remotamente a partir de outros lugares.

³ File Transfer Protocol (FTP), em português, Protocolo de Transferência de Arquivos. É o responsável por enviar arquivos para a web. Ele serve basicamente para que os usuários possam enviar ou receber documentos da internet por meio de um endereço no navegador ou um software instalado no computador.

Devemos nos atentar que, esses conteúdos macabros e ilegais, não irão aparecer a não ser que você procure por eles, ou seja, se procurarmos conteúdos ilegais, certamente iremos achar. Mas, se procurarmos alguns livros ou artigos científicos, também iremos achar sem dificuldades. Por isso é importante focar muito bem no que buscamos por lá, pois um link errado que se acessar pode nos levar para outro caminho bem diferente do que buscamos

Soluções existentes


Referências


http://www.humanas.ufpr.br/portal/conjunturaglobal/files/2016/02/DEEPWEB-O-Lado-Sombrio-da-Internet_Jo%C3%A3o-Paulo-falavinha-Marcon-Thais-Pereira-Dias.pdf

http://ftp.unipar.br/~seinpar/2013/artigos/Carlos%20Henrique%20Aguiar%20dos%20Santos.pdf

http://g1.globo.com/tecnologia/blog/seguranca-digital/post/deep-web-o-que-e-e-como-funciona-g1-explica.html

https://www.theguardian.com/technology/2009/nov/26/dark-side-internet-freenet