sexta-feira, 21 de março de 2014

Deep web e Países sem acesso à Internet livre Deep web Countries and without access to the Internet free

Países sem acesso à Internet livre

Em pleno século XXl informação e tecnologia estão evoluindo a cada segundo, mesmo com toda a modernidade virtual, ainda existem países que não compartilham dessa realidade. Países como: Arábia Saudita, Belarus, Burma, Cuba, Egito, Etiópia, Irã, Coreia do Norte, Síria, Tunísia, Turcomenistão, Uzbequistão, Vietnã e Zimbábue. Segundo a ONG que divulga os “inimigos da internet” intitulada: Repórteres Sem Fronteiras, "esses países transformaram a internet em uma intranet, para que os usuários não obtenham informações consideradas indesejáveis”. “Além do mais, todas essas nações têm em com uns governos autoritários, que se mantêm no poder por meio de um controle ideológico”. A Coréia do Norte, por exemplo, é o país que possui apenas dois websites registrados: o órgão de controle de uso da rede (Centro Oficial de Computação) e o portal oficial do governo. Para população, é completamente vetado o uso de internet até porque não existem provedores no país. Existem cyber’s autorizados pelo governo, com conteúdo controlado e ainda assim as idas e vindas dos policiais são indispensáveis. Apenas os governantes tem acesso a conexão via-satélite. Já em Cuba, existe apenas um Cyber e o preço para acessar sites estrangeiros (e controlado) é de cerca de 6 dólares por hora, sendo que o salário médio da população é de 17 dólares por mês. Com a velocidade da informação que a internet proporciona, os governantes desses países omitem informações da população, pois ela não tem acesso a esse emaranhado de notícias em tempo real.
Deep web

Origem: Wikipédia, a enciclopédia livre.
Descrição: http://bits.wikimedia.org/static-1.23wmf18/skins/common/images/magnify-clip.png
Analogia do iceberg, bastante utilizada para mostrar o tamanho da Deep Web (parte imersa) em relação ao da Surface Web (parte emersa)
Deep Web (também chamada de DeepnetWeb InvisívelUndernet ou Web oculta) se refere ao conteúdo da World Wide Web que não faz parte da Surface Web, a qual é indexada pelos mecanismos de busca padrão.
Não deve ser confundida com a dark Internet  na qual os computadores não podem mais ser alcançados via Internet, ou com a Darknet, rede de compartilhamento de arquivos.
Mike Bergman, fundador da BrightPlanet  e autor da expressão , afirmou que a busca na Internet atualmente pode ser comparada com o arrastar de uma rede na superfície do oceano: pode-se pescar um peixe grande, mas há uma grande quantidade de informação que está no fundo, e, portanto, faltando. A maior parte da informação da
Web está enterrada profundamente em sites gerados dinamicamente, a qual não é encontrada pelos mecanismos de busca padrão. Estes não conseguem "enxergar" ou obter o conteúdo na Deep Web - aquelas páginas não existem até serem criadas dinamicamente como resultado de uma busca específica. A Deep Web possui um tamanho muito superior ao da Surface Web.
  •  
Tamanho
Estimativas baseadas em extrapolações de um estudo feito na Universidade da Califórnia em Berkeley em 2001 especularam que a Deep Web possui 7.500 terabytes de informação. Estimativas feitas por He et al. , em 2004, detectaram cerca de 300.000 sites da deep web e, de acordo com Shestakov, cerca de 14.000 destes eram da parte russa da Web em 2006. Em 2008, a web chamada “Deep Web”, não ref­er­en­ci­ada pelos motores de busca rep­re­senta 70 a 75% do total, ou seja, cerca de um tril­hão de pági­nas não indexadas.
Nomenclatura Para referir-se aos websites que não estavam registrados em nenhum mecanismo de busca. Bergman citou um artigo de janeiro de 1996 por Frank Garcia, no qual ele afirma que estes.
"Seriam sites projetados propositalmente, mas que não se teve o interesse de registrá-lo em nenhum mecanismo de busca. Então, ninguém pode encontrá-los! Estão escondidos. Eu os chamo de Web Invisível."
Outro uso antigo do termo Web Invisível foi feito por Bruce Mount e Matthew B. Koll do Personal Library Software, descrevendo a ferramenta da deep Web "@1", na edição de dezembro de 1996.
O primeiro uso do termo específico deep Web, agora reconhecido, ocorreu no estudo de 2001 de Bergman, mencionado anteriormente.
Classificação
O Wikileaks começou nadeep web, logo depois seu conteúdo foi disponibilizado na surface web.
O conteúdo da deep web pode ser classificado em uma ou mais das seguintes categorias:

  • Conteúdo dinâmico: páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
  • Conteúdo isolado: páginas que não possuem referências ou ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers. Diz-se que essas páginas não possuem backlinks.
  • Web privada: sites que exigem um registro e um login (conteúdo protegido por senha).
  • Web contextual: páginas cujo conteúdo varia de acordo com o contexto de acesso (por exemplo, IP do cliente ou sequência de navegação anterior). Muitos sites estão escondidos e não há possibilidade de acesso, propositalmente.
  • Conteúdo de acesso limitado: sites que limitam o acesso às suas páginas de modo técnico (usando CAPTCHAs por exemplo).
  • Conteúdo de scripts: páginas que são acessíveis apenas por links gerados por JavaScript, assim como o conteúdo baixado dinamicamente através de aplicações em Flash ou Ajax.
  • Conteúdo não-HTML/texto: conteúdo textual codificado em arquivos multimídia (imagem ou vídeo) ou formatos de arquivoespecíficos que não são manipulados pelos motores de busca.
  • Conteúdo que utiliza o protocolo Gopher ou hospedado em servidores FTP, por exemplo, não é indexado pela maioria dos mecanismos de busca. O Google, por exemplo, não indexa páginas fora dos protocolos HTTP ou HTTPS.
Countries without access to the Internet free
Fully st century information and technology are evolving every second , even with all the virtual modernity, there are still countries that do not share this reality . Countries such as Saudi Arabia , Belarus , Burma , Cuba, Egypt , Ethiopia , Iran , North Korea , Syria , Tunisia , Turkmenistan, Uzbekistan , Vietnam and Zimbabwe . According to the NGO which promotes the "enemies of the internet " entitled . Reporters Without Borders , " these countries have transformed the Internet into an Intranet , so that users do not obtain information considered undesirable " " Moreover , in all these nations have with each . authoritarian governments , which remain in power through an ideological control " North Korea , for example , is the country that has only recorded two websites : the national control network usage ( Official Computer Center ) and portal government official . for population is completely forbidden the use of internet to because there are no providers in the country . There cyber 's allowed by the government -controlled content and yet the comings and goings of the officers are indispensable . Only governments have access to connection via satellite . Already in Cuba , there is only one price for Cyber ​​and access foreign sites ( and controlled ) is about $ 6 per hour , and the average wage of the population is 17 dollars per month. With the speed of information that the internet provides , the rulers of these countries the population omit information because it does not have access to this tangle of real-time news .

Deep web
From Wikipedia , the free encyclopedia .
Description : http://bits.wikimedia.org/static-1.23wmf18/skins/common/images/magnify-clip.png
Analogy of the iceberg , much used to show the size of the Deep Web ( immersed part) relative to the Surface Web ( submerged part )
Deep Web ( also called Deepnet , Invisible Web , Undernet or hidden Web ) refers to World Wide Web content that is not part of the Surface Web , which is indexed by standard search engines .
Not to be confused with the Internet dark in which computers can no longer be accessed through the Internet or with Darknet , network file sharing .
Mike Bergman , founder of BrightPlanet and author of expression, said that searching the Internet today can be compared with the drag of a network on the surface of the ocean : you can catch a big fish , but there is a lot of information that is in background and hence missing. Most web info is buried deep in dynamically generated sites , which is not found by standard search engines . These can not "see " or retrieve content in the deep Web - those pages do not exist until they are created dynamically as the result of a specific search. The Deep Web has a size much higher than the Surface web.3
 
size
Estimates based on extrapolations from a study done at the University of California at Berkeley in 2001 speculated that the Deep Web has 7,500 terabytes of information . Estimates made by He et al . In 2004 detected about 300,000 web sites and deep , according to Shestakov , about 14,000 of these were part of the Russian Web in 2006 . In 2008 , the web called " Deep Web " , not referenced by search engines is 70 to 75 % of the total, or about a trillion pages not indexed .
Nomenclature To refer to the websites that were not recorded on any search engine. Bergman cited a January 1996 article by Frank Garcia , in which he states that these .
" They would purposely designed sites , but not had the interest to register it on any search engine. Then no one can find them ! 're Hiding . I call them the Invisible Web . "
Another early use of the term Invisible Web was done by Bruce Mount and Matthew B. Koll of Personal Library Software , describing the tool deep Web " @ 1 " , in the December issue of 1996.
The first use of the specific term deep Web , now recognized , occurred in the 2001 study by Bergman , previously mentioned .
rating
Wikileaks began nadeep web shortly after its contents have been made ​​available on the web surface .
The deep web content can be classified into one or more of the following categories :
Dynamic content : dynamic pages which are returned in response to a request or through a form.
Isolated content : pages that have no references or links coming from other pages , which prevents access to your content through web crawlers . It is said that these pages do not have backlinks .
Private Web : sites that require a registration and a login (password protected content) .
Contextual Web : pages whose content varies according to the context of access ( for example, client IP or previous navigation sequence ) . Many sites are hidden and there is no possibility of access , purposely .
Content limited access : sites that limit access to your pages of technical mode (using CAPTCHAs for example) .
Content scripts : pages that are only accessible through links produced by JavaScript as well as content dynamically downloaded applications using Flash or Ajax .
Textual content encoded in multimedia files ( image or video ) or arquivoespecíficos that are not handled by search engines formats : não-HTML/texto content.
Content that uses the Gopher protocol or FTP servers hosted in , for example , is not indexed by most search engines . Google, for example, does not index pages outside of the HTTP or HTTPS protocols

Nenhum comentário: