Made in Blog

Política, curiosidades, notícias, entretenimento, blogosfera,

Pesquisa mostra 67% contra privatizações

dezembro 26, 2017 Posted by | Política | , | Deixe um comentário

Primeira prévia para as eleições 2.018

Lula para presidente

Eleições 2.018

Depois de ler sobre as pesquisas do IBOPE para as eleições de 2.018, sabendo que temos uma eleição esse ano, cheguei a conclusão que muito burguês poderá ter um infarto até lá. Essa conclusão tem um motivo, o desespero da mídia para destruir o PT e sua base aliada.

Muita gente nem sabe que vai ter Olimpíadas esse ano, quem sabia já se esqueceu, já que os jornais viraram um diário da Lava a Jato.

Depois de criar um carnaval em torno supostos apartamento e chacrinha de Lula, chegou-se a conclusão que mesmo que isso fosse verdade não seria suficiente para derrubar o seu prestígio no Brasil e exterior, resultado: começaram a fazer pesquisas para saber se a manipulação está dando resultado.

De acordo com os números do IBOPE que ninguém sabe onde está sendo feito e nem qual é o seu objetivo obscuro, que falta faz a GFK, Lula tem a maior rejeição, mas ainda é o segundo na intenção de votos. Além disso, as duas relações abaixo não batem.

também há uma falha grave nessa lista, a falta de outros candidatos com intenção de entrar na disputa, como é o caso do vice-presidente Michel Temer, já que o PMDB já anunciou que quer entrar na disputa.

Na minha opinião essa pesquisa estava interessada principalmente em saber como está o prestígio de Lula, mas ainda se esqueceram de avaliar os fatores externos. Por exemplo: Ao entregar a presidência para Lula, FHC sabia que nenhum outro candidato teria o aval da China para conseguir novos empréstimos junto aos bancos internacionais; o salário que chegara a 100 dólares, foi cortado e voltou aos 60 dólares, valor que estava no início do mandato de FHC; a taxa de juros ultrapassara os 26% e o dólar ultrapassava os 3,80; os especuladores aproveitando-se da fragilidade das reservas do governo, transformaram a bolsa na maior ferramenta de especulação da história do país. O apoio ou imparcialidade dos países importantes como a China terão forte impacto no resultado das eleições.

A situação não está tão alarmante nesse momento, exceto pelo dólar e pela recessão provocada pelo medo dos bancos, magnatas e dos próprios políticos que evitam  fazer suas negociatas enquanto a polícia federal está revirando as contas públicas e áreas econômica e financeira.

Por outro lado, nenhum partido de personalidade deverá ficar fora dessa disputa, aproveitando-se da fragilidade do bipartidarismo. É o caso do PSB e PSOL, por exemplo.

Finalizando, como diria a Carly Simon:

I know nothing stays the same
Eu sei que nada continua continua o mesmo (para sempre)

But if you’re willing to play the game
Mas se você estiver querendo jogar o jogo

It’s coming around again
Está chegando perto de novo

So don’t mind if I fall apart
Então não se preocupe se eu cair em pedaços

There’s more room in a broken heart
Há mais espaço em um coração partido
Rejeição:

Lula (PT) 61%

José Serra (PSDB) 52%

Geraldo Alckmin (PSDB) 47%

Ciro Gomes (PDT) 45%

Aécio Neves (PSDB) 44%

Marina Silva (REDE) 42%

Quem votaria:

Alckmim – 23% votariam + 7% talvez

Lula – 19% votariam + 14% talvez

Marina Silva – 15% votariam + 28% talvez

Aécio – 15% votariam + 25% talvez

Serra – 8% votariam + 24% talvez

Sobre as eleições desse ano ainda não sabemos nada, mas continuamos desinformando rsrsrsr.

By Jânio

Lula quer voltar a presidência

março 1, 2016 Posted by | Política | , , , | Deixe um comentário

Noventa por cento dos tipos de câncer causados pela vida do século XXI

Causas de câncer

Morte Moderna

Cientistas da Universidade de Stony Brook, em Nova York revelaram que o ritmo acelerado da vida moderna e as suas consequências causam 90 por cento dos casos de câncer. Má alimentação, falta de exercício,  stress e a poluição do ar das cidades contribuem para a maioria dos cânceres de pulmão, mama e próstata.

Ao longo da sua investigação, os pesquisadores estudaram as formas genéticas de vários tipos de cânceres para tentar determinar a dependência da doença por fatores externos. Eles concluíram que quase 90 por cento dos cancros mais comuns são causados pelo estilo de vida. O ar poluído, a radiação Ultra Violeta, stress, dieta e falta de exercício são fatores de risco.

A conclusão é clara: a vida mais saudável apresenta menos chances de você  ficar doente. A prática  de esportes, não fumar e uma dieta equilibrada, vai ajudar-nos a evitar certos tipos de câncer.

RT-TV

Textos relacionados:

América Latina ganha vacina contra o câncer

Como prevenir o câncer

Dez alertas que previnem o câncer

Calcanhar de aquiles do câncer de pulmão

 

dezembro 23, 2015 Posted by | Saúde | , , | Deixe um comentário

Anti-matéria – Ciência reversa

universo obscuro

Anti-matéria

O símbolo que se usa para descrever uma antipartícula é o mesmo símbolo da partícula normal, porém com um traço sobre o símbolo. Por exemplo, o antiproton é simbolizado como:

As reações entre matéria e antimatéria tem aplicações práticas na medicina como, por exemplo, na tomografia por emissão de pósitrons (PET).

As colisões entre matéria e antimatéria convertem toda a massa possível das partículas em energia. Esta quantidade é muito maior que a energia química ou mesmo a energia nuclear que se pode obter atualmente através de reações químicas, fissão ou mesmo fusão nuclear. A reação de 1 kg de antimatéria com 1 kg de matéria produziria 1.8×1017 J de energia (segundo a equação E=mc²). Em contraste, queimar 1 kg de petróleo produziria 4.2×107 J, e a fusão nuclear de 1 kg de hidrogênio produziria 2.6×1015 J.

A escassez de antimatéria significa que não existe uma disponibilidade imediata para ser usada como combustível. Gerar somente um antipróton é imensamente difícil e requer aceleradores de partículas, assim como imensas quantidades de energia (muito maior do que a obtida pelo aniquilamento do antipróton), devido a ineficiência do processo. Os métodos conhecidos para produzir antimatéria também produzem uma quantidade igual de matéria normal, de forma que o limite teórico do processo é a metade da energia administrada se converter em antimatéria. Inversamente, quando a antimatéria é aniquilada com a matéria ordinária, a energia emitida é o dobro da massa de antimatéria, de forma que o armazenamento de energia na forma antimatéria poderia apresentar (em teoria) uma eficiência de 100%.

Na atualidade, a produção de antimatéria é muito limitada, porém tem aumentado em progressão geométrica desde o descobrimento do primeiro antipróton em 1995. A taxa atual de produção de antimatéria é entre 1 e 10 nanogramas por ano, esperando-se um incremento substancial com as novas instalações do CERN e da Fermilab.

Considerando as partículas mais elementares que se conhecem atualmente: Lépton (Elétron, Elétron-neutrino, Múon, múon-neutrino, Tau e Tau-neutrino), Quarks (Up, Down, Charm, Strange, Top e Bottom) e Bósons (Fótons, Glúons, Bósons vetoriais mediadores e grávitons), podemos dizer que para cada uma delas, existe uma antipartícula, com massa igual porém com carga elétrica e momento magnético inverso. Elas dão origem ao antielétron (chamado também de pósitron), ao antipróton e ao antinêutron – a antimatéria, portanto.

A teoria mais aceita para a origem do universo é a do Big Bang que diz que tudo se iniciou numa grande expansão. Nos primeiros instantes o universo não era constituído por matéria, mas sim por energia sob forma de radiação. O universo então passou a expandir-se e, consequentemente, a arrefecer. Pares de partícula-antipartícula eram criados e aniquilados em grande quantidade. Com a queda de temperatura a matéria pôde começar a formar hádrons, assim como a antimatéria a formar antihádrons, pois matéria e antimatéria foram geradas em quantidades iguais. Atualmente, no entanto, parece que vivemos em um universo onde só há matéria.

Na realidade, já é estranho que o universo exista, pois, quando a matéria e a antimatéria se encontram, o processo inverso da criação ocorre, ou seja, elas anulam-se gerando apenas energia nesse processo. Seria altamente provável, portanto, que logo após terem sido criadas, partículas e antipartículas se anulassem, impedindo que corpos mais complexos como hádrons, átomos, moléculas, minerais e seres vivos pudessem formar-se. Acredita-se que esse processo de geração e aniquilação realmente ocorreu para quase toda a matéria criada durante o início da expansão do universo, mas o simples fato de existirmos indica que ao menos uma pequena fração de matéria escapou a esse extermínio precoce.

É possível que algum processo, de origem desconhecida, tenha provocado uma separação entre a matéria e a antimatéria. Neste caso existiriam regiões do universo em que a antimatéria e não a matéria seria mais abundante. Planejam-se algumas experiências no espaço para procurar essas regiões. No entanto, como até hoje não se conhece um processo capaz de gerar tal separação, a maioria dos cientistas não acredita nessa hipótese.

Por outro lado, existe a possibilidade de que a natureza trate de forma ligeiramente diferente a matéria e a antimatéria. Se isto for verdade, seria possível que uma pequena fração da matéria, inicialmente gerada, tenha sobrevivido e formado o universo conhecido hoje. Há resultados experimentais e teóricos que apontam nesta direção.

Experimentos para a produção artifical de antimatéria e seu armazenamento por períodos de tempo relativamente longos, vem sendo tentados por cientistas nos últimos anos.

Em setembro de 2010, a equipe internacional ALPHA do CERN (a qual inclui pesquisadores de diversos países, incluindo os brasileiros Cláudio Lenz Cesar e Daniel de Miranda Silveira, anunciou que conseguiu pela primeira vez capturar átomos de antimatéria. Foram aprisionados 38 átomos de antihidrogênio no “tanque de antimatéria” criado pelos cientistas, cada um deles ficando retido por mais de um décimo de segundo.1

Em junho de 2011, a mesma equipe ALPHA anunciou um novo recorde, ao aprisionar átomos de antimatéria por 1000 segundos (mais de 16 minutos e 35 segundos).

Em março de 2012, a equipe ALPHA anunciou que conseguiu pela primeira vez efetuar medições de propriedades de átomos de antimatéria.

Fonte: Wikipedia

Ambiplasma

dezembro 30, 2014 Posted by | Ciências | , , , | 1 Comentário

Eleições 2.014 – Pesquisas para presidente

Pesquisas Presidente

Pesquisas Presidente

Desde o início todos sabiam que Marina Silva era mais popular que Eduardo Campos, entretanto, Eduardo Campos tinha mais tradição e mesmo sendo uma tradição de esquerda, Miguel Arraes, Eduardo Campos era moderado como a mãe, diretora do TCU. A tragédia de Eduardo Campos transformou-o no nome mais importante do momento e dobrou a expectativa popular de Marina Silva.

Eu não vou dar a minha opinião sobre o que eu acho da política brasileira para não falar besteira mas, considerando o país de m**** em que nós vivemos, houve um pequeno avanço: saímos de uma ditadura da Globo, passamos para o bipartidarismo das mídias de massa, controladas pelos magnatas e banqueiros, e chegamos a uma terceira força, tão temida pelo sistema bipartidário.

O bipartidarismo considera-se suficiente para passar a imagem de democracia e vê nessa terceira força uma ameaça para a ditadura do dinheiro, trazendo a verdadeira democracia para o povo. A verdadeira democracia seria apresentar vários candidatos que realmente tenham capacidade de governar o país.

A saída repentina de Ciro Gomes, alguns anos atrás, justamente quando ele estava mais confiante, assustou-me. Marina Silva desafiou o sistema na última eleição e tinha a esperança do mundo inteiro, menos da maioria do Brasil que teve medo de votar nela. Tudo indicava que ela não teria mais chance, depois de ter seu pedido de criação de um novo partido negado pelo TSE. Marina aceitou ser vice de Eduardo Campos e mesmo tendo mais popularidade, aceitou o desafio do partido que finalmente decidira ter seu candidato.

Marina colhe os frutos de sua decisão de ficar neutra na última eleição, contrariando o partido que a lançara como candidata, isso se chama ideologia.

Ciro Gomes a chamava de candidata sem partido e criticava suas atitudes exageradas, esquecendo-se que são os exageros que formam a personalidade de uma grande candidata, já que haverá um partido de sustentação que força o executivo a ser mais moderado. Marina Silva não irá fazer tudo o que gostaria pois sabe que precisa dos votos dos aliados, mas o seu partido ainda está sem os corruptos, apesar de que para governar, precisaria escolher entre o PT/PMDB e o PSDB/Democrata. Mesmo com apoio de direita, teria também apoio de esquerda, já que essa é a sua ideologia, ideologia de mudanças.

Curiosamente, Marina Silva, a Candidata sem partido, será candidata do próprio partido de Ciro Gomes, que a via assim.

“De acordo com o levantamento, a ex-ministra e a candidata do PT à reeleição têm os mesmos 34%. Com isso, a distância para o candidato do PSDB, Aécio Neves, aumentou. O tucano tem agora 15%. Marina subiu 13 pontos em relação à última pesquisa do mesmo instituto. Em 18 de agosto, ela tinha apenas 21%, enquanto Dilma liderava com 36%. Naquela sondagem, Aécio Neves aparecia com 20%”. DATAFOLHA

E o pior é que os brasileiros acreditam cegamente em pesquisas mas, pelo menos desta vez, talvez um sistema de política torta seja efetivo em um país torto como o Brasil.

Não dá para dizer que Marina não será forçada pela corrupção a mudar algumas de suas atitudes, mas é com certeza quem tem mais atitude entre os três candidatos.

Fonte: Carta Capital

Lista de Presidentes do Brasil

Eu não acredito em teoria da conspiração

Marilyn Monroe e a teoria da conspiração

Teorias da conspiração que foram comprovadas

A sociedade secreta mão negra  

Mortes misteriosas de celebridades

Veneno bipartidário 

Goleada da Alemanha tinha objetivo  político

Perspectiva política 

Morte na política brasileira

 

setembro 1, 2014 Posted by | Política | , , , , , | Deixe um comentário

Top produtos de nanotecnologia

Nanotecnologia Lista

Produtos Nanotecnológicos

01 – Cerveja fresca – A intenção é evitar garrafas de vidro em estádios. Através das nanopartículas de argila, permitir que a cerveja seja engarrafada em embalagens plásticas.

02 – Colete a prova de balas – Mesmo quando a bala não penetra no tecido, pode causar danos ao corpo. A ideia é espalhar a força do impacto por todo o corpo através de uma fina camada de moléculas orgânicas sobre a superfície de cada fibra.

03 – Recarregamento de baterias – O pesquisador Yet-Ming Chiang (MIT) resolveu vários problemas da bateria, como a possibilidade de explodir ou pegar fogo. Com o eletrodo positivo com nanopartículas de um material novo, lítio de fosfato de ferro, que permite que os íons saiam e retornem rapidamente durante um ciclo de recarga.

A bateria já está sendo usada em carros elétricos.

04 – Exames de sangue – Num futuro não muito distante, os médicos acreditam que será possível realizar exames de sangue com um simples toque de botão. Isso seria possível com produtos que utilizam nanopartículas de ouro, revestidas com DNA, para identificar proteínas e genes importantes.

05 – Polimentos de carro – Como as partículas de cera de carnaúba são tremendamente pequenas, elas parecem transparentes. Seu tamanho minúsculo permite-lhes também preencher os mínimos defeitos e aderir fortemente a pintura. Protetores solares utilizam o mesmo truque com a ajuda de óxido de zinco.

06 – Nanopartículas de semicondutores – A energia solar é cara devido aos materiais caros utilizados. Uma empresa start-up pretende baratear esse custo imprimindo nanopartículas sobre bobinas de folha de papel barato. A ideia deu tão certo que a empresa já está com projetos de grandes fábricas para aumentar a produção e diminuir o custo da energia solar para uma fração desse valor.

07 – Teste de gravidez – À medida que a futura mãe urina dentro do dispositivo, a urina migra para uma tira de teste, com nanopartículas de ouro.

08 – Bolas de Tênis – Uma empresa conseguiu manter a qualidade das bolas de tênis por mais tempo, utilizando nanopartículas, entretanto, os tenistas não aceitaram pagar mais pelo produto e sua fabricação foi interrompida.

09 – Compressas para coagulação sanguínea – Dois químicos da Universidade da Califórnia, Santa Bárbara, Sarah Baker e April Sawve, perceberam que a compressa utilizada para parar o sangramento do nariz, através de coagulação, poderia ser utilizado para deter hemorragias graves. Seu mentor, Galen Stucky, entrou com um pedido de patente e trabalhou para desenvolver o produto que pode salvar soldados e feridos, podendo chegar ao mercado ainda este ano.

O produto utiliza nanopartículas de alumínio para a coagulação do sangue.

Fonte: Discover Magazine

O computador biológico

Física quântica revolucionará a internet

abril 5, 2013 Posted by | curiosidades | , , , , , | 8 Comentários

Macaco com sexto sentido

Sexto Sentido do Macaco

Interface Animal Máquina

A força mental de uma macaca da Universidade Duke (Carolina do Norte, EUA) é suficiente para controlar mecanismos robóticos virtuais. Ela nem precisa das mãos, faz isso com o pensamento.

Há uma década atrás, o neurofisiologista Miguel Nicolelis ensinou Aurora a brincar com um videogame, usando um joystick. Enquanto estava ocupada com isso, amarrada a uma cadeira, dispositivos especiais registravam os sinais enviados por seu cérebro esquerdo, com as instruções para manejá-lo.

Os sinais foram processados por um computador, para que pudesse reconhecer também as instruções que Aurora enviava para o braço robótico. Na fase seguinte do experimento, Aurora teria os braços livres e a tela diante dela oferecia uma oportunidade para desenvolver seu “sexto sentido”. Na ausência do joystick, pouco a pouco ela começou a mover um membro virtual que via na tela e começou a jogar com a ajuda desse membro virtual.

“O modelo em si, que aurora tinha em sua mente, expandiu para se tornar um braço a mais”, disse Nicolelis em uma conferência transmitida pelo portal científico ted ponto com. Aurora, disse ele, perdeu o uso de seus outros dois braços, que poderia usar para arranhar ou fazer sucos.

Mas o objetivo principal do experimento era capacitar o animal até um nível em que poderia controlar completamente um robô bípede. Isso também foi conseguido, embora não tenha sido possível evitar esforço físico. Para que a macaca pudesse se concentrar nos movimentos do humanoide metálico que via diante de seus olhos, através de uma tela, foi necessário que ela corresse sobre uma esteira.

Vale ressaltar que os movimentos do robô se encontravam a milhares de quilômetros do animal, na Universidade de Kyoto, Japão. Os cientistas de lá conseguiram preparar o robô para que pudesse processar as instruções que recebia do cérebro do macaco, equilibrando-o o suficiente para que não caísse devido a movimentos bruscos de pensamento.

fonte: RT-TV

Lanterna de raio-x

Controle das máquinas com o cérebro

Super-herói real

fevereiro 25, 2013 Posted by | curiosidades | , , , , , | 4 Comentários

Algas que combatem o aquecimento global

pesquisas de geoengenharia

Controle do CO2

Ao ser fertilizado com ferro, cresce o fitoplâncton nos oceanos que logo absorve o dióxido de carbono que provoca as mudanças climáticas.

Um estudo oceanográfico mostra que fertilizar os oceanos com ferro, faz crescer o fitoplancton que ao morrer absorve grande quantidade de dióxido de carbono, esfriando a Terra.

Isto conclui um estudo oceanográfico recentemente publicado na revista Nature.

Desde 2.004, os cientistas realizaram experimentos para o desenvolvimento, em grande escala, de algas no Oceano Antártico e descobriram que o ferro ajuda na fertilização, ajudando no crescimento rápido do fitoplâncton que ao morrer, absorve o dióxido de carbono responsável pelo aquecimento global.

A equipe do professor Victor Smetasek, do Instituto de Pesquisa Polar e Marinho, Universidade de Wegener, Alemanha, espalhou sete toneladas de sulfato de ferro em várias partes do Oceano Antártico, onde o nível de ferro era muito baixo. Em apenas uma semana havia já havia um grande crescimento de fitoplâncton. Três semanas mais tarde, começaram a morrer e seus restos foram para o fundo do mar onde absorveram dióxido de carbono (CO2).

De acordo com o oceanólogo John Cullen, este estudo serve para melhorar a compreensão dos processos bioquímicos que o clima influencia.

A equipe de Smetasek ressalta que este método de geoengenharia, no futuro, poderia absorver pouco mais de um giga toneladas (ou bilhões de toneladas) de CO2 por ano, quatro dos quais se acumulam na atmosfera. No entanto, apenas o bloqueio de parte do CO2 poderia afetar de forma significativa a mudança climática, alertam os especialistas.

Além disso, os investigadores opinam que o uso de ferro para esse fim seria muito mais barato que outros possíveis métodos de geoengenharia e reconhecem a necessidade de haver mais experiências para se obter resultados mais precisos.

Fonte: RT-TV

Geoengenharia

julho 22, 2012 Posted by | Ciências | , , , , , | 4 Comentários

Deep Web – Nas profundezas da internet

internet invisível

Deep Web (também chamada de Deepnet, Invisible Web, Undernet ou hidden Web, refere-se ao conteúdo da World Wide Wide (WWW) que não faz parte da Surface Web, conteúdo indexável pelos padrões dos motores de busca.

Não deverá ser confundida com a Dark Internet, redes de computadores ultrapassadas que não podem ser alcançadas via internet, ou com a Darknet, compartilhamento de arquivos, que poderia ser classificada como uma pequena parte da Deep Web.

Mike Bergman, fundador da BrighPlanet, disse que a procura na internet hoje pode ser comparada a uma navegação pela superfície, surface, de um oceano, sendo que uma grande quantidade de conteúdos pode ser rastreado na rede, pelos buscadores, mas há muito conteúdo interessante abaixo dessa superfície e, portanto, fora do alcance dos buscadores. A maioria das informações da Web estão muito abaixo da superfície, navegável pelos internautas, através dos buscadores, em sites gerados dinamicamente, e que os motores de busca padrão não pode encontrar. Motores de busca tradicionais não conseguem “ver” ou recuperar o conteúdo na Deep Web, isso porque estas páginas não existem até que sejam criadas dinamicamente conforme o resultado de uma pesquisa específica. A Deep Web está a uma magnitude maior, sob a superfície.

Estimativas baseadas em técnicas avançadas de internet, feitas em uma Universidade da Califórnia, Berkeley, no ano de 2.001, especulam que a Deep Web é constituída 91 terabytes. Estimativas mais precisas podem ser obtidas com tecnologias desenvolvidas para Deep Web: A princípio, foram detectados 300.000 Deep Sites em toda a Web, em 2.004 e, de acordo com Shestakov, cerca de 14.000 Deep Sites só na região da Rússia, em 2.006.

Sites que não foram registrados em buscadores, o que não ocorre com subdomínios gratuitos, como os blogs, não são rastreados pelos buscadores, ou seja, são invisíveis aos buscadores, portanto, conhecidos como Web invisível ou Invisible Web.

A Deep Web pode ser classificada como:

Conteúdos Dinâmicos: Páginas dinâmicas geradas automaticamente através de uma simples interação com formulários, com campos de textos, esses campos são difíceis de navegar sem o conhecimento de domínio.

Private Web: Sites que exigem registro e login (protegidos por recursos de senha).

Unlinked Content: Páginas que não estão ligadas à outras páginas, que pode impedir os sistemas rastreadores de acessar o conteúdo. Este conteúdo pode ser classíficado como páginas sem backlinks (ou inlinnks).

Contextual Web: Páginas com conteúdo variável para contextos de acessos diferentes (intervalos de endereços IP de cliente ou sequência de navegação interior).

Acesso limitado de conteúdo: Sites que limitam o acesso às suas páginas de forma técnica (por exemplo, usando o Padrão de Exclusão de Robôs, Captchas, ou cabeçalhos HTTP que proíbem a motores de busca de navegar, criando cópias do cache.

Scripted Content: Páginas que só são acessíveis através de links produzidos em JavaScript, bem como conteúdo baixado dinamicamente a partir de servidores Web de Flash ou Ajax.

Non-HTML/text content: Conteúdo textual codificado em multimídia (imagem ou vídeo) ou arquivos específicos, formatos de arquivos não manipulados pelos motores de busca. Conteúdo de texto usando o protocolo Gopher e arquivos hospedados em FTP que não são indexados pela maioria dos motores de busca. Motores de busca como o Google não indexa fora de HTTP ou HTTPS.

Para descobrir o conteúdo da Web, motores de busca utilizam Crawlers que seguem hyperlinks através de números de portas de protocolos virtuais conhecidos. Esta técnica é ideal para descobrir conteúdos na superfície da Web, mas muitas vezes é ineficaz para encontrar conteúdos da Deep Web. Por exemplo, esses indexadores não tentam encontrar páginas dinâmicas que são o resultado de consultas de banco de dados, devido ao número infinito de consultas que são possíveis.

Tem-se observado que isto poderá ser parcialmente superado, se forem fornecidos links para consultar os resultados, mas isso poderá involuntariamente inflar a popularidade de um usuário da Deep Web.

Em 2.005, o Yahoo! rastreou uma pequena parte da Deep Web, liberando para seus assinantes. Esse motor de busca rastreia através de alguns sites da Web. Alguns sites de subscrição exibem seu conteúdo completo de robôs de Search Engine, assim como vai aparecer nas buscas do usuário, mas, em seguida, mostra aos usuários uma página de login ou de subscrição, quando se clica em um link da página de resultados do motor.

Os pesquisadores tem explorado uma forma que a Deep Web possa ser rastreada de forma automática. Como resultado dessas pesquisas, vários projetos vem sendo desenvolvidos paralelamente como:

DeepPeep: Um projeto da Universidade de Utah patrocinado pela National Science Foundation, que reuniu fontes (formulários) em diferentes domínios, com base em novas técnicas de rastreamentos mais focados.

Finalmente os buscadores comerciais começaram a explorar métodos alternativos para rastrear a Deep Web. O protocolo Sitemap (desenvolvido pela Google) e o Mod Oai, são mecanismos que permitem que os motores de busca e outras partes interessadas em descobrir recursos que levem a Deep Web, em servidores específicos. Ambos mecanismos permitem que os servidores web divulguem as URLs que são acessíveis a eles, permitindo a descoberta automática de recursos que não estão ligados diretamente à Web Surface.

Deep Web do Google rastreia submissões para cada formulário HTML e adiciona as páginas HTML resultantes para o índice do motor de busca Google. São mil consultas por segundo para o conteúdo Deep Web.

Neste sistema, o cálculo pré da submissões é feita usando três algoritmos:

01) A seleção de entrada para textos de pesquisa que aceitam palavras-chaves;

02) Identifica resultados que aceitam apenas valores de um típo de dados específicos (por exemplo, data);

03) Seleção de um pequeno número de combinações de resultados que geram URLs adequadas para a inclusão no índice de buscas web.

Determinar se um resultado já faz parte da internet ou se faz parte da Deep Web é difícil. Se um resultado é indexado por um motor de busca, isso não quer dizer necessariamente que deveria estar ali, isso porque esse resultado poderia ter sido obtido através de outro método (por exemplo: Protocolo do Site Map, Mod Oai, Oaister) em vez de rastreamento tradicional.

Se um motor de busca fornece um backlink para um resultado, pode-se supor que o resultado está na web surface. Infelizmente, os motores de busca nem sempre fornecem os back links para esses recursos. Mesmo que uma backlink exista.

Não há maneira de determinar se o recurso que fornece a ligação é ele próprio ou web surface, sem rastrear toda a web. Além disso, um recurso pode residir na web surface, sem ter sido encontrado por um motor de busca.

Portanto, se temos um recurso arbitrário, não podemos saber com certeza se o recurso reside na web surface, sem um rastreamento completo da web.

Para resolver esse problema, alguns projetos estão sendo desenvolvidos, entre eles:

01) Oaister – Universidade de Michigan

02) Intute – Universidade de Manchester

03) Infomine – Universidade da Califórnia, em Riverside.

04) DirectSearch – Gary Price.

Esta classificação representa um desafio durante a busca da Deep Web, em que dois níveis de categorização são obrigatórios.

O primeiro nível é categorizar sites em tópicos verticais ( por exemplo, saúde, viagens, automóveis) e sub-tópicos de acordo com a natureza do conteúdo subjacente de suas bases de dados.

O desafio mais difícil é classificar e mapear as informações extraídas de várias fontes da Deep Web, de acordo com necessidades do usuário final. Relatórios de pesquisa Deep Web não pode exibir URLs, como relatórios de pesquisas tradicionais. Os usuários finais esperam de suas ferramentas de busca, não só encontrar o que estão procurando rapidamente, mas que seja intuitiva e amigável.

Para que sejam significativos, os relatórios de pesquisa tem de oferecer alguma profundidade à natureza dos conteúdos que estão na base das fontes, ou então o usuário final estará perdido no mar de URLs que não indicam o conteúdo. O formato em que os resultados da pesquisa devem ser apresentados varia muito de acordo com assunto específico da pesquisa e do tipo de conteúdo que está sendo exposto. O desafio é encontrar e mapear dados semelhantes em várias fontes diferentes, de modo que os resultados das pesquisas possam ser expostos em um formato unificado sobre o relatório de pesquisa, independentemente de sua fonte.

As linhas entre o conteúdo e o motor de busca da web começaram a diluir-se, com os serviços de busca começando a dar acesso a parte ou todo conteúdo de uma vez com restrição de conteúdo. Uma quantidade crescente de conteúdo da Deep Web se abre para pesquisa livre, com editores e bibliotecas fazendo acordos com grandes motores de busca.

No futuro, o conteúdo da Deep Web poderá ser definida por menos oportunidade para a busca do que as taxas de acesso ou outros tipos de autenticação.

Fonte: Wikipedia

Dark internet

Darknet – Revolução Web

Sites de busca DeepWeb

Adaptação de texto: By Jânio

junho 9, 2012 Posted by | internet | , , , , , , , | 4 Comentários

O acesso a páginas bloqueadas ou apagadas é possivel

page cannot be found

Página Bloqueada

Quando uma pessoa dá os seus primeiros passos na internet, os sistemas de buscas são fundamentais para sua utilização.

Dentre todos os sites de buscas, o site que se destaca é o Google, que, ao lado do Yahoo oferece as melhores performances de buscas, além de ser o mais popular.

Para usuários iniciantes, uma busca simples já é suficiente: Digita-se uma palavra;  e clica-se em buscar, Go ou Search, para que  o processo de busca se inicie.

Com o tempo, a internet passa a fazer parte do cotidiano desses usuários, novas possibilidades surgem.

Encontrar um documento específico na internet, é um milhão de vezes mais difícil que encontrar uma agulha num palheiro, ou seja, é impossível se achar com técnicas simples.

Nesses casos, vale mais a experiência do internauta.

Buscas no Diário Oficial da União, por exemplo, é um martírio.

Se temos um texto anterior, no caso de uma lei, por exemplo, fica mais fácil.  Digitamos frase por frase, no buscador, até ele retornar algo aproveitável, a partir daí, é só filtrar pela data atual.

Pronto, encontramos a nova lei, baseado no texto da antiga lei que já tínhamos, em menos de dois ou três minutos.

Apesar de não ser familiarizado com todas as técnicas avançadas de busca – não me interesso muito por técnicas crackers, por exemplo – eu tenho o meu estilo, e aproveito todas as possibilidades de busca que eu considero úteis.

Um dos primeiros artigos que eu escrevi para internet, como não poderia deixar de ser, foi sobre buscas: “1/4 dos usuários mais inteligentes do Google, não sabem utilizar a lógica booleana.”

Muitas vezes não utilizamos a lógica booleana por pura preguiça mesmo, mas eu tenho notado que os sistemas de busca tem dificultado alguns tipos de busca avançadas, justamente para poupar/economizar nos servidores.

Além da lógica booleana, já falamos da importância das buscas avançadas:

Por data: Fundamental para que os usuários acompanhem os fatos disponíveis na internet, em tempo real. Tempo real, aliás, que recebeu a importância que merecia só depois do advento da Twitter.

Pesquisas avançadas por data, são ideais para acompanhar a política, em seus momentos cruciais, ou até a evolução desses fatos, como foi o caso da gripe influenza, caso Isabella nardoni, etc.

Pesquisas por imagens: Quando clicamos em imagens, no Google, iniciamos nossas buscas por imagens, com uma simples configuração de formato/tamanho, podemos encontrar a imagem no tamanho exato que queremos. Podemos ver o “peso” dessa imagem, em nosso bolso, observando sua resolução em kbytes, e também o tipo de arquivo: JPG, GIF, PNG, etc.

Minhas recém descobertas foram na opção “cache”, não que eu não soubesse de sua utilidade. A Polícia Federal utiliza a busca no “cache” para encontrar o que já foi apagado da internet, mas não é só para a Polícia Federal que isso tem utilidade.

Muitos usuários mais espertos, publicam determinado conteúdo, em seguida apagam, mantendo apenas no cache. Seus usuários, evidentemente, só terão acesso se conhecerem essa técnica de busca.

Quando a plataforma WordPress iniciou sua indexação de imagens, de maneira mais otimizada, notei que muitas imagens minhas foram para o topo. Cheguei a escrever um post intitulado “indexação às avessas”.

A razão, é claro, pelo fato de grande parte dos visitantes de meu blog, estarem acessando o site através da busca por imagens. Foi nessa época que eu descobri a primeira forma de acessar sites bloqueados pelos navegadores – Sabe aquela mensagem: “Seu navegador não conseguiu localizar essa página, ela pode ter sido deletada ou encontrar-se em um novo endereço.”

Apesar de acessar sites bloqueados pelos navegadores, através das imagens, algumas vezes isso não funcionava. São raros os casos, mas acontece.

Nesse caso, você pode usar o cache – É isso mesmo! – além de acessar conteúdo que já foi deletado/apagado, podemos acessar sites bloqueados, através do cache.

Eu sempre associava o cache do Google, com a memória do computador, sempre fazemos isso em programação para a internet.

A Google cria todas suas ferramentas online, baseadas em sua busca, isso barateia os custos dos servidores. Isso pode acontecer com o Google Suggest, aquele que complementa a frase buscada, ou utilizando o cache.  

Há vantagens da Google em seu cache on line, onde podemos visitar páginas apagadas ou bloquedadas, mesmo sem nunca termos visitado tal página, o que significa que não está no cache do computador.

Leia mais:

https://icommercepage.wordpress.com/2008/04/06/14-dos-usuarios-mais-inteligentes-do-google-ignoram-a-logica-booleana/

https://icommercepage.wordpress.com/2010/04/28/indexacao-de-paginas-as-avessas/

By Jânio

outubro 22, 2010 Posted by | internet | , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 17 Comentários

Melhores invenções dos últimos trinta anos

melhores criações

Melhores invenções

Você pode imaginar porque a internet é a maior invenção de todos os tempos?

Uma Universidade da Pensilvânia, nos EUA, descobriram porque. Na realidade o que eles queriam mesmo é fazer uma pesquisa, junto aos estudante, das maiores invenções dos últimos trinta anos.

Segundo essa pesquisa, cinquenta por cento de todas as invenções dos últimos trinta anos estão ligadas a internet, desde um simples e eficiente sistema de e-mail, que deixou o ineficiente correio no chinelo, até os leilões online, metade dessas invenções fazem parte do universo da internet.

O resultado dessa pesquisa me fez pensar, a maior revolução da tecnologia, até pouco tempo atrás, era a criação do computador, esse mercado era disputado pelas maiores empresas do mundo, como a IBM, que até então vivia, principalmente,  do comércio de máquinas de escrever. Acontece que o computador é a base física que proporciona a existência da internet, apesar de estar evoluindo para outras máquinas, mas até essas novas máquinas já apresentam natureza de computadores, com recursos para internet.

Houve um tempo em que a tecnologia era impulsionada, principalmente, por guerras e corridas espaciais utópicas, apesar da filosofia deixar bem claro que a evolução não deva ser forçada, exceto em teoria, mas até aí é preciso cautela.

Hoje, poderíamos imaginar o lançamento de um míssil, em zona de guerra, carregado com propostas ideológicas, filosofias e convites para uma vida cooperativa entre todos os povos do mundo; poderíamos fazer um bombardeio em território inimigo com corações de pelúcia, acompanhados de uma enorme lista de e-mail para intercâmbio de idéias.

Em nossos bombardeio poderíamos explicar que o maior problema das guerras é a ignorância, incapacidade de entender o ponto de vista dos outros . Por e-mail, desafiaríamos nossos adversários/parceiros para uma disputa de idéias e pesquisas cientificas, torcendo sempre para que eles fossem ainda melhores que nós.

Veja a lista das melhores invenções dos últimos trinta anos, publicada pelo “New York times”.

1 – Internet banda larga
2 – Computadores pessoais e laptops
3 – Telefones celulares
4 – E-mail
5 – Teste e sequenciamento de DNA
6 – Ressonância magnética
7 – Microprocessadores
8 – Fibra óptica
9 – Software para escritório
10 – Cirurgia a laser/robótica
11 – Software de código aberto
12 – Diodos de emissão de luz
13 – Tela de cristal líquido
14 – Aparelhos GPS
15 – Comércio eletrônico e leilões on-line
16 – Compressão de arquivos
17 – Microfinança
18 – Energia solar fotovoltaica
19 – Turbinas de vento de grande escala
20 – Redes sociais na internet

By Jânio

março 1, 2010 Posted by | curiosidades | , , , , , , , , | 13 Comentários

Saem as primeiras prévias para as eleições 2.010

hora de decisão

eleições 2.010

Depois que a Polícia Federal foi liberada para atuar, as eleições perderam o clima de festa que tinha. Com a proibição dos shows em comícios, a eleição ficou mais monótona ainda.

Muita gente nem se lembrava das eleições para governadores, deputados e senadores, em 2.010. A própria mídia parece  mais preocupada com a eleição para a presidência, pouco se fala sobre a eleição para outros cargos.

Em Minas Gerais, o PT disparou na frente, apesar de Aécio Neves ter sido muito popular. Parece que os mineiros não gostaram de ver Aécio ser trocado pelo Serra, na preferência para a presidência.

Pelas fofocas que correm em Minas, Aécio deverá se desligar do Governo para se candidatar a presidência, como o PSDB já preferiu o Serra, para onde será que ele iria. Simon anda dizendo que Aécio é mais forte que serra, por aí, dá para se ter uma ideia de onde vai Aécio Neves. Será???

No Paraná, a eleição deverá ser decidida entre os irmãos Álvaro e Osmar dias e Beto Richa.

Como o PSDB e o PDT são aliados, a disputa deverá ser entre compadres, digo, entre irmãos.

Crivela está na frente, no Rio de Janeiro, em seguida vem Benedita da Silva, num empate técnico com Gabeira.

Joaquim Roriz, do PSC, segue isolado em Brasília, podendo até ganhar a eleição logo no primeiro turno.

No Rio Grande do Sul, Tarso Genro pensa em voltar ao poder mas, para isso, deverá enfrentar Fogaça que vem muito forte. A primeira prévia já saiu, mas ainda é cedo para apostar no vencedor.

Como podemos observar, as notícias  corrupção em Brasília, e os problemas do Rio Grande do Sul, enfrentados pela Governadora, tem influenciado muito nas prévias.

Como nós sabemos, salvo o Rio Grande do Sul e Brasília, onde os escândalos foram mais destacados, agora é que nós passaremos a ver os podres de cada um. A baixaria deve começar logo, apesar de alguns terem se adiantado nos ataques; lembrando também que nem tudo deve ser levado a sério.

E  em seu estado, como estão as pesquisas?

By Jânio

janeiro 27, 2010 Posted by | Política | , , , , , , , , , | 14 Comentários

Quando tudo estiver perdido

Ultima saída

A hora do fim

Há duas hipóteses a serem analisadas, sobre o pensamento humano:

Quando o homem pensa – Na primeira hipótese, surgem os problemas quando o homem começa a pensar. Sem nenhuma capacidade crítica, o homem expõe o mundo a situações críticas, devido a pensamentos elitizados, interesseiros, onde a ambição direciona-nos a destruição total do planeta.

Quando o homem não pensa – Se a elite tem tanta facilidade, para impor sua verdade, é sinal que noventa por cento não estão pensando, ou estão sendo manipulados, pela mídia ou outras formas de comunicação.

O fato é que todos os problemas da sociedade, de certa forma, resultam de falta de planejamento estratégicos, onde a classe média desempenha um papel chave. Enquanto a classe média for manipulada, nada será resolvido, nem os problemas sociais, nem problemas mais sérios, como é o caso do aquecimento global, que também é um problema da sociedade.

Por outro lado, os cientistas já criaram um plano b, em caso de o planeta estar totalmente sem alternativas de sobrevivência. Situações desesperadas, requerem medidas desesperadas.

Assim surgiu a Geoengenharia, que não deve ser confundida com Geotécnica, Geologia ou Geofísica. A Geoengenharia é uma ciência que estuda formas de combater o aquecimento global, o efeito estufa, provocado pela emissão de gases na atmosfera.

Recentemente, até o arroto do gado foi incluído na lista de emissões de gases nocivos à atmosfera. Pensando nisso já está em fase de pesquisa, a criação de uma carne sintética, para quem, realmente, não consegue ficar sem comer carne.

Está sendo testado, também, a possibilidade de se usar os vulcões no combate ao aquecimento global. Recentemente, com a erupção de vulcões, verificou-se a possibilidade do uso desse fenômeno em prol da habitabilidade na Terra.

O uso de aerossóis de enxofre estratosféricos, a criação de árvores artificiais e fertilização de ferro nos oceanos, tudo isso está em fase de pesquisas, pela Geoengenharia.

Um grande problema que surge em meio a discussão, é o fato de a Geoengenharia ser vista como uma eventual solução, o que provocaria um efeito moral negativo nos países ricos, desencorajando os avanços nos acordos ligados a mudanças climáticas, aquecimento global.

A complexa ciência Geoengenharia envolve conhecimentos de: Química Atmosférica, Ecologia, Meteorologia, Biologia Vegetal, Aeronáutica, Arquitetura Naval, Balística, Gestão de Riscos e Investigação Operacional.

O homem ainda não domina todos esses conhecimentos, portanto, não tem domínio da Geoengnharia, nem tem tempo para isso. O Uso da Geoengenharia pode desencadear efeitos inesperados no clima e no Planeta, assim como nas mudanças climáticas, na Geoengenharia haverá um preço caro a se pagar, talvez o preço seja caro demais para a vida no planeta.

As organizações interessadas na Geoengenharia são: NASA, Royal Society, Institute of Mechanical Engineers. Organizações ambientais como Amigos da Terra e Greenpeace alertam para o fato da Geoengenharia enfraquecer acordos de redução de gases de efeito estufa na atmosfera, além de não serem totalmente conhecidos os efeitos colaterais.

Os efeitos de escurecimento global para a redução de luz solar na Terra, são observados através de erupções vulcânicas e, ironicamente, incêndios de florestas, enquanto que outras idéias, como o teto legal ou pavimentação de superfícies. onde o mundo ficaria todo pintado de branco, para refletir os raios do sol, a mesma função dos pólos árticos e antárticos, através de suas geleiras. Nesse caso, a luz do sol seria refletida na Terra, através de um mundo completamente pintado de branco.

O uso de tubos verticais no oceano para misturar águas profundas mais frias e água quente de superfície tem sido proposto. Esta tecnologia também tem sido sugerido para o rompimento de furacões por Bill Gates e outros em um recente pedido de patente.

Duas constatações observadas.

O tempo continuará sendo um elemento importante, no caso de considerar-se a Geoengenharia.

Além do fato de os cientistas mais importantes reconhecerem que o futuro é incerto, não dá para prever a reação do Planeta, exceto pela avaliação do que já está acontecendo, ainda há o fato de interesses econômicos, onde cria-se uma expectativa manipulada, evitando-se que a população, dos países mais ricos, tome conhecimento da verdade, como sempre foi feito, desde que o mundo é mundo.

A Geoengenharia, por mais eficiente que se possa se transformar, através de suas atuais técnicas, e novas técnicas a serem descobertas, deverá ser usado apenas como medida estratégica, conscientes de seus efeitos colaterais.

Dessa vez, não haverá tempo para manipulações da opinião pública, todas as alternativas possíveis, são acompanhadas de riscos e efeitos inesperados. De um jeito, ou de outro, todos pagaremos o preço por destruir a camada de ozõnio da Terra.

By Jânio.

dezembro 18, 2009 Posted by | Reflexões | , , , , , , , | 12 Comentários

   

Karmas e DNA.

Direitos autorais: Fernanda vaz.

Academia New Star Fitness

A fine WordPress.com site

Gramofone Lunar

Músicas, Versos e Outras Histórias

baconostropicos

Documentário "Baco nos Trópicos"

relutante

leve contraste do sentimentalismo honorário

entregue a solidão

é oque me resta falar e oque me sobra sentir

RB Solutions

Soluções em informática, comunicação e tecnologia

Bora' para Ireland

Smile! You’re at the best WordPress.com site ever

sarahrosalie

A topnotch WordPress.com site

Suburban Wars

"Let's go for a drive, and see the town tonight"

Made in Blog

Política, curiosidades, notícias, entretenimento, blogosfera,

%d blogueiros gostam disto: