Fabio Seixas, versão txt
Evolução da folksonomia
novembro 18, 2007, 4:15 AM por Fabio Seixas

A Internet vem introduzindo vários novos conceitos no mundo atual. Um dos que mais aprecio é a folksonomia, ou a capacidade de várias pessoas categorizarem conteúdo utilizando palavras-chaves ou tags.

Pegue uma unidade de conteúdo ou objeto, como, por exemplo, uma foto. Associe palavras-chaves à ela e deixe que outros façam o mesmo. Com o volume e várias pessoas associando as mesmas palavras a um mesmo objeto observamos o "peso" das palavras-chaves. Quanto mais pessoas fizerem a mesma associação, mais relevante é a palavra-chave.

Consigo imaginar que esse modelo seja apenas o começo do que pode se tornar a folksonomia.

Temos duas dimensões (objeto e palavra-chave) e um sujeito (pessoas). Com isso conseguimos um resultado (categorização) com uma variável (peso).

objeto + palavra-chave = categorização

(objeto + palavra-chave) x peso = categorização relevante

Consigo imaginar um modelo mais avançado para a folksonomia. Um modelo que considere três dimensões e não apenas as duas dimensões iniciais, objetos e palavras-chaves. Imagine acrescentar a essa formula a dimensão da conexão entre palavras-chaves. Imagine palavras-chaves com alguma relação em comum.

"arco-íris" e "colorido" estão, do ponto de vista do significado, eternamente associadas. Podemos dizer o mesmo de "formula1" associado a "carros". Já não poderíamos tirar a mesma conclusão de "carros" associado a "formula1" já que nem todo carro é um Formula 1.

O ponto que quero chegar é se podemos extrair significado da folksonomia como ela é hoje se simplesmente adicionarmos ao modelo a conexão de palavras-chaves.

Imagine uma foto de um arco-íris onde várias pessoas associaram as palavras "arco-íris" e "colorido".

A partir de várias associações bidimencionais como essa, podemos criar conexões entre as palavras-chaves.

Se muitas pessoas associam as palavras "arco-íris" e "colorido" para vários objetos (fotos) diferentes, podemos concluir que "arco-íris" e "colorido" estão de alguma forma conectados.

Uma vez que as palavras-chaves podem estar previamente categorizadas como verbos, adjetivos e substantivos, essas conexões acabam por gerar significado. "Arco-íris são coloridos".

objeto + palavra-chave + conexão = significado

Coloque isso em larga escala, compute o peso e teremos significado relevante.

(objeto + palavra-chave + conexão) x peso = significado relevante

Temos então um modelo tridimencional de folksonomia: objeto, palavra-chave, conexão.

Esse modelo poderia ser um dos pilares da web semântica, desde que houvesse associações suficientes. Isso não me parece utópico, já que muito conteúdo na web está sendo associado a palavras-chaves, tais como fotos, vídeos e artigos.

Colocando em prática, poderíamos associar fotos do Flickr com artigos do Wikipedia automaticamente tendo como base somente a folksonomia feita pelos usuários do Flickr, a nuvem de conexões entre palavras-chaves e o significado dos artigos do Wikipedia ("Arco-íris são coloridos")


Talvez eu tenha viajado bastante nesse artigo. Talvez eu devesse escrevê-lo em inglês e enviá-lo para Universidade de Stanford. :)





Adicionar à: del.icio.us | Rec6 | My Yahoo 2.0
permalink | comentários (16) | trackback (0)
Link para este post:



Seleção de conteúdo: Humanos vs Máquinas
junho 30, 2007, 7:45 PM por Fabio Seixas

O Google mudou a Web para sempre ao desenvolver um mecanismo automatizado de seleção e classificação do conteúdo textual da Web. Eles conseguiram criar algo extramamente bem elaborado, que utiliza milhares de variáveis para calcular o PageRank.

Tal façanha só é possível utilizando o poderio dos computadores da nossa era. Mas esse modelo não é perfeito. Na verdade está longe disso. Provavelmente a perfeição nunca será atingida utilizando somente o modelo computacional ou talvez a Web semântica possibilite isso. É comum não encontrarmos o que buscamos nos primeiros links, onde teoricamente deveriamos encontrar o melhor conteúdo. Isso tem a ver não só com como o Google interpreta o que estamos buscando, mas também como ele classifica o conteúdo.

Ou seja, depois de qualquer busca no Google é imprescindível a análise do ser humano para discernir sobre qual o conteúdo mais adequado ao que estamos procurando.

É ai que entra a questão do ser humano em relação as máquinas. Os seres humanos sempre serão melhores analistas do que as máquinas em assuntos subjetivos e abstratos.

Mas também não é perfeito. O problema do fator humano na seleção de conteúdo é a falta de escala. Seria humanamente impossível uma (ou mesmo muitas) pessoa indexar as bilhões de páginas da web. Somente um sistema automatizado tem essa capacidade.

Então, a questão de humanos vs máquinas se resume a outra questão fundamental, escala vs qualidade.

O Mahalo, auto entitulado "Human-powered Search", é um Google sem PageRank onde um grupo de editores profissionais selecionam na web o melhor conteúdo, incluindo vídeos e fotos, para diversas palavras-chaves. O objetivo deles é fazer esse trabalho para as 10 mil palavras-chaves mais buscadas no mundo. Compare as busca por iPhone no Mahalo e no Google.

10 mil palavras-chaves é infinitamente menos que as palavras-chaves que o Google tem capacidade de atender. Mas certamente, a qualidade dos resultados do Mahalo são muito melhores que os do Google. Ou seja, uma questão de escala vs qualidade.

Quando se deseja priorizar a qualidade, a seleção feita por humanos é o melhor caminho.

O WeShow tem justamente a mesma abordagem para a seleção de vídeos de qualidade. Um grupo de editores profissionais selecionam e organizam os melhores vídeos da Web. No caso de vídeos, essa abordagem é ainda mais interessante já que ainda não foi desenvolvida tecnologia para análise de conteúdo em formato de vídeo e imagens. Não é a toa que o Google invetou o Google Image Laber, onde pessoas classificam o "conteúdo" das fotos usando palavras-chaves.

Mesmo no modelo de análise de conteúdo por humanos, caímos em outra questão. Qual o melhor? Profissionais ou amadores? Ou mesmo os amadores-profissionais (Pro-Am)?

Enquanto o Mahalo aposta em editores profissionais para criar páginas que trazer o melhor sobre uma determinada palavra-chave, o Squidoo faz o mesmo, só que qualquer um, amadores ou pro-ams, pode criar uma página sobre algum assunto (ou palavra-chave) e colocar ali o que ele considera ser o melhor conteúdo relacionado ao tópico.

O Squidoo consegue aumentar a escala perdendo alguma qualidade, já que qualquer um pode criar uma página (ou lente como eles chamam) com qualquer conteúdo, mesmo que de qualidade duvidosa. Como exemplo vejam uma excelente lente sobre o iPhone e outra nem tão boa assim.

Google, Squidoo ou Mahalo? Depende do nível de qualidade que você espera. Pelo menos, quando se trata de vídeos, você já sabe onde ir.





Adicionar à: del.icio.us | Rec6 | My Yahoo 2.0
permalink | comentários (5) | trackback (0)
Link para este post:



De olho na web semântica
abril 5, 2007, 6:09 PM por Fabio Seixas

Se você anda interessado em Web Semântica (Web 3.0, Intelligent Web), fique de olho na Radar Networks, uma empresa que está prometendo fazer barulho nesta área até o final do ano.





Adicionar à: del.icio.us | Rec6 | My Yahoo 2.0
permalink | comentários (1) | trackback (0)
Link para este post:



Web semântica e compreensiva
abril 2, 2007, 2:41 PM por Fabio Seixas

A evolução humana é constante. Na web não seria diferente. Tentamos determinar marcos históricos para facilitar o entendimento do progresso. Web 1.0, 2.0, 3.0.

Para onde a web está caminhando? Dizer que o futuro é a web 3.0 é clichê, afinal 2.0 + 1 = 3.0. Mas qual será o próximo grande passo no desenvolvimento da tecnológico, cultural e comportamental da web? A comunidade internacional está apostando que é a Web Semântica.

Semântica para compreender
O conceito da web semnântica não é novo. As primeiras discussões datam do final dos anos 90. O debate tem se tornado mais atual pois hoje temos mais condições de realmente enterdemos como usar a semântica. E a Web 2.0 ajudou muito nesse entendimento.

Web Semântica é a capacidade de computadores interpretarem, entenderem e tirarem conclusões do conteúdo disponível na web.

Pegue por exemplo uma ferramenta de busca atual. Seu funcionamento básico é o mesmo das primeiras ferramentas de busca. Dê alguma dica (i.e. palavras-chaves) e o mecanismo de busca irá mostrar uma pilha de documentos que podem ou não ter a resposta para o que você procura. O quão inteligente e otimizada é a pilha de documento é tarefa da busca. Cabe ao usuário pesquisar a pilha de documentos da forma que ele desejar, dando o trabalho que der.

Um mecanismo semântico de busca iria além. Iria interpretar e compreender o que você quer descobrir. Em seguida iria pesquisar, analisar, interpretar e compreender a sua base dados (ou várias bases de dados, ou ainda "a base de dados web") e iria mostrar A resposta.

Um exemplo: Você quer fazer uma viagem de final de semana. Então você entra no Google e digita "Pousada em Búzios promoção" e ele vai te mostrar uma lista de links apontando para documentos que podem ou não ter informações sobre a pousada que você irá se hospedar mas que nem você sabe ainda qual será. Neste caso a análise e pesquisa (interpretação e compreenção) dos resultados é tarefa do ser humano. A busca semântica, através de agentes inteligentes pessoasis, já saberia que você está prestes a tirar férias, que você é casado, tem 2 filhos e um cachorro e irá efetivamente achar a pousada que você irá se hospedar. Exatamente aquela que tem eventos para as crianças, aceita animais e está dentro do seu poder de compra. Ou pelo menos, se não fosse 100% eficiente, iria mostrar algumas poucas opções de acordo com o contexto.

Ou seja, interpretação e compreenção semântica do conteúdo online.

Mas como isso seria possível? Será necessário que existam estruturas de dados e de interpretação que permitam que os computadores possam entender e interpretsar o conteúdo. Para essa tarefa, existem os metadados (i.e. dados sobre o dado).

Imagine um Digg que, ao invés de ser potencializado pelas análises e contribuições dos seres humanos, seja potencializado por agentes computacionais inteligentes que tenham a mesma capacidade de análise. Isso é web semântica.

Imagine a existência de agentes pessoais inteligentes que que vasculhem a web interpretando-a em prol de suas necessidades profissionais diárias e seus desejos pessoais. Um "Mini-Me" inteligente que nos ajude em nossas tarefas de maneira mais eficiente. Isso é web semântica.

Imagine serviços inteligentes de acompanhamento de conversações na blogosfera que podem tirar conclusões sobre tendências mercadológicas de maneira automatizada. Um Technorati semântico. Isso é web semântica.

Mudança de paradigma
A possibilidade de computadores poderem entender e interpretar o conteúdo online é uma grande mudança de paradigma, principalmente quando isso atingir o usuário main stream. Alguns analistas apostam que isso deva acontecer daqui a 6 ou 7 anos. Ainda há muito a ser desenvolvido. Mas essa é a janela de oportunidade para que surja um novo "Google", com um IPO maior e ainda mais poderoso que o atual.

2.0 x 3.0
A web 2.0 foi um movimento natural. Algo que os usuários almejavam sem saber que almejavam e que a comunidade empreendedora foi aos poucos suprindo desde 2003.

A web semântica, ou web 3.0, vem sendo almejada e planejada pela comunidade acadêmica antes mesmo da web 2.0 ter se tornado main stream. E o fato de estar sendo planejada pode dificultar muito torna-la main stream. Quando algo surge naturalmente, é melhor aceito. Quando é previamente elaborado, levamos mais tempo para assimilar.

A web 2.0 é sinônimo de conteúdo gerado pelo usuário e participação. A web 2.0 não morrerá com a web 3.0. Ela será o alimento da web 3.0. A web 3.0 nada será se não houver enormes quantidades de dados para serem analisados e interpretados.

A humanidade produziu 161 bilhões de gigabytes de novos conteúdos em 2006. Espera-se que em 2010 a gente produza nada mais, nada menos que 988 exabytes, ou seja, quase 1 zettabyte de dados em um único ano. À 50 anos atrás a humanidade não tinha produzido 1 bilhão de gigabytes em toda a sua história.

Estamos em uma época de geração massiva e exponencial de conteúdo. Já aprendemos a acessa-lo, organiza-lo e torna-lo globalmente acessível de maneira automatizada (err... Google), mas ainda precisamos aprender a como torna-la interpretável e em como efetivamente interpreta-la automaticamente.

Na web 1.0 o poder estava no gerador de conteúdo ceentralizado. Na web 2.0 o poder estava no gerador de conteúdo descentralizado (o usuário). Na web 3.0 o poder estará no interpretador automatizado do conteúdo existente. Vale notar que um poder não anula nem inimiza o anterior.

Enfim, tudo por uma web mais esperta. Quem sabe um dia a gente consiga construir uma web quântica.





Adicionar à: del.icio.us | Rec6 | My Yahoo 2.0
permalink | comentários (10) | trackback (0)
Link para este post:





    Powered by Movable Type