quarta-feira, agosto 23, 2006

Google cria serviço de hospedagem para projetos de código aberto

Por Nancy Gohring*, para o IDG Now!

Dublin - Reações da comunidade variam desde críticas ao SourceForge até apreensão quanto aos limites de licença no serviço do Google.

O Google está oferecendo espaço para hospedar projetos de desenvolvimento de software livre, em um movimento que foi recebido com reações diversas pela comunidade open source.

Como parte da nova oferta, lançada na quinta-feira (27/07), o desenvolvedor tem acesso a 100 MB (megabytes) de disco para compartilhar seu projeto de código aberto, e pode utilizar ferramentas como rastreador de observações e suporte a lista de e-mail.

De acordo com o Google, o objetivo do projeto é fomentar comunidades produtivas e saudáveis de código aberto. Para usar o serviço, é preciso ter uma conta de e-mail no Gmail. Por enquanto, o serviço não é suportado por anúncios e os desenvolvedores também não podem incluir publicidade nas suas páginas de projeto.

Além disso, os projetos inclusos na plataforma só podem ser oferecidos sob alguns tipos de licença, em um esforço do Google para encorajar a adoção padronizada de licenças fortes e populares.

Na página de dúvidas do serviço, o Google admite que sua plataforma tem algumas desvantagens em comparação com outras similares. Por exemplo, embora haja uma série de rastreadores de observações disponíveis, o Google criou um próprio, que confia em alguns poucos campos aliados à tecnologia de buscas da empresa, para simplificar o uso.

O Google sugere que se não oferecer algumas das ferramentas exigidas, os desenvolvedores podem usar recursos hospedados por outros sites, incluindo links no seu projeto para que usuários diretos acessem as outras ferramentas.

O novo serviço é similar ao oferecido pelo site de colaboração em código aberto SourceForge.net, que em maio atingiu 100 mil projetos hospedados desde sua criação.

Os comentários sobre o anúncio do Google no site de tecnologia Slashdot.org, que, junto com o SourceForge, é mantido pelo Open Source Technology Group, foram diversos. Alguns reclamavam do fraco desempenho do SourceForge e expressavam a esperança de que o serviço do Google seja melhor. Outros reclamavam da pobreza de recursos e licenças no novo serviço do Google.

Um comentário, assinado pelo gerente de engenharia do SourceForge, Ross Turk, contudo, dizia que o projeto do Google será positivo para a comunidade open source.

Embora hoje o Google não permita que os projetos do SourceForge sejam importados para o novo site de hospedagem, o SourceForge está discutindo formas de integrar melhor os dois serviços, segundo Turk. “Espero que haja uma integração muito mais substancial, à medida que a comunidade deixe claras as suas necessidades”, ele escreveu.

*Nancy Gohring é editora do IDG News Service, em Dublin.

PalmSource divulga biblioteca com softwares de código aberto

Por Sumner Lemon*, para o IDG Now!

Pequim - Biblioteca de código aberto lançada auxilia desenvolvedores a criarem aplicações móveis baseadas no banco de dados SQLite.

A PalmSource desenvolveu uma biblioteca de softwares em código aberto, designada a auxiliar desenvolvedores de aplicações móveis a criarem arquivos baseados no banco de dados SQLite.

A PalmSource, subsidiária da Japan Acess, divulgou a biblioteca, chamada de "libsqlfs", sob a Licença Geral Pública Lesser na LinuxWorld Conference e Expo, em São Francisco. A biblioteca é compatível com as especificações OMA-DM (Open Mobile Alliance – Device Management) para celular.

A biblioteca "libsqlfs" foi desenvolvida como um dispositivo de extensão do SQLite para o Access Linux Plataform. A biblioteca pode salvar e restaurar aplicações e preferências de sistemas salvas no banco de dados. Para acessar o novo serviço, acesse o site da PalmSource.

Além do anúncio do novo serviço, a PalmSouce também divulgou a aliança com Acess Developer Network, uma companhia que dá suporte ao desenvolvimento de aplicações para celulares baseadas na plataforma Linux. O grupo irá ajudar desenvolvedores do Linux e da Palm OS a produzirem mais aplicações para esta plataforma.

*Sumner Lemon é editor do IDG News Service, em Pequim.

Quais são as 10 tecnologias para 2007?

Por Redação do Computerworld

São Paulo - Gartner elege as 10 principais tecnologias para 2007. Confira.

Na abertura da XI Conferência Anual do Gartner, que aconteceu em 22/08/2006, o vice-presidente de pesquisa da consultoria, Carl Claunch, destacou os sistemas que estarão em 2007, como o EMI (Enterprise Information Management) e o aumento do esclarecimento em relação ao grid computing (portais, sistemas de mensagens instantâneas), assim como virtualização.

O analista acredita que a inovação da TI se manterá no atual ambiente econômico e que haverá ainda uma redução de produtividade em relação ao open-source, apesar de a tecnologia aparecer na lista de destaques para o próximo ano. Em evidência , portanto, estão virtualização, grid computing, service-oriented architecture (SOA) e open source, somados a outras tendências de longo prazo, como o AJAX.

“Hoje as empresas estão mais familiarizadas com grandes servidores divididos em vários outros. O que perceberemos é a integração e virtualização dessas estruturas físicas, o que facilitará o trabalho dos operadores e usuários”, destacou.

Entre os produtos com mais maturidade, o analista ressalta os de desenvolvimento, operação de sistemas e segurança. Com menos amadurecimento, estão aplicações corporativas, de fluxo de trabalho, integração de serviços e virtualização.

Em relação às tecnologias de internet, as principais, de acordo com Claunch, serão as que possuem princípios de links globalizados, descentralização e extensão. “O Google está bem porque é eficiente na coleta de idéias. Ele é capaz de identificar o quanto importante um site é”, afirma.

As 10 tecnologias destaques em 2007 para o Gartner.
1. Virtualização
2. Grid Computing
3. Service-Oriented Architecture (SOA)
4. Enterprise Information Management (EIM)
5. Open Source
6. Acesso à informação
7. Ajax
8. Mashup Composite Model
9. Computação Distribuída no Ambiente (do inglês, Pervasive Computing)
10. Coleta inteligente de dados.

Gartner traça previsões para a tecnologia na América Latina

Por Luiza Dalmazo, especial para o Computerworld.

São Paulo - Consultoria diz que será preciso aumentar a atenção com segurança e ter cautela na adoção do código aberto.

O Gartner anunciou algumas de suas expectativas para o mercado latino-americano durante a sua XI Conferência Anual. Entre as tendências para 2006 está o fato de que 80% dos esforços para demonstrar o valor da adoção de sistemas de código aberto falhará devido ao não entendimento das estratégias de adoção.

Para o ano seguinte, na América Latina, o vice-presidente e analista emérito da consultoria, Donald Feinberg, acredita que notavelmente Brasil e México vão se tornar desafiadores em desenvolvimento de aplicações de terceirização, especialmente no mercado de processos de negócios.

Ainda em 2007, as tecnologias wireless e banda larga deverão ser, segundo Feinberg, boas o suficiente para serem consideradas e requeridas na maioria das aplicações.

Finalmente, em 2008, a América Latina caminhará para o gerenciamento de operações financeiras em tempo-real, com atenção especial para a segurança. Canais eletrônicos representarão 80% do total do número de transações.

Jay Heiser, vice-presidente de pesquisa do Gartner, ressalta que as empresas não querem reduzir flexibilidade e que é por isso que será preciso atenção com a segurança dos dados. "Em todo o mundo, empresas privados e públicas aumentarão nos próximos três anos os cuidados com as informações do negócio e o nível de transparência deverá crescer bastante", afirma.

"O risco de hoje é mais significante do que o de dez anos atrás", completa Heiser. Para ele, o maior cuidado continua sendo em relação às pessoas, que representam também o maior desafio.

Também por causa dos riscos associados aos negócios é que Heiser acredita que a utilização dos conceitos de governança, principalmente Sarbanes-Oxley, deverão ser cada vez mais usados nos departamentos de TI.

Virtualização: rode vários sistemas operacionais na mesma máquina

Por Daniela Moreira, repórter do IDG Now!

São Paulo – Conheça uma tecnologia, usada por 40% das empresas nos EUA, que pode ajudar sua empresa reduzir custos e otimizar recursos de hardware.

A capacidade de rodar, em uma mesma máquina física, diferentes estações lógicas - ou virtuais - não é um conceito novo. Porém, embora sua origem remeta aos ambientes de mainframe, nos anos 60, a chamada virtualização está longe de ser uma tecnologia anacrônica.

De acordo com a IDC, ela está a caminho de se tornar uma prática “padrão” entre as mil maiores empresas do mundo, listadas no ranking Fortune 1.000. Segundo dados da Forrester Research, mais de 40% das empresas norte-americanas já abraçaram a tecnologia.

De carona na onda da consolidação de servidores, a vitualização é um conceito que começou a chamar a atenção das empresas há cerca de cinco anos. Até então, era uma prática comum entre as empresas - como ainda é, em muitos casos - utilizar servidores separados para hospedar aplicações críticas, como servidores de e-mail, bancos de dados e softwares de gestão.

O problema deste modelo é que ele aproveita mal os recursos das máquinas - em média, os servidores utilizam somente de 5% a 10% da sua capacidade, segundo estimativa da empresa de software para virtualização VMware.

Com o objetivo de reduzir os custos de administração e manutenção e centralizar o trabalho dos gerentes de tecnologia, as empresas apostaram em um novo conceito: utilizar equipamentos mais robustos, com mais recursos de processamento e espaço em disco, para hospedar as diversas aplicações da companhia, prática batizada de consolidação de servidores.

Apesar dos ganhos em administração, energia e espaço, este modelo trazia uma desvantagem fundamental em relação à infra-estrutura descentralizada: se todas as aplicações da sua empresa rodam sobre um único hardware, isso significa que se ele quebrar, tudo pára. Além disso, as aplicações de uma empresa nem sempre rodam sobre a mesma plataforma; muitas vezes exigem sistemas operacionais diferentes ou mesmo versões distintas de um mesmo sistema.

Assim, a virtualização emergiu quase como uma tecnologia irmã da consolidação, permitindo rodar paralelamente, em um mesmo servidor, diversos ambientes operacionais independentes. Há diferentes formas de emular estas estações virtuais em uma mesma estação. A maneira mais comum é a instalação de uma camada de software de virtualização - fornecido por empresas como a VMware, a XenSource e a própria Microsoft - sobre o hardware, que permite a criação das máquinas virtuais que podem rodar sistemas operacionais diferentes, como Linux, Unix ou Windows.

O software de virtualização estabelece os recursos de hardware - como processamento, memória e armazenamento - que serão designados a cada estação virtual, e permite realocar estes recursos de acordo com a demanda de cada aplicação em determinado momento da companhia. “Uma das vantagens da virtualização é que é possível aproveitar melhor os recursos da máquina. Por exemplo, um servidor de e-mail exige mais do hardware durante o dia, enquanto todos os funcionários trabalham, mas fica com a capacidade ociosa durante à noite. Esses recursos podem ser alocados para rodar relatórios em uma aplicação de banco de dados durante este período”, explica Marcel Saraiva, gerente de plataformas corporativas da Intel.

“A virtualização atende a uma necessidade das companhias por maximizar os ativos existentes, fazendo mais com o mesmo. O balanceamento de responsabilidades e de uso reduz a necessidade de compra e elimina o custo de ociosidade. É uma tecnologia que tem grande apelo, pois traz resultados claros para a área financeira”, enfatiza Daniel Domeneghetti, sócio-fundador da E-Consulting e CEO da DOM Strategy.

Outra vantagem da virtualização é que é possível manter estações virtuais rodando aplicações redundantes, permitindo que, no caso de falha em um ambiente, o outro seja utilizado como recurso de contingência. Com a ajuda dos softwares apropriados, é possível ainda mover estações virtuais para hardwares diferentes, em caso de um problema físico, evitando assim a perda de produtividade.

De acordo com dados da VMware, a virtualização, combinada à consolidação de servidores, reduz em até 53% os custos com hardware e 79% os custos operacionais, gerando uma economia média de até 64% para a empresa que adota a solução.

Esta redução de custos faz com que a tecnologia tenha apelo especialmente junto a pequenas e médias empresas. “No Brasil, ainda está restrito às grandes companhias, mas a tendência é que se popularize na medida em que a arquitetura blade ganhe mais espaço”, opina o analista da IDC Brasil, Reinaldo Roveri.

Para Saraiva, da Intel, um fator que deve fomentar a adoção da virtualização nas empresas é a evolução dos processadores com múltiplos núcleos - a companhia prepara chips de quatro núcleos para lançar no mercado ainda em 2006 e a rival AMD promete sua linha quadri-core para 2007.

De acordo com projeções da IDC, as iniciativas de consolidação e virtualização de servidores vão contribuir para um aumento de 20% ano-a-ano nas vendas de sistemas quadriprocessados (com quatro chips) no segundo semestre de 2006.

Do ponto de vista de software, a Forrester Research prevê que os desafios iniciais na obtenção de suporte para plataformas virtuais e modelos de licenciamento que se adaptem à tecnologia se tornem coisa do passado, diante da rápida adoção da tecnologia.

Um exemplo desta flexibilização é o recente anúncio de uma improvável parceira entre a Microsoft e a fornecedora de virtualização XenSource, que fará com que a nova versão versão do sistema operacional Windows Server e sua tecnologia de virtualização suportem a emulação de estações rodando sistemas operacionais Linux e Unix, por meio de ferramentas da Xen. Ao que tudo indica, os ventos da indústria de tecnologia sopram a favor da virtualização.

Wikis podem aposentar conceito de intranet nas empresas

Por Daniela Moreira, repórter do IDG Now!

São Paulo - Conheça o wiki, ferramenta colaborativa popularizada pela Wikipedia, que leva a Web 2.0 para dentro das empresas.

Por trás da badalada Wikipedia, enciclopédia livre que conquistou milhões de leitores e ganhou o status de “tão confiável quanto a Britânica”, se esconde uma tecnologia que começa a ganhar adeptos no mundo corporativo: os softwares de wiki. Entre eles, destacam-se pesos-pesados como a IBM, que aposta na ferramenta para facilitar a colaboração a avançar em projetos de uma das suas áreas mais estratégicas: a de inovação.

Para definir o que fazem os wikis, ninguém melhor do que ela, a própria Wikipedia: “software colaborativo que permite a edição coletiva dos documentos usando um singelo sistema e sem que o conteúdo tenha que ser revisto antes da sua publicação”.

O conceito é realmente simples - textos publicados na web que podem ser modificados por qualquer usuário, via browser, sem a necessidade de autorização prévia, aliados a um sistema que registra todas as alterações e as exibe, de forma transparente, tornando a construção do conhecimento muito mais fluída.

As aplicações são as mais diversas. Na web, é possível encontrar desde guias de viagem e sites de notícias até verdadeiros manuais de tecnologia, abordando temas como Mac, Linux e Java, todos construídos colaborativamente. Dentro das empresas, as possibilidades também são infinitas. “É possível desenvolver produtos, elaborar propostas comercias de forma cooperada, criar um wiki que ajude a definir as melhores formas de atender um cliente ou estabelecer políticas de recursos humanos, por exemplo”, explora Sérgio Lozinsky, líder em estratégia corporativa para América Latina da IBM Global Business Services.

Os wikis são um dos elementos da chamada Web 2.0, de forma bastante geral, baseia-se em um novo paradigma de produção de conteúdo, que parte dos usuários para os próprios usuários - sites de compartilhamento de vídeos (como o YouTube), de fotos (Flickr), bookmarks (Del.icio.us), blogs e redes sociais atestam a crescente popularidade do modelo.

No mundo corporativo, a aplicação deste modelo pressupõe não mais uma comunicação hierarquizada, que parte da cúpula para a base, mas uma construção difusa das idéias dentro da empresa. Em outras palavras, sai de cena a intranet e entram os wikis.

No Brasil, este é um modelo ainda não muito difundido entre as empresas. “Sabemos de algumas experiências, mas ainda está muito restrito a empresas da área de Tecnologia da Informação. No futuro, esta tecnologia poderá ser usada por empresas da área farmacêutica, para criar um novo remédio, por exemplo. Pensando além, podem ser criados wikis que extrapolam o ambiente interno e se estendem à cadeia de parceiros das empresas”, especula o executivo da IBM.

O conceito é novo, mas não totalmente inexplorado em terra tupiniquim. O Peabirus, plataforma para criação de redes orgânicas (que, em uma comparação simplista, funcionam como as redes sociais, cujo principal expoente no Brasil é Orkut) que reúnem diferentes elos de cadeias produtivas - empresas, pesquisadores, entidades setoriais, entre outros -, estréia nesta semana um wiki voltado a apresentar os projetos que estão sendo criados e discutidos dentro do ambiente.

“O Wikirus será aberto à visitação pública, mas só poderá ser editado pelos próprios participantes do Peabirus, que hoje são mais de mil, em diferentes cadeias produtivas”, explica Rodrigo Mesquita, diretor da empresa Raduim Systems, criadora da plataforma. “Além disso, teremos o Educarus, que será um wiki voltado, inicialmente, à definição das políticas de conduta dentro do Peabirus”, acrescenta.

Mas como toda boa idéia, o wiki pode se tornar um complicador dentro da empresa, em vez de um facilitador, se não for adotado da forma correta, observando-se alguns cuidados. Lozinsky, que participa de um wiki com mais de mil membros (em apenas dois meses de vida) dá algumas dicas para o sucesso de um wiki corporativo:

1. Massa crítica
Muitos wikis nascem dentro da própria organização, em um pequeno grupo, e vão ganhando a adesão de outros membros da empresa, o que facilita a criação da cultura. Mas quando a empresa opta por criar um wiki, é preciso um esforço para gerar massa crítica - ou seja, fazer com que de fato as pessoas participem da sua elaboração. “Não bastam três pessoas para fazer um wiki, é preciso reunir diversos talentos para que ele faça sentido. Além disso, cada colaborador vai ter que ter algo a doar e algo a receber daquele wiki, senão não voltará lá”, opina o executivo da IBM.

2. Cultura
Tentar impor a criação de wikis dentro de uma companhia vai totalmente de encontro à própria proposta da livre colaboração, portanto, antes de tudo, é preciso observar se a empresa possui uma cultura colaborativa. A solução e pode estar na criação de campanhas incentivo e divulgação para que as pessoas experimentem e, se sentirem à vontade, adotem a prática.

3. Atualização
O wiki é um texto vivo, e para que continue fazendo sentido, tem que estar em constante atualização. “Se você entrar em um wiki de manhã e voltar à noite, sem notar nenhuma diferença, ele está fadado a morrer”, vaticina Lozinsky.

4. Administração
Embora pressuponha a liberdade de intervenção geral e sem hierarquia, todo wiki tem pelo menos um administrador, responsável pela moderação daquele ambiente. Como na Wikipedia, os administradores removem eventuais incorreções e vandalismos. É necessário também que este gestor esteja envolvido com a área de TI, que garantirá a segurança e a infra-estrutura do projeto.

5. Investimento
Uma das vantagens dos projetos de wiki é que eles não exigem um investimento inicial alto. Estão disponíveis para download softwares gratuitos que permitem implementar o sistema sem grandes despesas. Os custos, alerta Lozinsky, poderão vir no futuro, associados à governança destes wikis, caso eles venham a vingar, exigindo recursos humanos responsáveis por questões como ética e segurança, entre outros.

Softwares gratuitos que podem ser usados para criação de wikis:

MediaWiki

MoinMoin Wiki Engine

Twiki