segunda-feira, 23 de novembro de 2009

Contato


terça-feira, 27 de outubro de 2009

Convertendo arquivos de media com o Mobile Media Converter (MMC).


Como converter arquivos de media diretamente pela linha de comando pode ser complicado, dado o tamanho do comando e sua sintaxe é sempre útil um frontend que faça o trabalho pesado. Ontem estava precisando converter uns vídeos para colocar em um site de um cliente e me deparei com o MMC (nada que lembre as aulas de matemática do 1º grau). É um programa de operação bem simples e prática.
Leia Mais...
Pode-se baixar o programa nos links abaixo:

http://www.miksoft.net/mobileMediaConverterDown.htm ou no Baixaqui, será baixado um pacote .deb que no ubuntu bastará clicar sobre ele e a instalação será feita de forma indolor e o lançador aparecerá no menu Aplicações ==> Som e Vídeo.

A operação é bastante simples. surgirá a tela de abertura que permite a escolha do formato de saída a pasta destino e a qualidade. A adição do arquivo a ser convertido pode ser feita acionando-se o botão de adição e navegando-se pelas pastas, ou abrindo-se a pasta onde se encontram e arrastando-se para a janela do programa. É tudo muito intuitivo e a gama de formatos é bem grande, podendo-se inclusive extrair audio de arquivos de vídeo.

segunda-feira, 26 de outubro de 2009

Um módulo de pesquisa simples e rápido


No outro dia estava tendo pproblemas com o módulo de pesquisas do Joomla. O botão de pesquisas teimava em ficar abaixo da caixa de entrada. Quando finalmente consegui alinhar o resultado da pesquisa saia bagunçado. Pesquisando descobri um módulo da Roket Themes bem pático e funcional, o RokAjaxSearch, que é registrado sob GPL. Basta digitar o texto e pronto ele localisa e gera um drop down com os resultados. O módulo não tinha, pelo menos eu não achei tradução para o português brasileiro, sendo assim traduzi. São apenas poucas palavras mas me empolguei pra fazer traduções maiores. O arquivo se encontrra no link abaixo pra quem quiser baixar. Depois de instalado o módulo basta salvar o arquivo de tradução na pasta /language/pt-BR do servidor onde o Joomla está instalado e funcionará automaticamente.
http://www.l3cinformatica.net/blog/mod_rokajaxsearch/pt-BR.mod_rokajaxsearch.ini

quinta-feira, 22 de outubro de 2009

Retomando o Blog

Por conta de politicagens internas, que não vou perder meu tempo relatando, boa parte do meu setor foi dispensado do DATASUS e por conta disso levei um tempo para me adaptar a nova realidade. Como sempre trabalhei como autônomo remontei a oficina de manutenção e continuo meu trabalho de webdesigner. Neste particular estou trabalhando em parceria com a Claudenize, uma grande amiga que fiz no DATASUS e que também foi dispensada. Estamos com dois projetos em comum. O primeiro uma empresa que dá cursos de esportes para escolas e condomínios e ao segundo uma escola infantil. Estes trabalhos, sem dúvida, possibilitarão alguns posts sobre tradução de extensões do Joomla e customização de templates. Por hoje é só, foi apenas pra retomar o trabalho.

quinta-feira, 30 de julho de 2009

Toshiba Satellite 305 CDS, um velho guerreiro.



Há alguns anos O Marco e a Fátima, um casal de amigos resolveu trocar o notebook, iam aposentar o velho pentium 166 Toshiba Satellite 305CDS e perguntaram se eu queria ficar com ele. Aceitei na hora, primeiro porque estava sem notebook e segundo porque sempre gostei de usar máquina velha com Linux. Passamos algumas histórias interessantes juntos e hoje ele está de férias, prolongadas, é verdade, aguardado o chamado para ser útil de novo.
Leia Mais...
Originalmente tinha 16mb de memória RAM e rodava Windows 98. como queria dar um destino mais nobre a ele coloquei-o debaixo do braço e fui pro Edifício Avenida Central garimpar memória EDO, Consegui um pente de 32MB e o bichinho ficou com poderosos 48 MB. Testei algumas distribuições Linux para coclocar nele, comecei por Debian, que é minha preferida, mas ficou bem mais rápido com Slackware, Depois acabei voltando pro Debian, pela praticidade. Um problema surgiu, placa de rede, ele só aceitava as de 16bits e não consegui encontrar. Recorri a outro amigo o Leandro que me emprestou uma, para eu poder usar o computador. Algum tempo depois vi anunciada uma placa da 3com de 16 bits numa loja da Barra, se não me falha a memória foi o próprio Leandro que me falou dela. Fui lá comprar e ao chegar o vendedor me deu a placa e foi chamar o “técnico” veio o rapaz com sua pilha de CDs de drivers, eu já com o catão PCMCIA espetado e procurando um ponto de rede para plugar o cabo perguntei “A rede aqui tem servidor de DHCP?” a resposta veio ligeira “Sei não é aquela que configura automático” pluguei o cabo e o cara falou toma o cd do driver, quando viu o Firefox já rodando com a página aberta, ficou sem entender e como eu estava com muita pressa não deu tempo de explicar o que era servidor de DHCP, nem sistema operacional.
Foi nessa época que me mudei pro Nordeste e levei junto meu Notebook. Certo, lembra mais a versão completa do Aurélio, mas é notebook e dos bons. Chegando lá estava prestando serviso para uma empresa que configurava roteadores para a Telemar. O resto da equipe também usava notebooks velhos, não tanto quanto o meu mas já com certa idade, todos com Windows98 acessando os roteadores pelo Hyper Terminal. Quando viram eu executando o Slack em modo texto, chamando o Minicom e acessando o roteador ficaram doidos, mas ai alguem falou “é mas se tu queser ouvir uma musiquinha enquanto trabalha não dá né?” Alt F3 mp3Blaster /home/luiz/músicas e pronto voltei pro terminal 2 e continuei trabalhando. Depois configurei teclas de atalho dos principais comandos no Minicom e ficou show de bola.

quarta-feira, 29 de julho de 2009

Shutter – Um eficiente capturador de tela com interface gráfica


No outro dia postei uma matéria sobre o Scrot, um programa para capturar telas chamado por comando em um terminal ou no executor de conmandos (F2). O Shutter tem a mesma função só que funciona através de uma GUI sendo um programa bastante poderoso.
Leia Mais...

As capturas de tela


Logo que carregamos o Shutter será apresentada a janela principal do programa, na qual é possível escolher o tipo de captura que se deseja, Tela inteira, janela seleção, como o mínimo para um bom programa da categoria e o diferencial que merece um pouco mais de detalhamento.
Na barra de ferramentas ao lado do ícone seleção existe um botão que permite escolher sub opções, de seleção simples, onde simplesmente arrasta-se o mouse e ao final a captura está pronta. Neste caso pode -se ainda optar pela presença de uma janela de zoom. N opção seleção avançada arrasta-se o mouse e o setor da tela fica iluminado. Ele pode ser movido ou redimensionado e a captura só ocorrerá quando for pressionada a tecla Enter.
Na captura de tela inteira é possível escolher qual o desktop que será capturado. Por exemplo estamos na primeira área de trabalho e queremos capturar a terceira. Selecionamos a opção desejada e o programa girará até o desktop3 e voltara para 1 com a tela capturada.
Na captura de janela é possível escolher pelo dropdown entre as janelas abertas o que é bem prático. Além disso existem dois outros botões que são fantásticos o de seção que seleciona automaticamente uma seção da janela, conteúdo menu, barra de ferramentas etc.. E o botão Web que abrirá uma caixa de diálogo onde será colocada a URL e será capturada ima imagem da página, que inclui a área que ficaria embaixo e seria necessário rolar a tela para vê-la.
Ainda na barra de ferramentas existem mais dois botões um para edição da imagem, que será comentado abaixo e outro para fazer upload da imagem para sites de hospedagem pública, servidores de FTP ou algum local do computador. Falta, no entanto a possibilidade de salvar na rede local.

O principal defeito está pela falta de um acesso rápido a opção de retardo na captura, que fica no submenu Preferências no Menu editar. Mas existe uma compensação, neste submenu é possível configurar parâmetros como aplicativo para abrir a imagem e edita-la, formato e qualidade da imagem, pasta destino, nome do arquivo, teclas de atalho, etc..
O menu Captura de Tela, que também é acessível pelo botão direito do mouse, além de dar acesso a funcionalidades já abordadas como fazer upload de imagens, permite iniciar plugins que aplicam efeitos como distorções, bordas, papel rasgado, etc..

Ferramenta de edição básica da captura


Outra vantagem do aplicativo é a janela de edição. Chamada por um ícone na barra de ferramentas surge uma janela com a captura atual onde pode-se fazer edições simples mas muito úteis como, colocar notas explicativas quadrados e elipses, linhas e setas e inserir outras imagens. Apesar de ser bem simples é muito prática particularmente para documentar aplicativos.
Na figura foi usada a captura de seção e aplicado os plugins papel rasgado e polaroid.

Considerações finais


Quando comparada ao Scrot o Shutter consome mais recursos e perde um pouco em praticidade, mas isto é compensado em recursos, particularmente o de captura da web, eu particularmente uso os dois dependendo da situação.
Guia de instalação
Site do projeto

terça-feira, 28 de julho de 2009

Organizando Terminais como Terminator


O Terminator é um aplicativo que permite organizar várias seções de terminais em uma janela, o que para um administrador de sistemas pode ser muito útil e com as telas cada vez maiores, muito prático. Quando acionamos o programa abre-se umas janela de terminal comum, que poderá ser dividida, resultando em diferentes terminais na mesma janela. Na figura temos a janela dividida em três partes, a superior esquerda com o vim editando um script, logo abaixo o Links2 navegando no Blog e à direita o Mp3blaster, um tocador de mp3 em modo texto.
Leia Mais...
Uma característica interessante é que ele pega as configurações do Gnome terminal. Por exemplo, eu normalmente configuro o terminal com letra branca em fundo preto, com fonte monospace 14. ao abrirmos o teminator ele assume esta configuração. No, entanto se configurarmos diretamente no Terminator ela sobreporá as configurações do Gnome-terminal. Ao locar-se o botão esquerdo aparece um menu auto explicativo que permite dividir a tela.

segunda-feira, 27 de julho de 2009

Dica Tweak – facilitando a configuração do Ubuntu


Apesar de ser uma das distribuições mais amigáveis o Ubuntu ainda existem várias configurações escondidas. Por exemplo configurar um atalho de teclado para executar um aplicativo no Gnome pode requerer alguma pesquisa no google. Com o Tweak este problema fica minimizado. Ele auxilia na configuração de atalhos, associação de arquivos à programas, programas a serem rodados na inicialização. Isso só para citar alguns exemplos. Para muitas das funções do Tweak existem outras ferramentas que realizem a mesma tarefa, mas ele concentra várias possibilidades de configuração em uma única e amigável interface. O presente artigo mostra algumas delas.
Leia Mais...
Para instalar você pode baixar o pacote e instala-lo diretamente ou acrescentar as linhas referentes a sua versão do Ubuntu no souces.list, o que tem a vantagem de facilitar as atualizações. maiores informações no site do projeto aqui.
A barra lateral à esquerda mostra as principais categorias que podem ser editadas. A categoria computador traz informações como o nome do host, distribuição, shell utilizado entre outras.
Na Categoria aplicativos é possível instalar aplicativos populares que não vem instalados por padrão no Ubuntu, com destaque par os de multimídia, alem de uma vasta lista de programas de terceiros. Pode-se também editar manualmente o arquivo sources.list (arquivo que lista os repositórios de aplicação). Existe ainda a possibilidade de limpeza do disco com a remoção de arquivos que não sejam mais necessários, limpesa do cache e de arquivos de configuração de programas desinstalados.
A categoria seguinte, Inicialização, permite ativar um espalha de inicialização do Gnome e selecionar os aplicativos que serão abertos, automaticamente,no início da seção.
Chega-se então à categoria Área de Trabalho. Nela podemos configurar se queiramos ou não os ícones Computador e, Lixeira e Pasta pessoal na érea de trabalho e exite ainda uma opção de configurar a Pasta Pessoal como área de trabalho. Particualrmete acho aúltima opção desaconsselável, pois o ambiente de trabalho fica confuso com uma quantidade grande de arquivos creio que a Área de trabalho deve realmente servir como tal, mostrando apenas o que é muito usado e os projetos em que se está trabalhando mo memento, sendo necessárias limpezas periódicas. Existem ainda nesta categoria opções de configuração das janelas, do Compiz Fusion e do Gnome, sendo todas auto explicativas.

A categoria Pessoal é Bastante interessante. Nela podemos modificar as pastas padrão do sistema, por exemplo onde ficam as imagens os Vídeos, etc. Na seção seguinte, pode-se gerenciar modelos de documentos simplesmente arrastando-os para dentro da janela. Mas o mais interessante é a seção atalhos, onde podemos criar atalhos de teclado para diferentes funções. Para tal basta clicar na coluna comando colar o comando desejado e na coluna teclas, quando o programa enviara uma caixa de alerta pedindo para que se pressione a combinação de teclas desejadas. Eu criei alguns comandos personalizados para o Scrot, é também uma boa forma de atribuir funções à tecla Super (a que tem a logo do Windows), combinando-a com outras para abrir programas que amis usa. Existe ainda uma seção para gerenciar os scripts do Nautilus, que são bastante úteis e serão objeto de um post futuro.

A ultima categoria é a do sistema nela é possível editar as associações entre arquivos e programas. Por exemplo no caso de vídeo normalmente o programa padrão é o Totem, mas muitos preferem outros como o VLC ou Mplayer para alterar basta selecionar o item, clicar no botão Editar, no canto superior direito, surgirá uma jenela com as opções possíveis de aplicativos para abrir o tipo de arquivo, seleciona-se uma e pronto. Na seção Nautilus é possível alterar algumas opções como: Habilitar extensões, mostrar opções avançadas. Existem ainda seções que permitem gerenciar energia e alguns parâmetros de segurança.

sexta-feira, 24 de julho de 2009

Matéria em movimento e constante evolução Da bactéria à baleia azul. Das árvores ao espaço

Matéria originalmete publicada em A Nova Democracia

O desenvolvimento do capitalismo e o aumento da dominação da Europa sobre o mundo teve consequências importantes sobre o desenvolvimento da biologia no século XIX. Existiam agora nos museus coleções de animais e plantas realmente de alcance mundial, o número de espécies conhecidas era tão grande e crescia em uma velocidade tão rápida, que um casal de cada uma delas não mais caberia em uma arca durante um dilúvio.
Já se tinha a idéia da existência de ordem na natureza e o sistema de nomenclatura de Lineu é prova disso. No entanto, o que se tentava até então era entender a ordenação do plano de criação divina. Demonstrar que a diversidade de espécies com suas semelhanças e diferenças é fruto do movimento da matéria, ou seja, de causas naturais, era questão de tempo.

Leia Mais...


Darwin e Wallace




Alfred Russel Wallace foi o oitavo de nove filhos. Trabalhou como aprendiz de construção e professor, tornando-se posteriormente coletor profissional de espécies. Nunca deixou de estudar por conta própria. Em 1848, junto com outro naturalista, Henry Walter Bates, realiza importante expedição à bacia amazônica, coletando cerca de 1300 espécies de insetos nos primeiros dois meses. Mesmo depois de um incêndio em seu barco ter destruído grande parte da coleção, escreveu Viagens pelos rios Amazonas e Negro. De 1854 a 1862 viajou pelo arquipélago malaio, observou que existiam duas faunas distintas na zona estreita do arquipélago, formando uma espécie de fronteira zoogeográfica, hoje conheci da como Linha de Wallace, uma descoberta importante no estudo da distribuição e evolução dos seres vivos.
Charles Darwin era o quinto de seis filhos de um médico de família abastada da Inglaterra, nascido em 1809. Estudou medicina em Edimburgo, mas se interessou mesmo pelas sociedades estudantis para naturalistas. Dado seu desinteresse por medicina, seu pai o matriculou na Universidade de Cambridge, em um bacharelado em artes. A idéia era que se tornasse clérigo, dado o fato de muitos deles serem naturalistas, pois "explorar as maravilhas da criação de Deus" era uma de suas atribuições.
Por recomendação de um amigo embarca como naturalista, em uma expedição prevista para dois anos mas que dura quase cinco, acompanhando o capitão Robert Fitz Roy, no Beagle. A viagem do Beagle trouxe notoriedade a Darwin. Ocupou o cargo de Secretário na Geological Society e foi eleito membro da Royal Society, duas importantes sociedades científicas inglesas. Esta notoriedade foi na verdade o grande obstáculo para a publicação de suas idéias. Ele sabia que seria taxado de herege pela igreja e sofreria grande resistência no meio científico. Quem tem muito a perder teme as mudanças.
Por outro lado, sabia que seria questão de tempo até que alguém publicasse uma teoria evolutiva que fosse convincente. Continuou trabalhando em segredo. Estudou animais domésticos, cracas, vegetais, e foi elaborando sua teoria.
Wallace, por outro lado não tinha muito a perder, era respeitado, mas não tinha a notoriedade de Darwin, não tinha fortuna nem "um nome a zelar". Durante sua extensa expedição na Malásia (1854-1862) formulou o princípio da seleção natural, embora não tenha usado este nome, e outras importantes descobertas, como a própria linha de Wallace. Wallace havia publicado em 1855 um artigo intitulado Sobre a Tendência de as Variedades Divergirem Indefinidamente do Tipo Original (On the Tendency of Varieties to Depart Indefinitely From the Original Type). Após esta publicação, continua buscando compreender o mecanismo da evolução. Muito doente de malária, na ilha de Giolo, Indonésia, formulou o princípio da seleção natural. Em 9 de março de 1858, enviou um artigo e uma carta de apresentação a Darwin, expondo sua descoberta. Acredita-se que esta carta tenha chegado à mansão de Darwin por volta de três ou quatro de junho de 1958.
Dois cientistas, Lyell e Hooker, convencidos de que seu amigo Darwin deveria receber o reconhecimento de prioridade, decidem que o trabalho de Wallace deveria ser apresentado juntamente com um excerto de um ensaio de Darwin, sobre a seleção natural. Se encarregaram ainda de escrever notas introdutórias enfatizando que a descoberta era de Darwin. O artigo de Wallace, que nem sequer foi consultado, foi apresentado por último.
Os textos se concentram na seleção natural e na divergência das espécies, e não nos argumentos gerais para a evolução. Um ano depois, fim de novembro de 1859, é publicado o livro de Darwin, A Origem das Espécies.

A Teoria e suas implicações

A seleção natural, como formulada por Darwin, em poucas palavras se resume na "competição e sobrevivência do mais apto" o que nos leva a um raciocínio circular, assim:

  • Quem sobrevive?

    • Os mais aptos.

  • Quem são os mais aptos?

    • Os que sobrevivem.



Ou seja, os que sobrevivem são os mais aptos e os mais aptos são os que sobrevivem em progressão ao infinito. Na época da publicação da teoria, a genética dava seus primeiros passos com Mendel, cujo trabalho Darwin conhecia. Ocorre que a abordagem de Mendel procurava explicar a constância dentro das espécies. Em outras palavras, que as variações eram produto de "fatores constantes dentro de cada espécie". Enquanto a de Darwin e Wallace era focada na diversificação.
Perceberam um fato importante: as espécies evoluem ao longo do tempo, uma se transforma em outra, elas interagem entre si. No entanto, faltava uma questão fundamental. Qual é a "matéria-prima" sobre a qual a seleção natural age? Justamente não conseguiram relacionar suas descobertas com as de Mendel. O que só foi feito mais tarde, já no século XX pelos chamados neo-darwinistas.
Basicamente um indivíduo mais saudável, ou mais atraente teria mais facilidade de se reproduzir e passar seus genes para a geração seguinte. Um exemplo de laboratório pode ilustrar isso.

  1. Em um ambiente fechado foi cultivada uma colônia de moscas da fruta, eram colocados potes com pasta de banana e outros com pasta de peixe. A grande maioria das moscas colocava seus ovos na banana.
  2. Passou-se a eliminar os potes com banana, tão logo surgissem larvas.

  3. Ou seja simulou-se uma situação onde comer banana fosse letal para as larvas. Sendo assim as moscas que colocassem seus ovos no peixe seriam as únicas com possibilidades de sobreviver.

  4. Ainda assim a grande maioria das moscas nascidas no peixe colocavam seus ovos na banana, mas a percentagem caía de geração em geração.

  5. Após algumas gerações a grande maioria das moscas colocava seus ovos no peixe.


O que o experimento procura demonstrar é que as espécies possuem uma gama de possibilidades em seu patrimônio genético e que modificações ambientais podem "selecionar" algumas delas.
O papel histórico de Darwin, Wallace e seus sucessores tem sido o de demonstrar que a infinidade de espécies existentes ou extintas são fruto do movimento universal da matéria, evoluem em um processo constante e não são fruto de nenhum plano ou da obra de nenhum criador. Os seres vivos tem possibilidades múltiplas, que dependendo das condições do meio ambiente em que vivem podem evoluir em diferentes direções.
Com este conhecimento o homem foi capaz de desenvolver em um ritmo acelerado algo que já fazia a muito tempo, transformar e manipular as espécies. O melhoramento genético, a clonagem e a transgenia são exemplos disso. Óbvio que sob jugo do capital em sua fase superior, o imperialismo, estes avanços são monopolizados e conduzidos em função do lucro e da dominação, não importando as consequências. Mas mesmo assim são corroborações inquestionáveis da teoria da evolução.
Outro passo importantíssimo está prestes a ser dado. Cientistas conseguiram sintetizar artificialmente o genoma de uma bactéria e reproduzi-lo em outras num passo decisivo para a criação da vida artificial. Mais uma vez, cabe a ressalva: a quem esse conhecimento pode servir sob o imperialismo? Porém, criar vida artificial é "roubar" mais uma atribuição do pretenso criador.
Seria esse então o fim cabal e definitivo do criacionismo? De forma alguma! O que sustenta o criacionismo, há muito tempo, não são os fatos, mas a superestrutura. É notório que muitas das descobertas e avanços aqui citados foram dadas em laboratórios no USA, que hoje ensina o criacionismo em suas escolas.

Antes de Adão

Se admitir que espécies são capazes de evoluir e se transformar sem interferência externa, já era considerado uma heresia, afirmar que "a imagem e semelhança do criador" era simplesmente um primata que desceu das árvores e aprendeu a falar era inaceitável. Até hoje esta é a consequência da teoria da evolução que gera maior polêmica. Argumenta-se que não existem formas de transição entre os macacos atuais e o homem, ou ainda, que nem mesmo no registro fóssil existe um pretenso "elo perdido" entre símios e humanos.
Os seres humanos e alguns macacos atuais, como chimpanzés e gorilas tem ancestrais comuns, mas não descendem diretamente deles. Portanto, esperar encontrar espécies transitórias entre eles seria absurdo. Por outro lado, quando se fala em registro fóssil, não se trata de história amplamente documentada, mas de evidências relativamente raras e fragmentárias. É possível estabelecer que duas espécies tenham um ancestral comum, mas não que uma seja ancestral da outra. Quando a população de uma espécie se divide, as diferenças se acumulam lentamente, sendo difícil acompanhar, na natureza, esta transformação. Consegue-se ver seus resultados e a partir deles inferir o processo.
No que diz respeito à espécie humana, no entanto existe outra discussão de suma importância. O que permitiu ao homem descer das árvores, ocupar todos os rincões do planeta e chegar ao espaço em um tempo relativamente curto? Qual foi o diferencial que permitiu a esta espécie dominar o planeta, manipular a evolução e a natureza?
A resposta a esta pergunta foi dada ainda no século XIX, por Friedrich Engels, em Humanização do macaco pelo trabalho.

“O trabalho é a fonte de toda a riqueza, afirmam os economistas. E o é, de fato, ao lado da natureza, que lhe fornece a matéria-prima por ele transformada em riqueza. Mas é infinitamente mais do que isso. É a condição fundamental de toda a vida humana; e o é num grau tão elevado que num certo sentido, pode-se dizer: o trabalho, por si mesmo, criou o homem. (o grifo é nosso).”

Um passo decisivo na evolução do homem foi o andar bípede (ereto). Os macacos antropóides atuais, chimpanzés, gorilas, etc., podem andar em posição bípede, mas normalmente andam apoiando-se nas quatro patas. Este fato indica que a possibilidade de andar sobre as duas patas traseiras estava presente no ancestral comum a estas espécies. Da mesma forma que a divisão de trabalho entre os pés e as mãos. Enquanto os pés são usados principalmente para fixação nas árvores as mãos servem primordialmente para colher frutos, capturar pequenos animais, construir ninhos, etc. Mas, em comparação com as mãos humanas, as mãos símias podem ser consideradas toscas, apesar de a disposição de ossos e músculos serem as mesmas o desenvolvimento destes é bastante distinto, tendo as mãos humanas a possibilidade de realizar um número de movimentos infinitamente maior. Isto e um desenvolvimento estupendo do cérebro foram se influenciando mutuamente.
Pequenas modificações nas mãos, que permitissem maior precisão no arremesso, ou uma manipulação durante a marcha tornariam mais interessante a marcha bípede e um indivíduo que conseguisse andar sobre duas patas com maior eficiência levaria maior vantagem na caça e consequentemente na alimentação e reprodução, tendendo a passar seus genes às gerações seguintes, com uma tendência a sua fixação. O desenvolvimento do cérebro é amplamente influenciado por estes fatos. A possibilidade (proporcionada pelo cérebro) de perceber que se pode quebrar um pedaço de pedra de forma a transformá-lo em uma arma mais eficiente, junto com a possibilidade (proporcionada pela mão) de executar isto, transformando em tecnologia, aliados a uma possibilidade de se deslocar de maneira mais eficiente (posição ereta) para o uso desta tecnologia, permitiram um grande salto na separação do homem dos outros animais.
O aumento na quantidade de carne na alimentação1 também foi decisivo para o desenvolvimento da espécie, tanto pelos problemas que a caça e, depois, a criação ofereceram para serem resolvidos, quanto pela quantidade de aminoácidos e energia oferecidas de forma concentrada.
Os primatas essencialmente são seres sociáveis, o aumento da eficiência do trabalho aproximava cada vez mais os membros da sociedade. Uma questão é fundamental para desenvolver mais estas relações e aumentar ainda mais a eficiência do trabalho: a comunicação. Um grupo que se comunicasse melhor entre si poderia planejar melhor a caçada, dividir melhor o trabalho, transmitir melhor suas experiências. O desenvolvimento da fala articulada era uma necessidade para nossos ancestrais continuarem seu desenvolvimento. Portanto, modificações na laringe que possibilitassem um aumento na quantidade de sons que pudessem ser emitidos seria vantajosa e fixada ao longo do tempo.
Assim, passo a passo, a horda de primatas arborícolas foi se transformando na sociedade humana que conhecemos.

quinta-feira, 23 de julho de 2009

Dica – capturando tela com o Scrot.


No dia a dia sempre precisamos capturar telas do computador, seja para montar uma apresentação, mandar para algum site ou qualquer outro motivo. Desde os primórdios da informática existe a tela “Print Screen” para esse fim. Me lembro que o teclado meu primeiro PC um “poderoso 286” já vinha com uma delas e bastava aperta-la que o screenshot estava pronto. Com o tempo forma surgindo programas sofisticados com interface gráfica que permitem fazer capturas de uma janela, normalmente com atalho em Alt+Print Screen é possível ainda capturar apenas um pedaço da janela ou ainda escolher a janela e o programa esperar algum tempo antes de captura-la, o que dá tempo de executar uma ação, como abrir um menu, por exemplo.
O problema destes programas é que são pouco práticos, exigindo que naveguemos por várias janelas antes de ter nosso objetivo concluído. É ai que entra o scrot um programa em linha de comando muito prático e fácil de usar que permite inclusive a captura de tela e sua imediata visualização e edição no programa de escolha.
Leia Mais...
A instalação não apresenta maiores dificuldades, está presente na maioria das distribuições, para quem usa Debian ou derivadas “#apt-get --install scrot”.
Sua utilização é bastante simples pode ser chamado de um terminal ou pelo executor de aplicativos (chamando F2). Existem várias possibilidades vamos nos deter a algumas.
Para capturar a tela inteira
O comando é simplesmente scrot. O arquivo será salvo na pasta home do usuário e seu nome será algo assim 2009-07-23-114905_1280x1024_scrot.png, ou seja data_hora_tamanho_scrot.png.
Variando o nome da imagem e o formato: scrot nome_que_escolhi.jpg
variando o local scrot ~/imagens/screenshots/nome_que_escolhi.png
Capturando uma janela ou seção retangular da tela
O comando é scrot -s, existem aqui duas opções: primeira clicar dentro da janela desejada que será capturada ou clicar e manter o botão pressionado arrastando o mouse e fazendo a seleção desejada. As variações de nome, formato, diretório para salvar também valem aqui.
Capturando a tela com um tempo de espera (deley)
Esta opção é muito útil para capturar janelas com menus e submenus abertos, podendo ser usada em conjunto com a opção -s. Concite em acrescentar a opção -d seguida pelo número de segundos. Exemplo scrot -s -d5 janela.png, captura com um retardo de 5 segundos.
Capturando a tela e editando imediatamente a imagem
Esta é uma das opções mais interessantes do scrot, pertmite que a imagem capturada seja imediatamente aberta por outro aplicativo, para visualização ou edição. Por exemplo queremos capturar uma tela para colocar em uma apresentação e após sua captura queremos editá-la pra colocar realces, algumas notas etc. Para isso usaremos o Gimp. Usaríamos aqui o seguinte comando scrot -e 'gimp $f ' , desta forma o scrot capturaria toda a tela e mandaria para o Gimp que seria aberto para que editássemos a tela capturada.
A ilustração deste artigo foi feita com 3 capturas do scrot e a ajuda do VLC e do Inkscape. Primeiro capturei a imagem de um episódio de Jornada nas Estrelas que rodava no VLC mandando-o para o Inkscape (scrot -s StarTreck.png -e 'inkscape $f'), depois abri novamente o executor de programas no Gnome (F2) repitndo o comando anterior sem executa-lo e rodei scrot -s a partir de um terminal para capturar a janela do executor. Importei a tela capturada para a janela do Inkscape quejá estava aberta com a Entreprize editei um pouco e pronto.
Para quem captura muita tela o scrot pode ser automatizado com scripts e a associação deles a atalhos no teclado ou a lançadores nos painéis do gerenciador de janelas.
Existem várias outras opções e sub opções vale a pena olhar a página de manual do scrot bem como pesquisar na internet.

quarta-feira, 22 de julho de 2009

Notas sobre o protocolo IPV6 parte 2 – o IPV6 como solução definitiva


Como já se sabia que o esgotamento do número de endereços na internet era questão de tempo e se julgava que de muito pouco tempo, o protocolo IPV6 começou a ser desenvolvido no início da década de 90, sendo hoje um protocolo maduro, desenvolvido por um longo tempo em cima da experiência de seu antecessor o IPV4.
Do ponto de vista do endereçamento os números são estratosféricos cerca de 5.6x1025 por ser humano. Um usuário final, doméstico ou empresa passará a receber, pelo menos, 4.722.366.482.869.645.213.696 de endereços, chega a ser impronunciável.
Leia Mais...
Mas o número exorbitante de Ips não é a única vantagem do IPV6, se bem que seja a base de muitas delas. A segurança por exemplo será maior, sendo possível a conexão remota sem VPN firewall ou NAT, ficando toda a segurança definida na camada de rede. Com a possibilidade de endereços públicos, que identifiquem cada elemento conectado na internet, será possível toda uma nova gama de serviços muito dificilmente implementados, sob IPV4 por conta do NAT, visto que é necessária uma conexão extremo a extremo. Por exemplo imaginemos uma pessoa em um pequeno escritório tentando ativar o ar condicionado em sua residência antes de sair do trabalho. Sob IPV4 ele passará por 2 NAT um no escritório e outro em casa sob IPV6 ele poderá acessar diretamente o ar condicionado de seu desktop, ou claro do celular também. Um carro poderá rodar um diagnostico e caso não possa ser regulado remotamente enviar uma mensagem para o proprietário, inclusive com possibilidade de agendar uma ida a oficina, lógicamente consultando as duas agendas. Outra questão importante é a mobilidade, ou seja a possibilidade de manter um IP enquanto o usuário se movimenta entre redes. Ou seja as possibilidades abertas são tão grandes quanto no número de IPs.
Outro fator importante é facilidade da configuração automática de rede que é aumentada pelo número grande de IPs possíveis.

Nem tudo são flores


É necessária uma preparação para a migração, que envolve capacitação de pessoal técnico para implementação e manutenção de redes sob o novo protocolo. Muitos equipamentos deverão ser substituídos e programas reescritos, ou seja haverá um custo para a mudança. Isto implica que ela não será feita muito rapidamente. A implantação do IPV6 já foi iniciada, se bem que timidamente e deve ganhar impulso à medida em que se vá chegando ao fim do estoque de endereços IPV4 na IANA e nos registros regionais. Isto, no entanto, não implica na migração do que já existe hoje em IPV4 para IPV6, isso levará mais tempo e seguramente sera impulsionada pela demanda pelas novas possibilidades do IPV6.

Links importantes para entender o IPV6

Wikepedia
IPV6.br
Portal IPV6

terça-feira, 21 de julho de 2009

Notas sobre o protocolo IPV6 parte 1 – o esgotamento do IPV4


Este artigo é uma compilação de alguns outros que consegui na internet, sendo mais um trabalho “jornalístico” que técnico. A iniciativa de publica-lo vem da compreensão de que é necessário implementar logo o protocolo IPV6 e que, sendo assim, é necessário divulgar as causas desta necessidade e os benefícios da implementação com uma linguagem acessível. Nesta primeira parte basicamente falarei do IPV4, protocolo atualmente usado, porque durou tanto e porque hoje é incapaz de garantir o crescimento da internet por muito mais tempo.
Leia Mais...

Um protocolo pode ser entendido como uma série de regras que permitem o relacionamento entre diferentes entidades, desde diplomatas até computadores. Um exemplo simples, uma conversa telefônica (não me refiro aqui a ligação em si apenas á conversa propriamente dita) geralmente segue um protocolo, ainda que informal:

  1. Disca-se o número desejado

  2. O outro lado atende normalmente com uma interjeição, no Brasil “Alô”

  3. Inicia-se a negociação para colocar os interlocutores em linha:

    1. Por favor o fulano está?

    2. Quem deseja falar com ele?

    3. Beltrano

    4. Um momento (a ligação é transferida para o fulano)

  4. Inicia-se a conversa

  5. Finaliza-se a conversa, normalmente com despedidas dos dois lados.

Quando ocorre erro (telefone ocupado ou fora de área, queda da ligação etc.) o processo tem que ser totalmente ou parcialmente reiniciado. Mesmo quando a ligação cai, bem no final, ou o interlocutor desliga sem uma despedida apropriada fica a sensação de que a comunicação não foi completa.

Os protocolos na internet não são diferentes disso, são isso sim, bem mais complexos, muitas vezes funcionando em conjunto em uma pilha de protocolos.

“Uma rede pode ser definida como um conjunto de computadores e outros equipamentos interligados e capazes de comunicarem-se utilizando um conjunto pré-determinado de regras, ou “linguagem”, chamada de protocolo. O IP, ou Internet Protocol, é um tipo específico de protocolo que foi projetado para criar ligações entre diferentes redes, possibilitando a intercomunicação entre dispositivos nelas presentes. Uma interligação entre diversas redes é normalmente chamada de internet. Cada computador numa determinada internet possui um número único, que o identifica dentre da mesma, chamado endereço IP.

O Protocolo Internet (IP), na verdade, faz parte de um conjunto maior de protocolos, conhecidos por TCP/IP suite, que inclui outros protocolos como TCP, UDP, DNS, ARP, RARP, DHCP, FTP, HTTP, RIP, BGP, entre outros. Esse conjunto é hoje utilizado também nas redes locais. É, na verdade, o padrão de fato utilizado como protocolo de comunicação para diversas aplicações, a começar pela Internet” IPV6.BR

O esgotamento do IPV4

A internet está baseada no IPV4, Protocolo de Internet Versão 4 (sigla em inglês) que suporta até 4.294.967.296 de endereços o que é um número bastante grande se considerarmos que a maioria da população da terra não tem acesso á internet ou o têm de forma bastante limitada na escola no local de trabalho ou em lan houses. Poe que então o esgotamento dos endereços? Na verdade esperava-se que este esgotamento já tivesse acontecido antes.

Este número cai para um pouco mais de 3,7 bilhões por conta dos endereços reservados, ou seja os iniciados com 0, 10, 127 e de 224 em diante. Além disso a entidade responsável pela internet a IANA distribuiu grande parte das faixas de endereço classe A que possibilitam aproximadamente 16 milhões de endereços cada a grandes empresas que acabam usando apenas pequena parte deles, gerando um grande desperdício. A HP, por exemplo tem duas faixas uma ganha durante a distribuição inicial das faixas de endereços IP e outra quando da compra da DEC que possuía uma.

Essa política inicial de distribuição de faixa de endereços associada a uma rápida popularização da internet levaram a projeções alarmantes de um esgotamento a curtíssimo prazo. Calculavasse que por volta de 1995 a rede entraria em colapso de crescimento. No entanto devido ao desenvolvimento de uma série de tecnologias, das quis destacaremos duas, isso não ocorreu.

A primeira delas é o DHCP, muito semelhante ao overbook, tão praticado por certos hotéis e companhias aéreas, só que devido ao numero muito grande de usuários é feito com maior margem de segurança.

Imaginemos que um hotel, sabendo do número histórico de desistências, reserve um número maior de quartos que realmente tem. Se o comportamento o da clientela for o comportamento médio não haverá problema algum, hotel cheio a temporada inteira e com clientes felizes. No entanto se a taxa de desistência for muito baixa, logo veremos as notícias nos jornais.

Com o DHCP a situação é parecida. O provedor de internet sabe que uma gama grande de seus clientes não fica conectado 24 horas por dia, sendo assim não precisa de um endereço fixo na internet, então ele redistribui os endereços de acordo com a necessidade. Quando ligamos o computador conectado à internet ele envia uma solicitação de endereço IP para o provedor e o servidor DHCP deste responde mandando o IP solicitado. Isso permite um número muito maior de usuários.

A segunda tecnologia que reduz a pressão sobre o número de endereços é o NAT, que a grosso modo seria um “overbook” do usuário. Ou seja através de um roteador o IP fornecido pelo provedor é compartilhado com os demais computadores da rede. Seria algo como se alugássemos um quarto de hotel e levássemos a família inteira com colchonetes e sacos de dormir. A diferença é que dificilmente encontraríamos um hotel que permitisse isso e o NAT não só é legal como é uma necessidade da internet com IPV4, por mais que algumas operadoras resistam.

Estas tecnologias apenas retardaram o inevitável, servindo como paleativos. Atualmente baseando-se na quantidade de Ips disponíveis e no crescimento anula da demanda cacula-se que por volta de 2010 estarão esgotados na IANA e por volta de 2012 a 2014 nos registros regionais, como a LCNIC que controla os Ips na América Latia e Caribe. O gráfico 1 mostra o aumento de demanda nos registros regionais.e o gráfico 2 o esgotamento do estoque de endereços na IANA no mesmo período



Bibliografia


Entenda o esgotamento do IPv4


Entendendo o IPV6


segunda-feira, 20 de julho de 2009

5ptk2zmwq6
BlogBlogs.Com.Br

Linux é difícil 1 – A impressora


Quando fazia manutenção, apesar da dor de cabeça que as vezes o trabalho me causava, passava por situações no mínimo divertidas.
Certa vez um cliente me chamou com urgência para acertar o computador da contabilidade. Ocorre que o contador trabalhava depois do expediente e era adepto de tudo que não presta na internet e como, apesar da minha insistência o dono do negócio não pretendia colocar um servidor Linux e um proxy na rede o problema era recursivo. E como a única solução viável acabava sendo formatar, já que apezar de meus esforços em manter antivírus atualizado o medo de cavalos de Tróia e spywares era grande. Como o contador não mantinha backups atualizados sempre que acontecia um problema o cara fugia de min de todo jeito.
Leia Mais...
Dessa vez consegui cerca-lo e ele teve que atualizar os backups e eu pude trabalhar. Reinstalei o XP e a parafernália toda finalmente sobrou a impressora uma multifuncional HP 1315 se não me engano. Coloquei o CD no drive e pensei tá quase acabando. Ledo engano o programa iniciava rodava um tempo e lá pela 35ª tela ele dizia que nção encontrava duas dll. Instalei as malditas e nada, voltei ao Google e descobri que quem precisava das tais dll era o programa de instalação, ou seja nem a impressora nem o sistema. Instalei o drive manualmente e pronto.
Nesse momento o cliente falou, “imagina se fosse no Linux” e vi um sorriso sarcástico no canto da boca do contador. Abri minha maleta e saquei menu notebook, com Ubuntu, espetei a impressora e surgiu a mensagem no meio da tela “ HP 1315 ligada e pronta para uso” ou algo do tipo, o sorriso sarcástico mudou de lábios. Comentei, "nunca havia espetado uma impressora destas neste notebook, depois dizem que o Linux é difícil", peguei meu dinheiro e fui pra casa.

sexta-feira, 17 de julho de 2009

Trabalho fácil? Só o dos outros.


Existe uma tática de negociação que muita gente usa que me incomoda muito pois acho extremamente desrespeitosa. É a tática de desmerecer o trabalho do profissional. Quando contratamos um serviço que não sabemos ou não podemos realizar sabemos que vamos pagar por isso e é lógico devemos discutir o preço. Se conhecemos o negócio podemos fazê-lo com maior propriedade e possibilidade de sucesso. Mas o que não se pode fazer é desmerecer o que está sendo feito na tentativa de diminuir o preço ou empurrar mais trabalho. O profissional que ali está teve que se esforçar para aprender seu ofício e vive dele. Logicamente estamos falando do profissional sério, o picareta e o lambão não devem ser contratados ou se furarem o crivo, que o seja somente uma vez.
Leia Mais...
Existe um tipo de cliente, com o qual já me defrontei algumas vezes, que sempre considera o que você faz fácil. Ele vêm com aquela conversa: “olha coloca um menu aqui, muda a cor ali, acrescenta tal funcionalidade e corôa sua demanda com “é fácil, você faz rapidinho”. É obvio que ele não sabe nem o que é HTML, CSS, PhP etc, etc. Não foi ele que virou noite aprendendo a fazer a coisa ficar fácil, isso quando fica fácil. O que quer é apenas empurrar mais trabalho sem mexer no preço.
Um cliente meu, que vou descrever aqui como corretor de seguros, mas seu negócio é outro, é mestre nessa tática. Quando estava elaborando seu site ele sempre vinha com essa história, para não falar que mudava de opinião e me pedia pra desfazer o que tinha feito, sempre com o velho bordão “é fácil”. Aquilo me incomodava e depois de um tempo, já com certa intimidade ele fez uma brincadeira comigo e logo depois veio de novo com a história de que modificar isso ou aquilo é fácil. Eu respondi em tom descontraído para parecer brincadeira, mas nem tanto para ele perceber que de fato aquilo me incomodava. “Fácil nada em informática tudo é difícil. Fácil é vender seguro.”
Um sorriso amarelo se formou e ele nuca mais repetiu seu bordão predileto. Essa resposta nem sempre é apropriada, ele abriu o espaço para ela, no geral o melhor caminho é mostrar que não é fácil e que tem um custo para fazê-lo. E como coloquei em um post anterior definir corretamente o escopo do projeto.

quinta-feira, 16 de julho de 2009

Algumas impressões do FISL 10


A décima edição do Fórum Internacional de Software Livre como o Software Livre em geral e o Linux em particular tem se desenvolvido e se profissionalizado. Grandes stands, grandes corporações e pouco espaço para as comunidades. Não me refiro a espaço para palestras mas a espaço físico mesmo. Ver para projetos importantes como Gnome e Slackware em ilhas sem as mínimas condições de infra-estrutura é lamentável. Nem me refiro aqui ao Ubuntu, que sou usuário, nesse caso como no caso da SUN e da Red Hat a Canonical deveria botar a mão no bolso e investir num evento tão importante. Creio que as comunidades devessem submeter projetos à organização e essa garantir o espaço, ficando por conta da comunidade apenas o aluguel do stand. Esses projetos deviam contemplar atividades de diferentes tipos feitas no local do stand e não apenas transforma-lo em um bazar, o que tabém é importante mas não pode ser a única coisa. Um bom exemplo disso foi o satnd da Mozzila com concurso de desenhos e diversas outras atividades.
Leia Mais...
Hoje está muito em moda falar da necessidade de profissionalização do software livre, que tem que ter suporte, não pode ser coisa do hacker que vira a noite pra resolver o problema e outras coisas do gênero. Se por um lado isso pode ser verdade, por outro não se pode esquecer que o que trouxe o software livre a té aqui não foi a engenharia, mas o desejo de liberdade. Foi o trabalho de milhares de desenvolvedores que viram à noite pelo simples prazer de programar e compartilhar e de inúmeros usuários que abrem mão de algumas, cada vez menos, funcionalidades por causa da liberdade. Esquecer-se disso é colocar o Software Livre em uma camisa de força e perder o rumo.
Li alguns comentários que chamavam Richard Stalmman de figura anacrônica e coisas do gênero. Também é comum chamar a GPL de muito radical. Sem dúvida usar apenas software livre pelos padrões da Free Software Foundation é muito difícil no mercado. Muitas vezes o que o cliente quer é a funcionalidade e está pouco se importando se o software é livre ou não, se vai pagar licença ou não. Isso no entanto não quer dizer que defender princípios seja anacronismo, ao contrário é fundamental para manter o rumo do movimento e a licença que garante isso é a GPL. Teria uma licença menos “radical” garantido o sucesso do movimento? Com licenças mais permissivas muito do software livre que existe hoje seria proprietário. Um bom exemplo disso são os sistemas da Apple que usam o Darwin/BSD (oppen source) como kernell e são proprieários.
As licenças permissivas bem como as proprietárias vão continuar existindo. É inconcebível pensar que em um mundo dominado pelos monopólios, onde o hardware, a comida, a saúde e principalmente os homens e mulheres não são livres, que o software se libertará sozinho. Por isso mesmo os princípios são fundamentais. Produzir, usar defender e divulgar software livre é necessário. Fazer eventos que atraiam as grandes corporações favorece o crescimento da utilização e produção de software livre. Garantir espaço para as comunidades garante a continuidade do movimento e os princípios que trouxeram o software livre a té aqui.

quarta-feira, 15 de julho de 2009

Dica, Dropbox, sincronise arquivos entre computadores e a internet.


Há algum tempo atrás li no Dicas-L uma dica que achei interessante e resolvi instalar em meus computadores. Trata-se do Dropbox. Você cia uma conta no site, instala o programa em seus computadores ele cria uma pasta e tudo que salvar em seu interior será imediatamente sincronizado com um servidor na internet e nos doutros computadores, assim que conectarem.

;Leia Mais..

Eu o tenho instalado em meu desktop, no notebook e no computador do trabalho, o que me permite trabalhar em certos arquivos onde quer que eu esteja, é possível acessa-los via navegador diretamente no site do Dropbox. Mas o recurso mais interessante é o compartilhamento cria-se um subdiretório no interior da pasta Dropbox e compartilha-se com outros usuários do programa, são enviados e-mails de convite e a partir daí, os arquivos serão sincronizados com essas pessoas também. Isso se mostrou bastante útil para que clientes me mandassem material para os sites a interação é bem mais fácil que por e-mail já que posso editar os arquivos diretamente.

O site do Dropbox é https://www.getdropbox.com/




terça-feira, 14 de julho de 2009

Fotos do Fisl


Coloquei no Picasa algumas fotos que foram batidas por mim ou por amigos durante o FISL10 o link está aqui

segunda-feira, 13 de julho de 2009

Nada além do escopo.


Existem aulas que marcam nossa vida acadêmica por vários motivos. Algumas por que são muito chatas outras engraçadas e outras ainda, em número bem menor, infelizmente por que são ótimas. Minha primeira aula no curso de pós graduação em gerência de projetos, sobre escopo, marcou por causa do momento em que foi dada.
Leia Mais...
Estava terminando um site razoavelmente grande onde fiquei com a sensação de trabalhar dobrado e receber a metade. O cliente apesar de enrolado, não saber exatamente o que queria e trocar várias vezes a pessoa que servia de interface comigo era um comerciante experiente e sempre conseguia empurrar mais um servicinho nas minhas costas sem é claro alterar o custo do projeto.
O layout foi aprovado, depois de algumas modificações, pela primeira pessoa com quem discuti, quando ela foi substituída ou umas 3 substituições depois o dono da empresa perguntou por que o menu tal estava em tal lugar e pediu pra tocar depois foram as cores do menu e por ai vai, o conteúdo também mudou várias vezes, não porque eu tenha feito algo de errado mas porque me passaram conteúdo trocado.
Isso foi me irritando, e eu saEstava terminando um site razoavelmente grande onde fiquei com a sensação de trabalhar dobrado e receber a metade. O cliente apesar de enrolado, não saber exatamente o que queria e trocar várias vezes a pessoa que servia de interface comigo era um comerciante experiente e sempre conseguia empurrar mais um servicinho nas minhas costas sem é claro alterar o custo do projeto.
O layout foi aprovado, depois de algumas modificações, pela primeira pessoa com quem discuti, quando ela foi substituída ou umas 3 substituições depois o dono da empresa perguntou por que o menu tal estava em tal lugar e pediu pra tocar depois foram as cores do menu e por ai vai, o conteúdo também mudou várias vezes, não porque eu tenha feito algo de errado mas porque me passaram conteúdo trocado.
Isso foi me irritando, e eu sabia onde estava o problema, não havia determinado corretamente o escopo do projeto logo no início nem feito documento de aceite das entregas, layout e conteúdo. Sabia disso empiricamente,percebia o problema mas foi a aula que me deu fundamentos teóricos para entender melhor o problema e como a aula ocorreu exatamente na semana que eu estava refletindo sobre o problema o casamento foi perfeito.
Muitas vezes temos a tendência de ir fazendo pra ver como é que fica isso é um erro crasso. Gastar um tempo definindo o mais exatamente possível o que vai ser feito, como vai ser feito e quando vai ser feito diminui muito os problemas. Em um projeto de site, definir corretamente o número de páginas de conteúdo, menus, os tipos de componentes e módulos que serão necessários é fundamental não só para delimitar corretamente o seu trabalho, como para possibilitar a elaboração de um orçamento justo. Outra questão importante, essa realmente aprendi na tal aula, pois nuca tinha dado a devida importância a isto, é definir o “não escopo” ou seja o que não está incluído no trabalho. Por exemplo, treinamento, pode ser ou não contratado se não for é importante explicitá-lo, pois evitará problemas futuros.
Os trabalhos posteriores foram bem mais tranquilos neste aspecto, não que tenha feito toda uma extensa documentação para pequenos projetos, mas na troca de e-mail com os clientes as coisa ficaram bem mais claras. A questão essencial é que prestador de serviços e cliente estejam de acordo sobre o que deve ser feito, em que prezo e quanto isso irá custar. Hoje qunado estava pesquisando para ilustrar esse post vi esta imagem bem interessante sobre o assunto escopodoprojeto.jpg
bia onde estava o problema, não havia determinado corretamente o escopo do projeto logo no início nem feito documento de aceite das entregas, layout e conteúdo. Sabia disso empiricamente,percebia o problema mas foi a aula que me deu fundamentos teóricos para entender melhor o problema e como a aula ocorreu exatamente na semana que eu estava refletindo sobre o problema o casamento foi perfeito.
Muitas vezes temos a tendência de ir fazendo pra ver como é que fica isso é um erro crasso. Gastar um tempo definindo o mais exatamente possível o que vai ser feito, como vai ser feito e quando vai ser feito diminui muito os problemas. Em um projeto de site, definir corretamente o número de páginas de conteúdo, menus, os tipos de componentes e módulos que serão necessários é fundamental não só para delimitar corretamente o seu trabalho, como para possibilitar a elaboração de um orçamento justo. Outra questão importante, essa realmente aprendi na tal aula, pois nuca tinha dado a devida importância a isto, é definir o “não escopo” ou seja o que não está incluído no trabalho. Por exemplo, treinamento, pode ser ou não contratado se não for é importante explicitá-lo, pois evitará problemas futuros.
Os trabalhos posteriores foram bem mais tranquilos neste aspecto, não que tenha feito toda uma extensa documentação para pequenos projetos, mas na troca de e-mail com os clientes as coisa ficaram bem mais claras. A questão essencial é que prestador de serviços e cliente estejam de acordo sobre o que deve ser feito, em que prezo e quanto isso irá custar. Hoje qunado estava pesquisando para ilustrar esse post vi esta imagem bem interessante sobre o assunto escopodoprojeto.jpg

sexta-feira, 10 de julho de 2009

A Placa de Rede que Sentia Saudades.


Quando se trabalha durante algum tempo com informática sabe-se que nem sempre se trata de uma “ciência exata” computadores muitas vezes tem vontade própria de deviam trocar o analista de sistemas por um daqueles que usam o divã como principal ferramenta.
Leia Mais...
Certa vez um cliente que compartilhava a internet através de um computador com Windows 98. Como quando ocorriam problemas no computador todos ficavam sem rede, me pediu para rotear seu modem, um daqueles Speed Stream que vinham em modo bridge e com um firmware capenga que não permitiam o roteamento. Baixei o firmware correto atualizei e pronto. Internet para todo mundo funcionando que é uma beleza. Como o computador estava funcionando direitinho (se é que isso é possível com Windows, particularmente 98, fui embora.
Alguns meses depois, o cliente me chamou por que o computador estava com problemas. Travamentos, comportamentos estranhos, tela azul, essas coisas de Windows. Passei um antivirus tirei uma meia duzia e resolvi dar uma geral. Transferi os arquivos para outra máquina, abri limpei tudo me aproveitei para tirar a placa de rede extra, uma velha isa compatível com NE2000, deixando só uma Realteck. Formatei a máquina e reinstalei tudo.
A rede simplesmente não funcionava nem com reza braba. Instalei e reinstalei o driver e nada. Substitui a Realteck pela isa e nada continuava sem rede. Espetei de novo a Realteck, mantendo a Isa no lugar e Bingo, tudo funcionando. A única explicação que encontrei foi que a “jovem” Realteck pci ficou com saudades de sua velha companheira.

terça-feira, 7 de julho de 2009

Quando a tecnologia ameaça os monopólios, eles mudam

Uma cruzada contra a pirataria toma os quatro cantos do mundo. Mensagens contra a cópia não autorizada enchem os mais diferentes veículos de comunicação controlados pelo monopólio e estão presentes mesmo nos DVDs piratas. À frente da campanha, bucaneiros de outrora, travestidos em defensores da moral, da cultura e da propriedade alheia, entenda-se da "propriedade deles". Por outro lado, o avanço tecnológico torna cada vez mais fácil e barato copiar, distribuir e criar cultura, envolvendo milhões de pessoas em todo o mundo. Uma batalha sem quartel está sendo travada entre os defensores veementes da propriedade intelectual e do copyright (direito de cópia) e aqueles que defendem uma cultura livre destas amarras. O problema é entender que não existe cultura livre sem homens livres e não existem homens livres sob os monopólios.
More...
Em seu livro Cultura Livre (que pode fácil e legalmente ser encontrado e copiado na internet), Lawrence Lessig dá importantes exemplos de como o atual monopólio dos meios de comunicação, que hoje comanda a esquadra oficial, teve suas origens na pirataria. Lessig é advogado no USA e, como muitos intelectuais daquele país, tropeça numa crença de que o sistema pode ser remendado, ajustado e continuar existindo. Isto o leva a não perceber questões essenciais da batalha ora travada, levando-o a conclusões imprecisas. Apesar dessas ressalvas, a leitura do livro é de grande valia para se entender o que está em jogo por trás da "luta contra a pirataria".
De piratas a corsários
Corsários nada mais eram que piratas autorizados legalmente pelo governo de seus países a fazer pirataria. Lessing nos mostra que, no que se refere aos meios de comunicação em geral, o governo ianque sempre deu o direito de pirataria às corporações que resolvessem investir nela, foi assim com o cinema e indústria fonográfica, só para citar alguns exemplos.
• Cinema:
"A indústria cinematográfica de Hollywood foi construída por piratas fugitivos. Os criadores e diretores migraram da Costa Leste para a Califórnia no começo do século 20, em parte para escaparem do controle que as patentes ofereciam ao inventor do cinema, Thomas Edison. Esses controles eram exercidos através de um "truste" monopolizador, a Companhia de Patentes da Indústria Cinematográfica, e eram baseadas na propriedade intelectual de Thomas Edison — patentes. Edison formou a MPPC (Motion Pictures Patents Company — Companhia de Patentes de Filmes de Movimento) para exercer os direitos que a sua propriedade intelectual lhe dava, e a MP PC era bem séria sobre o controle que ela exigia. Como um comentarista cita em uma situação dessa história."(e mais à frente)
... os "independentes", eram companhias como a Fox. E de forma semelhante ao que acontece atualmente, esses independentes foram duramente enfrentados. "As filmagens eram paralisadas pelo roubo de equipamentos, e ‘acidentes’ resultavam na perda de negativos, equipamento, prédios e algumas vezes até mesmo de vidas".[53] Isso levou os independentes a fugir da Costa Leste. A Califórnia era remota o suficiente do alcance de Edison para que esses cineastas pirateassem suas invenções sem medo da lei. E os líderes do cinema de Hollywood, Fox entre eles, fizeram exatamente isso.
Claro que a Califórnia cresceu rapidamente, e logo a proteção às leis federais acabou chegando ao oeste. Mas como as patentes davam ao dono delas um monopólio realmente limitado (apenas dezessete anos naquela época), quando suficientes agentes federais apareceram, as patentes haviam expirado. Uma nova indústria nasceu, em parte por causa da pirataria da propriedade intelectual de Edison."
• Indústria fonográfica:
Na época da invenção do fonógrafo e da pianola a lei dava aos compositores direitos exclusivos para controlar a exibição pública de suas músicas, ou seja, devia-se pagar por uma cópia da partitura de determinada música e pelo direito de apresentá-la em público.
A lei, no entanto, não estava preparada para este avanço tecnológico. Era claro que se deveria comprar uma cópia da partitura para gravá-la e que a apresentação pública desta gravação também deveria ser paga, mas não era claro se era preciso pagar por tocar uma música em um dispositivo de gravação em ambiente privado. Por conta desta brecha na lei as canções poderiam ser pirateadas à vontade.
Os compositores e distribuidores reagiram contra essa possibilidade de pirataria com argumentos como:
"...outras pessoas estavam "vivendo às custas do suor, do trabalho, do talento e da genialidade de compositores americanos" e a "indústria de distribuição de música" estava de fato "a completa mercê desses piratas". Como John Philip Souza define, da forma mais direta possível, "quando eles ganham dinheiro com as minhas músicas, eu quero uma parte dele"
O argumento da indústria fonográfica afirmava que os compositores não haviam perdido do que tinham antes, ao contrário, a venda de partituras havia aumentado depois da introdução das máquinas e argumentavam que o trabalho do Congresso era "considerar primeiro os interesses do público". Afirmavam ainda que "Toda esta história de roubo é mera história da Carochinha, pois não existe propriedade sobre idéias, sejam elas musicais literárias ou artísticas, exceto quando definido pela legislação".
O Congresso ianque rapidamente resolveu o problema, aparentemente de forma equilibrada. Garantiu aos compositores o direito de serem pagos pelas "reproduções mecânicas". Mas acabou com seus direitos exclusivos, permitindo a terceiros gravarem as músicas, desde que o autor permitisse ao menos uma gravação, e o preço foi definido por lei.
Essa é uma exceção na lei de diretos autorais, no caso de escritores, por exemplo, estes são livres para cobrarem o quanto quiserem, basicamente afirmando que não se pode usar a obra sem a autorização do detentor dos direitos autorais.
A lei que rege a música dá aos autores menos direitos, o que beneficia a indústria fonográfica, que deixou de representar o papel de pirata e assumiu o de corsário (o pirata amparado pela lei) visto que paga aos músicos menos que pagaria a outros artistas.
"De fato, o Congresso foi bem explícito sobre as razões para darem tal direito. Havia o medo de que os detentores de direitos autorais formassem monopólios que viessem a sufocar o trabalho criativo no futuro."
De corsários à esquadra oficial
Depois de estabelecidos como monopólios, aqueles que inicialmente "roubaram" por conta própria — e posteriormente com autorização do Estado — passaram a vestir uniformes de esquadra oficial e combater veementemente a pirataria, não por que tenham se arrependido e se transformado nas mais cândidas criaturas, mas porque agora o "saque" é sobre os seus navios.
Da mesma forma que o surgimento dos primeiros instrumentos de gravação e reprodução de música determinaram uma mudança profunda na forma de se distribuir e escutar música alterando as leis de copyright, a sofisticação, o barateamento destes instrumentos e o surgimento da internet novamente colocam em cheque estas formas, que já se tornaram arcaicas.
Mas é justamente aqui que tropeçam inúmeros intelectuais, bem intencionados ou não, bem como o oportunismo de plantão. O que está em cheque não é somente a chamada propriedade intelectual, o copyright e relacionados, mas todo o sistema capitalista de produção. Existe uma profunda contradição entre o desenvolvimento das forças produtivas e das relações de produção. Com a tecnologia disponível hoje é possível produzir alimentos para toda a espécie humana, vesti-la, cuidar de sua saúde, diverti-la, informá-la e educá-la. O que simplesmente não é feito porque embora milhões e milhões de seres humanos participem da produção, a apropriação da riqueza gerada cabe a uns poucos e a tecnologia e a internet por si só não libertaram o mundo desse sistema.
A internet possui, no entanto, uma particularidade importante. Seu caráter extremamente didático para demonstrar isso, principalmente no que se refere à educação e cultura.
O barateamento dos equipamentos eletrônicos, por um lado, e o próprio desenvolvimento da rede, por outro, tornaram possível a produção, a cópia e a distribuição de produtos culturais, com uma velocidade inimaginável até pouco tempo atrás. Para se conseguir uma música na internet, basta acionar um programa específico para este fim (existem vários), pesquisar pelo nome do autor, intérprete, da música ou outra identificação e aparecerão diversas possibilidades para fazer uma cópia no computador local. Esta música se encontra em diversos computadores que a compartilham na rede. Esta forma de compartilhamento chama-se rede P2P (sigla em inglês para peer to peer — ponto à ponto ou parceiro à parceiro), as músicas copiadas estarão imediatamente disponíveis para que outros copiem, bem como poderão ser gravadas em CD sendo possível fazer quantas cópias se deseje. Também é possível copiar um CD original com facilidade ainda maior. As consequências disso podem ser vistas em qualquer esquina: trabalhadores excluídos do processo produtivo formal com seus aramados vendendo música, vídeo e programas de computador.
Logicamente esse mesmo processo de produção pode ser usado para que um autor grave um CD de forma independente, ou ainda simplesmente liberar suas músicas, vídeos e outros produtos diretamente na rede. Ou seja, o acesso a uma pequena porção dos meios de produção — computador com acesso à internet e gravador de DVD — envolvidos permite que um número incalculável de pessoas viva de sua exploração direta. Além da nova geração de piratas, um número também significativo de micro-empresários e trabalhadores autônomos, como técnicos de manutenção, construtores de páginas para a Internet, etc, passam também a sobreviver em torno da rede.
O exemplo mais significativo a esse respeito é a produção de programas para computador. O movimento em torno do chamado software livre ganha novos adeptos tanto na produção como na utilização, todos os dias. Em pouquíssimas palavras, software livre é o programa que qualquer um é livre para alterar, usar para qualquer fim, distribuir as cópias modificadas ou não (desde que sejam mantidas as liberdades). O número de programadores, administradores e usuários deste tipo de programa já é imenso e não para de crescer, tanto em empresas como usuários domésticos. Os programas são elaborados de forma colaborativa na rede e distribuídos da mesma forma.
Ao navegar na rede produzir um CD ou DVD, fica claro que o monopólio é desnecessário para o funcionamento da produção e que o mundo estaria melhor sem ele. O que muitos se esquecem ao alardear a liberdade na rede é que sua infra-estrutura está sob o controle direto do imperialismo. E por isso essa aparente liberdade é extremamente frágil.
Como resultado da guerra ora travada em torno dos direitos autorais e da propriedade intelectual, alguns cenários se delineiam, também de forma muito didática. O mais atrasado é, sem dúvida, a manutenção das leis de direitos autorais como estão e o aprofundamento do controle sobre a chamada pirataria na rede. Isto, mesmo do ponto de vista imperialista, representa um sério entrave ao desenvolvimento tecnológico, visto que amarram a venda, distribuição e uso dos produtos à tecnologias e formas que estão se tornando arcaicas em alta velocidade.
O segundo cenário, o mais provável a médio prazo, é esse: conseguindo-se um maior controle sobre a distribuição na rede consegue-se vender mais barato, visto que o custo de produção cai bastante e isso acaba atingindo um número maior de pessoas. É possível inclusive, de forma similar ao das origens da indústria fonográfica, permitir-se a cópia para venda, mediante pagamento de licença, incorporando os piratas na linha de produção, sem ter que pagar-lhes os direitos.
O outro cenário, único favorável às grandes massas, só é possível com o fim do imperialismo e o desenvolvimento de uma cultura livre feita por homens livres, que a tratem como necessidade e não como mercadoria, que se preocupem em como fazer que os bens produzidos cheguem a todos e não em como impedir que isso aconteça. Neste caso, independentemente da tecnologia empregada, o resultado do trabalho, cultural ou não, será livre e estará ao alcance de todos.

  © Blogger templates ProBlogger Template by Ourblogtemplates.com 2008

Back to TOP