segunda-feira, 22 de março de 2010

Sobre a falsa polarização entre a técnica, a humanidade e a cultura

Walter Benjamin, Max Horkheimer, T. W. Adorno, Herbert Marcuse e Norbert Elias são críticos de uma polarização entre o domínio da técnica e as esferas propriamente humanas e culturais. Não é possível que se considere a técnica enquanto processo civilizatório separado do que é o humano. De pouco adianta a crítica ao avanço tecnológico em nome da Humanidade em si mesma. Este debate posiciona a civilização contra a cultura valorizando a vida humana enquanto tal . Benjamin (Crítica do poder, Crítica da violência) discute sobre a crescente sacralização da vida no mundo contemporâneo que coincide com o seu processo de banalização. Se o avanço científico e tecnológico permite a politização da biologia, da tecnociência e da tecnologia e se a vida tornou-se uma questão política, afirma Laymert Santos (2008), a política tornou-se uma questão vital. A superação do conceito tradicional de cultura é necessária, como considerou Simondon (2008):
A cultura se constituiu como sistema de defesa contra as técnicas; ora, essa defesa se apresenta como uma defesa do homem, supondo que os objetos técnicos não contêm realidade humana. Nosso intuito foi mostrar que a cultura ignora, na realidade técnica, uma realidade humana e que, para desempenhar plenamente seu papel, a cultura deve incorporar os seres técnicos enquanto conhecimento e valor (p.169).
Neste sentido, é preciso fazer a leitura crítica dos intérpretes das relações entre tecnologia e cultura, superando abordagens dicotômicas e maniqueístas, para que se possa pensar a tecnologia como expressão da cultura que, antes de se opor à tecnologia deve ampliar o seu conceito para que esta, a cultura, mantenha ainda a sua vocação emancipatória. Como afirma ainda Simondon (Cultura e técnica, 2008), a oposição entre a cultura e a técnica, entre o homem e a máquina, é falsa e sem fundamento: ela esconde apenas ignorância ou ressentimento

TEXTO ENVIAD POR: Profa. Dra. Sueli Soares dos Santos Batista; professora pesquisadora da FATEC JUNDAÍ, pós-doutoranda da UNICAMP

Unicamp impulsiona criptografia quântica

Velocidade de processamento maior do que o mais avançado computador atual - exponencialmente maior. Esta é uma das vantagens que se espera de uma arquitetura computacional baseada nos conceitos da física quântica.
A pesquisa, desenvolvida pelo Professor Walter Carnielli e por seu orientando de doutorado, o colombiano Juan Carlos Agudelo, dá pistas para o avanço da informática quântica ao utilizar a lógica paraconsistente como fundamento para a elaboração de algoritmos voltados a esse modelo.
A computação quântica é fundamentada em conceitos criados pela física quântica, como o da superposição (quando uma partícula está em condições contraditórias simultaneamente) e do entrelaçamento (quando a alteração em uma partícula provoca o mesmo efeito em outra que se encontra distante).
Segundo Carnielli, a mera expectativa da computação quântica já tem aquecido o mercado de software, ressalta o professor da Unicamp. Universidades já começam a esboçar programas quânticos e empresas já anunciam sistemas de criptografia nesse novo paradigma.
"Os sistemas de criptografia atuais se baseiam em um código formado por um número grande que, para ser quebrado, deve ser decomposto em números primos", explicou. Quanto maior forem esses fatores primos, mais difícil será a descoberta do código.
No entanto, com o advento do modelo de processamento quântico essa criptografia tradicional será atacada com muita facilidade, estima Carnielli. "O esquema criptográfico conhecido como RSA, largamente utilizado no comércio digital, em bancos e compras com cartões de crédito pela internet, baseia-se no fato de que é computacionalmente muito difícil conseguir fatorar um número grande no produto de dois números primos".
"O tempo estimado, por exemplo, para se conseguir fatorar um número de 2048 bits (chave de uma criptografia RSA) ultrapassaria a idade da Terra. Um algoritmo quântico, no entanto, realizaria essa tarefa em menos de 6 horas. Dessa forma, com os computadores quânticos as chaves RSA perderiam completamente sua eficácia.
Esse problema motivou a criação da criptografia quântica. Nessa tendência, crescem os investimentos feitos em pesquisas de criptografia quântica a fim de fazer frente aos futuros computadores e apresentar um sistema de codificação praticamente inexpugnável".

Sistema imunológico e vacina contra bugs para computadores

Um grupo de pesquisadores suíços desenvolveu um novo programa que faz com que as redes de computadores atuem em conjunto de modo a evitar bugs em programas.
Bugs são os erros internos dos programas, que os fazem funcionar incorretamente ou mesmo travar o computador.
Denominada Dimmunix, a ferramenta atua como se fosse uma vacina, aumentando a imunidade dos computadores e evitando futuras falhas.
Criado por pesquisadores da Escola Politécnica Federal de Lausanne, o sistema atua automaticamente, dispensando o monitoramento por parte de operadores de redes.
A abordagem se baseia no conceito de falha de imunidade. Na primeira vez que um bug ocorre em um software ou sistema operacional, o Dimmunix salva uma assinatura digital da falha e, em seguida, observa como o computador reage ao problema.
Quando o bug está para ocorrer novamente, a ferramenta o identifica em seus registros e automaticamente altera sua execução, de modo que o programa continue a funcionar normalmente.
Com o Dimmunix, segundo seus criadores, os programas de navegação na internet (web browsers), por exemplo, "aprendem" a evitar o congelamento verificado na primeira vez que ocorreu um bug associado a um plug-in (programa associado e que aumenta as capacidades do navegador).
A nova ferramenta também emprega tecnologia de computação em nuvem (cloud computing) para imunizar redes inteiras. Quando uma falha ocorre em uma determinada estação de trabalho, o Dimmunix produz "vacinas" que se espalham por toda uma rede, protegendo suas estações de futuros problemas semelhantes.
Comparado ao sistema imunológico humano, que uma vez infectado, seu sistema imunológico desenvolve anticorpos. Posteriormente, ao deparar com o mesmo patógeno, o corpo o reconhece e sabe como combater eficientemente o problema.
O Dimmunix está disponível para download gratuito para programadores e interessados. Sua eficácia, segundo seus autores, foi demonstrada em programas escritos em linguagens Java e C/C++ e em sistemas em JBoss, MySQL, ActiveMQ, Apache, HTTPd, JDBC, Java JDK e Limewire.
Mais informações podem ser obtidas no endereço http://dimmunix.epfl.ch.

Telefone celular para localizar vítimas soterradas

Engenheiros alemães descobriram um novo uso para o telefone celular: localizar pessoas soterradas por avalanches de neve, deslizamentos ou em escombros de construções.
Embora já tenham ocorrido inúmeros casos de resgastes feitos graças a uma chamada que os acidentados fizeram utilizando o próprio celular, a tecnologia agora desenvolvida permite localizar pessoas desacordadas, que não são capazes ou que as condições não permitam o uso do telefone.
A localização da vítima começa com a medição da intensidade do sinal transmitido pelo celular, que é tomado por amostragem em cinco pontos.
O sistema usa então um algoritmo de cálculo de alta precisão para localizar a fonte do sinal, indicando a localização da vítima soterrada com uma margem de erro muito pequena.
A posição relativa da vítima em relação à posição da equipe de salvamento é mais importante do que a posição absoluta em relação às coordenadas globais, que podem estar sujeitas a imprecisões de medição típicas do sistema GPS ou Galileo (o sistema de GPS europeu).
O sistema foi projetado para produzir esse tipo de coordenada, dando à equipe de resgate a informação imediata e precisa sobre a direção a seguir e a distância em que a vítima pode ser encontrada.

Domótica: a automação doméstica

A maioria das propostas de casas e edifícios inteligentes pressupõe a existência de capacidades embutidas nos aparelhos domésticos - da TV e da geladeira até os sistemas de aquecimento, iluminação e ar condicionado - que os tornem capazes de se comunicar uns com os outros, de preferência por meio de redes sem fio.
Essa interconexão permitirá uma operação em conjunto que aumente o conforto e o bem-estar dos moradores e, sobretudo, economize energia ao máximo.
Mas como aparelhos diferentes, utilizando diferentes tecnologias, fabricados por empresas diferentes, em momentos diferentes, poderiam comunicar-se uns com os outros?
Uma forma seria a de insistir em que todos os dispositivos sejam fabricados em conformidade com algum padrão acordado, nacional ou internacionalmente. Mas isso seria complexo e demorado demais, além de se aplicar somente aos aparelhos novos.
Isso também poderia sufocar a inovação tecnológica, ao impor restrições sobre tecnologias do futuro, que ainda não foram sequer imaginadas.
Isto começa a se tornar possível, graças ao trabalho de um consórcio de empresas e instituições de pesquisas da Europa.
Eles construíram uma camada intermediária de software e hardware - um middleware - que permite que sensores e equipamentos de diversos fabricantes troquem dados e funcionem de forma cooperativa.
Os pesquisadores do projeto Hydra, pretendem desenvolver uma camada de middleware, orientada para o serviço a ser prestado, e que possa ser utilizada de forma flexível pelos fabricantes.
Com a camada Hydra, todos os tipos de aparelhos, incluindo os medidores de eletricidade, água ou gás, e não apenas os aparelhos de uso interno da casa inteligente, poderão ser interconectados sem que se necessite saber o que acontece dentro deles.
Em princípio, qualquer dispositivo Hydra pode se conectar a qualquer outro, trazendo tão propalada "internet das coisas" um pouco mais próximo da realidade.
"Isso vai ajudar os fabricantes, desenvolvedores de software e integradores de sistemas a construir aparelhos e equipamentos que possam ser ligados em rede com facilidade e flexibilidade através de serviços web, criando soluções de alto desempenho e com ótimas relações entre custo e eficiência," explica Markus Eisenhauer, gerente do projeto.
A tecnologia não facilitará apenas o uso e controle dos aparelhos, mas também sua manutenção e assistência técnica. Colocando sensores dentro dos seus produtos, como máquinas de lavar ou qualquer outro eletrodoméstico, os fabricantes poderão acessá-los e diagnosticar os problemas remotamente, sem precisar de fazer uma visita ao local.

Teletandem: o ensino recíproco de idiomas. - Aprender idiomas à distância

Um grupo coordenado pelo professor João Alves Telles, da Universidade Estadual Paulista (Unesp), associou o sistema in-tandem com tecnologias digitais para ensino a distância, ampliando o alcance e as possibilidades de se aprender um novo idioma.
Explicando melhor: uma pessoa é fluente em inglês, outra em português. As duas decidem se encontrar semanalmente para conversar e trocar informações utilizando alternadamente cada língua.
Essa interação e o desejo mútuo de aprender a língua alheia promovem a aquisição de um idioma estrangeiro por meio de um contexto de aprendizagem conhecido por in-tandem.
Iniciado em maio de 2007, o projeto Teletandem envolve brasileiros, selecionados entre alunos da Unesp, e estrangeiros interessados em aprender português. Para isso, a instituição paulista contatou departamentos de língua portuguesa de universidades de diversos países.
Participaram da pesquisa instituições da Alemanha, Argentina, Canadá, Estados Unidos, França, Itália, México, Uruguai e Suécia, compreendendo nativos ou fluentes em cinco idiomas: alemão, espanhol, francês, inglês e italiano. "Uma grande dificuldade que encontramos é que muitos departamentos de português no exterior enfocam a literatura e não se interessaram no aprendizado da língua", disse Telles.
Os alunos interagiram por meio do software de comunicação Skype associado ao programa TalkAndWrite, desenvolvido no Brasil pela empresa catarinense Midi.
O Skype provê a comunicação por voz e faz a transmissão da imagem dos participantes por meio de webcams. O aplicativo de anotações TalkAndWrite disponibiliza um quadro virtual interativo no qual ambos os participantes podem escrever, desenhar e editar as intervenções do parceiro.
No Teletandem, a figura do professor não desaparece. Ele acompanha todo o processo, mediando a aprendizagem por meio de reuniões realizadas a cada três semanas com as duplas. Os encontros podem ser presenciais ou virtuais.
Outra diferença do tandem é que o currículo emerge das relações e interações entre os pares e só depois é levado ao professor. No ensino tradicional, o programa segue o caminho inverso: é predeterminado pelo docente e aplicado posteriormente em sala de aula.

Hackers vs crackers

À palavra hacker, associa-se a imagem de um adolescente problemático, passando horas à frente de um monitor de computador, teclando com a destreza de um funcionário de cartório e sempre tentando quebrar algum sistema de segurança.
Mas este é apenas um dos lados da história: esses são os chamados hackers do "lado escuro" da Força.
Existem também os hackers que estão do "lado da luz", tão hábeis em computadores quanto seus colegas mais revoltados, mas que se divertem em compreender os meandros da informática em busca de novos aprendizados.
A rigor, hacker é um termo que nasceu para designar esse pessoal do bem, enquanto o termo cracker designaria a turma do lado escuro.
Mas o mau uso dos termos pela imprensa já fez o seu trabalho de desinformação, e agora é virtualmente impossível alterar o significado das palavras já incorporado pela população.
Essa ambiguidade resulta em confusão sobre o que os hackers fazem e o que os motiva.
Na tentativa de esconder os próprios erros, a imprensa geralmente aponta os filmes como os grandes culpados pela criação dessa visão negativa dos hackers.
O preconceito pode ainda reduzir os níveis de alfabetização científica e aprendizado da informática, impondo limites muito estreitos para os níveis de conhecimento que as próprias pessoas se imporão sob o risco de serem vistas como profissionais bisbilhoteiros, "perigosos" e até "do mal".

O Sol em 3D ao vivo no celular

Programadores apoiados pela NASA criaram um aplicativo para o celular da Apple
Os usuários podem navegar ao redor da estrela, dar um zoom em regiões de maior atividade e monitorar a atividade solar, que tem grande impacto sobre as telecomunicações e sobre o clima na Terra.
"Isto é muito mais do que legal", diz Dick Fisher, diretor da Divisão de Heliofísica da Nasa. "É transformador. Pela primeira vez podemos monitorar o Sol como uma esfera tridimensional viva e pulsante."
As imagens em tempo real usadas para construir a esfera tridimensional são transmitidas à Terra pela sondas STEREO (Solar-Terrestrial Relations Observatory), um par de naves espaciais que, juntas, têm uma visão de 87% da superfície solar.
A STEREO-A está estacionada sobre o lado ocidental do Sol, enquanto a STEREO-B está estacionada sobre o leste. Juntas, elas raramente perdem qualquer acontecimento na superfície da estrela.
Além de observarem atentamente o Sol, as duas sondas deverão testar a teoria de que a Lua teria-se originado do choque da Terra com um planeta do Sistema Solar já extinto, chamado Theia.
"Usando esse aplicativo, é possível girar o Sol, dar um zoom sobre as manchas solares, inspecionar os buracos coronais e, quando uma labareda solar entrar em erupção, o telefone tem um pequeno jingle para alertar o usuário. Na verdade, muitos usuários afirmam que os alertas são a parte favorita do aplicativo.

Os pixels voadores na geração de imagens 3D

Sem os óculos, as telas especiais, o ângulo de visão e tudo o mais que vem fazendo o sucesso dos filmes 3D, o novo conceito de projeção tridimensional foi levado ao extremo, por pesquisadores do MIT, nos Estados Unidos, que decidiram construir pixels voadores: cada pixel da imagem flutua de fato no ar, criando uma imagem verdadeiramente 3D.
Os pixels ainda não podem sair voando para fora da tela do seu computador, mas agora eles já podem sair voando do chão, em um voo coordenado, até formar as imagens no ar, como uma nuvem luminosa.
O projeto FlyFire usa um grande número de micro-helicópteros, do tipo encontrado em lojas de brinquedos, que voam dirigidos por controle remoto. Cada helicóptero contém pequenos LEDs coloridos e funciona como um pixel inteligente.
Controlados centralmente por um computador, os helicópteros são guiados de forma coordenada para executar coreografias elaboradas e sincronizadas, criando uma tela tridimensional no espaço, que pode assumir qualquer formato.
"O Flyfire abre possibilidades emocionantes: como em uma tela convencional, os pixels podem mudar de cor, mas agora eles também podem se mover, criando um rastro de luz transiente no espaço tridimensional," afirma Carnaven Chiu, membro da equipe.
"Ao contrário dos monitores tradicionais, que só podem ser vistos de frente, o Flyfire torna-se uma tela imersiva de exibição tridimensional que pode ser desfrutada de todas as direções," diz ele
Como os micro-helicópteros são bastante grandes, o experimento FlyFire é adequado para grandes ambientes, preferencialmente fechados, para evitar o vento, e onde as distâncias compensem o tamanho avantajado dos pixels. E o melhor efeito é obviamente conseguido no escuro.

IBM usa avalanche de luz para troca de dados.

A Revista Nature publicou que cientistas ligados à IBM anunciaram mais um passo significativo no sentido de substituir os sinais elétricos que trafegam através de fios de cobre entre os chips de computador, por circuitos de silício que se comunicam usando pulsos de luz.
O dispositivo, chamado de célula nanofotônica de avalanche, é o mais rápido de seu tipo e poderá viabilizar avanços em computação que resultarão tanto em maior velocidade dos computadores quanto em um uso mais eficiente da energia.
A célula nanofotônica explora o "efeito avalanche" do germânio, um semicondutor usado na fabricação de processadores de computador.
A denominação de “avalanche” se deve à característica semelhante observada em um pulso de luz que inicialmente libera apenas alguns poucos elétrons, que por sua vez liberam outros, e assim por diante, até que o sinal original seja amplificado várias vezes.
Como o efeito avalanche ocorre dentro de um espaço de apenas algumas dezenas de nanômetros, ele acontece muito rapidamente. A miniaturização significa também que o ruído da multiplicação é suprimido entre 50% a 70% com relação aos fotodetectores anteriores.
O dispositivo da IBM é feito de silício e germânio, o material já largamente utilizado na produção de microprocessadores. Além disso, ele é feito com processos padronizados utilizados na fabricação de chips. Assim, milhares desses dispositivos podem ser construídos lado a lado com os transistores de silício de alta largura de banda dentro do chip de comunicações ópticas.
O fotodetector de efeito avalanche é a mais recente de uma série de realizações rumo ao desenvolvimento de um aparato de ferramentas nanofotônicas, necessárias para construir interconexões por luz dentro do chips e entre os vários chips.

Novos desenvolvimentos para as memórias magnéticas convencionais (de computadores).

As flutuações termais aleatórias nas memórias magnéticas, até agora consideradas um problema, podem ser manipuladas para reduzir a energia necessária para o armazenamento digital de informações.
Este é o resultado de uma pesquisa inédita feita por pesquisadores da Universidade de Gottingen, na Alemanha, e do MIT, nos Estados Unidos.
O desenvolvimento poderá viabilizar a fabricação de memórias de computador que operem com um gasto de energia significativamente menor do que as memórias atuais.
O calor é geralmente um problema quando se trata do armazenamento de dados digitais. No nível microscópico, as moléculas e os átomos de qualquer material, a uma temperatura acima do zero absoluto, estão em constante movimento, colidindo uns com os outros.
Como as memórias magnéticas dependem do controle e da medição precisa da orientação de minúsculas partículas magnéticas, os empurrões que os átomos e as moléculas vão dando uns nos outros conforme os componentes se aquecem acabam por danificar os dados.
Esses problemas térmicos tornam-se uma preocupação ainda maior à medida que os engenheiros tentam construir memórias magnéticas mais rápidas e mais adensadas.
De acordo com esta nova pesquisa, os movimentos térmicos aleatórios podem ser úteis para a gravação dos dados magnéticos.
A confirmação experimental dos efeitos termais sobre as memórias magnéticas aponta para novos esquemas de gravação de dados termicamente assistida. Isto poderá reduzir a potência necessária para armazenar as informações, ajudando na construção de futuros PCs que serão cada vez mais verdes.

O sonho dos alquimistas

A velha e pitoresca estória de transformar chumbo em ouro, agora se torna realidade. Pesquisadores do Laboratório Ames, nos Estados Unidos, deixando de lado os elementos puros, como chumbo e ouro descobriram uma nova família de compostos de zinco que podem ser "tunados", manipulados e configurados até adquirir as propriedades físicas e o comportamento de outros materiais.
No experimento, o zinco assumiu algumas características específicas de vários outros metais, incluindo o cobre e elementos mais exóticos, como o paládio. Mas foi possível ir mais longe, duplicando comportamentos magnéticos e eletrônicos de compostos que se tornam até mesmo supercondutores.
A versatilidade da nova família de compostos de zinco torna-a ideal para utilização na pesquisa básica de fundamentos da ciência até hoje pouco compreendidos pelos cientistas, como a origem do magnetismo.
Tal como no sonho dos alquimistas, a técnica parte de um material extremamente barato, gerando compostos que simulam outros muito mais caros.

Nova tabela periódica com elementos de anti-matéria

Um grupo internacional de cientistas, com participação brasileira, conseguiu a primeira evidência experimental de que núcleos atômicos compostos de antimatéria podem ser produzidos pela colisão de íons de ouro em alta energia.
A capacidade para formar em abundância essas partículas exóticas, segundo os pesquisadores, poderá ser fundamental para por a prova aspectos fundamentais da física nuclear, da astrofísica e da cosmologia.
O experimento, realizado pela Colaboração Star - que reúne 584 cientistas de 54 instituições em 12 países diferentes - foi produzido no Colisor Relativístico de Íons Pesados (RHIC), nos Estados Unidos.
Uma colisão de íons pesados em alta energia, como a que foi produzida no RHIC, gera uma grande quantidade de partículas. Em tese, quando a energia é suficiente para atingir uma transição de fase, são geradas também as antipartículas.
"Essas antipartículas são submetidas à coalescência - um processo análogo à condensação - e algumas delas podem agregar, por exemplo, dois antinêutrons e um antipróton, formando um antitrítio - isto é, um núcleo de antimatéria correspondente ao do átomo de trítio - o isótopo do hidrogênio que possui dois nêutrons e um próton".
O experimento, formou hádrons - partículas formadas por quarks, como os prótons e nêutrons - que possuem um chamado quark estranho, formando o chamado hipernúcleo. No modelo padrão da física de partículas, o quark estranho é aquele que possui o novo número quântico conhecido como "estranheza".
"Esse hipernúcleo formado, que é um antiestranho, é feito de antimatéria. Essa é a primeira vez em que se conseguiu uma evidência experimental de um anti-hipernúcleo. Ou seja, um núcleo que está fora do espaço biparamétrico da tabela periódica, a antimatéria".

Preservação dos dados digitais, a nova prioridade pública

Garantir que as informações digitais, que são geradas continuamente, estejam acessíveis não apenas hoje, mas também para as gerações futuras, é um dos maiores desafios da Informática.
Para enfrentar este desafio, são necessárias soluções técnicas, econômicas e sociais.
O relatório intitulado Economia, elaborado pelo consórcio Blue Ribbon Task Force, condensa o resultado de dois anos de pesquisas sobre os desafios críticos para a preservação de uma quantidade crescente de informações em um mundo que já se tornou digital.
Garantir que as mais valiosas informações estejam disponíveis hoje e amanhã não é apenas uma questão de encontrar financiamento suficiente.
Já é possível falar de 'economia dos dados', na qual quem cuida, quem vai pagar a conta, e quem faz o trabalho de preservação estejam trabalhando de forma coordenada".
O desafio para a preservação das informações digitais - texto, vídeo, imagens, música, dados de sensores etc. - geradas em todas as áreas da sociedade - é real e cresce a um ritmo exponencial.
Um estudo recente realizado pela International Data Corporation (IDC) descobriu que um total de aproximadamente sete trilhões de vezes um trilhão de bits de informação digital novos foram criados em 2009, e o o seu crescimento se da em progressão geomética.
O relatório apresenta os princípios gerais e as ações de longo prazo para a sustentabilidade econômica da tarefa, recomendações para situações específicas analisadas no relatório e uma agenda de ações prioritárias, organizada de acordo com o tipo de tomador de decisão mais adequado para levar a ação adiante.
Além disso, o relatório pretende servir como base para estudos mais aprofundados na área.

quarta-feira, 20 de janeiro de 2010

Tecnologia na Educação

O compromisso com as questões educacionais tem sido ampliado, através das várias formas de organização, incluindo aquelas que fazem uso da tecnologia para superar os limites de espaços e tempos, de modo a propiciar que as pessoas de diferentes idades, classes sociais e regiões tenham acesso à informação e possam vivenciar diversas maneiras de representar o conhecimento.
Esta amplitude de possibilidades - quando pautada em princípios que privilegiam a construção do conhecimento, o aprendizado significativo, interdisciplinar e integrador do pensamento racional, estético, ético e humanista - requer dos profissionais novas competências e atitudes para desenvolver uma pedagogia relacional: isto implica criar e recriar estratégias e situações de aprendizagem que possam tornar-se significativas para o aprendiz, sem perder de vista o foco da intencionalidade educacional.
Assim, a Tecnologia na Educação requer um olhar mais abrangente, envolvendo novas formas de ensinar e de aprender condizentes com o paradigma da sociedade do conhecimento, o qual se caracteriza pelos princípios da diversidade, da integração e da complexidade.
Por outro lado, não se pode deixar de conhecer e de tratar as questões específicas destas possibilidades e suas inter-relações. Este nível de compreensão é que dá mobilidade para o profissional lidar com o inusitado de forma criativa, reflexiva, crítica e construtiva, rompendo com isso a aplicação de soluções prontas ou práticas padronizadas. Tais soluções e práticas não encontram eco no paradigma atual, no qual se torna evidente a necessidade de integração entre a gestão administrativa e a gestão da sala de aula, dos recursos tecnológicos e das áreas de conhecimento. O pensamento-ação exigido precisa considerar o movimento e a articulação entre o individual e coletivo, parte e todo, processo e produto, teoria e prática, ensino e aprendizagem.

Computador quântico

Os cientistas estimam que o computador quântico será capaz de realizar tarefas complexas como cálculos relacionados a criptografia ou buscas em gigantescas bases de dados muito mais rapidamente do que as máquinas atuais.
A base de funcionamento do teletransporte quântico é um fenômeno conhecido como entrelaçamento (ou emaranhamento), que ocorre somente em escala atômica ou subatômica. Quando dois objetos são colocados em um estado entrelaçado, suas propriedades se tornam inextricavelmente ligadas.
Embora essas propriedades sejam desconhecidas até que possam ser avaliadas, o simples ato de medir qualquer um dos objetos determina instantaneamente as características do outro, não importando a distância em que estejam separados.
No novo estudo, os pesquisadores entrelaçaram os estados quânticos de dois íons de itérbio (elemento químico da família dos lantanídeos) de modo que a informação contida na condição de um pudesse ser transferida para o outro.
"O sistema tem o potencial para formar a base de um 'repetidor quântico' em grande escala capaz de funcionar como uma rede para memórias quânticas em grandes distâncias. Os métodos que desenvolvemos poderão ser usados conjuntamente com operações de bit quânticos para criar um componente central necessário para a computação quântica", afirmou Christopher Monroe, um dos autores do estudo.

Os Bits quânticos, ou qubits:
Cada íon foi isolado em um invólucro no vácuo, suspenso em uma gaiola invisível formada por campos eletromagnéticos e envolta por eletrodos. Os cientistas identificaram dois estados discerníveis, de menor energia, dos íons, que serviriam como valores alternativos de um bit quântico (ou qubit). Bits (dígitos binários) eletrônicos convencionais, como os de um computador pessoal, estão sempre em um de dois estados: ligado ou desligado, ou 0 ou 1. Os bits quânticos, entretanto, podem estar em alguma combinação (superposição) dos dois estados ao mesmo tempo - como uma moeda que ficasse simultaneamente tanto na cara como na coroa. E é justamente esse fenômeno inusitado que dá à computação quântica seu enorme potencial.
Cada íon foi inicializado em um estado básico. Em seguida, o primeiro (íon A) foi irradiado por uma emissão específica de micro-ondas de um dos eletrodos, ficando em uma superposição de estados, como se escrevesse em sua memória a informação a ser teletransportada.
Imediatamente, os dois íons foram excitados durante um trilionésimo de segundo por um laser. A duração do pulso foi tão pequena que cada íon emitiu apenas um único fóton à medida que recebeu a energia do laser e retornou a um dos estados quânticos iniciais.

Cálculos simultâneos usando Processador de Luz, com cores diferentes

Pesquisadores da Universidade de Toronto, no Canadá, descobriram novos comportamentos da luz no interior de cristais fotônicos que poderão ser explorados para a construção de processadores ópticos que superam largamente os atuais processadores eletrônicos. E com a vantagem de não superaquecerem.
"Descobrimos que, ao esculpir um vácuo artificial específico no interior de um cristal fotônico, podemos controlar inteiramente o estado eletrônico dos átomos artificiais dentro desse vácuo", diz Xun Ma, que fez a descoberta sob a orientação do Dr. Sajeev John.
"Esta descoberta poderá viabilizar a construção dos computadores fotônicos, que são [potencialmente] mais de cem mais rápidos do que seus equivalentes eletrônicos, sem os problemas de dissipação de calor e outros gargalos atualmente enfrentados pela computação eletrônica," diz Ma.
Os pesquisadores estavam tentando entender o chaveamento óptico, uma etapa fundamental para a construção de um transístor que funcione inteiramente com luz, em contraposição aos transistores atuais, que funcionam com base na passagem de corrente elétrica.
Vários grupos de cientistas já demonstraram a viabilidade dos transistores ópticos. No início de 2009, pesquisadores suíços apresentaram um transístor totalmente óptico com excelentes perspectivas.
Mas, como a área é de fronteira, ainda não está claro qual será a solução tecnológica que sairá vencedora. Outros avanços recentes incluem a comunicação nanofotônica no interior de um chip e até um mais versátil transístor a laser, que possui uma saída elétrica e outra óptica.
Ao tentar construir sua própria versão de uma chave liga-desliga que funcione inteiramente com luz, os pesquisadores canadenses depararam-se com um novo e inesperado mecanismo de chaveamento óptico. A descoberta exigiu a correção de uma das mais fundamentais equações da óptica quântica, conhecida como Equações de Bloch.

segunda-feira, 18 de janeiro de 2010

Teletransporte de Informações

Já é possível teletransportar informação entre dois átomos isolados em compartimentos e distantes 1 metro um do outro. Trata-se de uma conquista importante na busca por um computador quântico.
O teletransporte de informação não deve ser confundido com o de pessoas, visto em filmes de ficção como a série Jornada nas Estrelas. Mas nem por isso deixa de ser algo inusitado, talvez a mais misteriosa forma de transporte possível na natureza.
No teletransporte quântico, a informação (como o spin de uma partícula ou a polarização de um fóton) é transferida de um local a outro sem que ocorra o deslocamento por um meio físico. Não há transferência de energia nem de matéria.
Estudos anteriores conseguiram realizar o teletransporte entre fótons por longas distâncias, entre fótons e grupos de átomos e entre dois átomos próximos por meio da ação de um intermediário. Mas nenhum desses casos ofereceu uma maneira viável de manter e controlar a informação quântica por longas distâncias.
Agora, o grupo do Joint Quantum Institute, das universidades de Maryland e Michigan, nos Estados Unidos, obteve sucesso no teletransporte de um estado quântico diretamente de um átomo para outro por uma distância expressiva para esse tipo de estudo.

Entrelaçamento quântico em circuitos de estado sólido

Pela primeira vez, físicos demonstraram de forma convincente que partículas fisicamente separadas, colocadas em dispositivos de estado sólido diferentes, podem permanecer quanticamente entrelaçadas (tudo o que acontecer a uma, influenciará imediatamente a outra). O feito é semelhante ao entrelaçamento quântico da luz, exceto que se trata de partículas em um circuito, em vez de fótons em sistemas óticos.
Tanto o emaranhamento ótico quanto o emaranhamento de estado sólido representam rotas potenciais para o desenvolvimento da computação quântica e das comunicações seguras, por meio da criptografia quântica, (virtualmente inquebrável).
Nos experimentos de entrelaçamento ótico - usados também nas experiências de teletransporte - um par de fótons emaranhados pode ser separado por um aparato que divide um feixe de luz em dois (divisor de feixe). Apesar da sua separação física, os fótons entrelaçados continuam a agir como se fossem um único objeto quântico - qualquer alteração em um implica uma imediata alteração no outro, qualquer que seja a distância entre os dois.
A equipe de físicos da França, Alemanha e da Espanha que realizou o primeiro experimento de entrelaçamento quântico de estado sólido, usou elétrons em um supercondutor no lugar dos fótons em um sistema ótico. Conforme se resfria um material supercondutor, os elétrons se entrelaçam para formar o que é conhecido como pares de Cooper.
No novo experimento, os pares de Cooper fluem por uma ponte supercondutora até atingirem um nanotubo de carbono, que funciona como o equivalente eletrônico de um divisor de feixe.
Ocasionalmente, os elétrons tomam caminhos diferentes e são direcionados para pontos quânticos separados - mas continuam entrelaçados quanticamente. Embora os pontos quânticos estejam separados por uma distância de apenas um micrômetro, a distância é grande o suficiente para demonstrar o entrelaçamento comparável ao que é observado em sistemas óticos.
Além da possibilidade de utilização de elétrons entrelaçados em computadores quânticos de estado sólido, a descoberta abre um caminho totalmente novo para o estudo de sistemas quânticos entrelaçados em materiais sólidos.
Bibliografia:

Carbon Nanotubes as Cooper-Pair Beam Splitters
L.G. Herrmann, F. Portier, P. Roche, A. Levy Yeyati, T. Kontos, C. Strunk
Physical Review Letters
11 January 2010
Vol.: 104, 026801 (2010)
DOI: 10.1103/PhysRevLett.104.026801

A Era da Informação: economia, sociedade e cultura

Manuel Castells, um sociólogo espanhol (primeiro grande sociólogo do ciberespaço),engajado politicamente, exilado na França anos 60 e expulso em 68.Foi professor em inúmeras universidades: Paris, México, Santiago, Madri, Barcelona e Berkeley. Tem seu trabalho dividido em duas fases: centrado na sociedade civil e nos movimentos populares; análise do impacto das novas tecnologias sobre a sociedade. Sua obra: A era da informação (3 volumes) apresenta a trilogia: A sociedade em rede, O poder da identidade e Fim de milênio.
Castells definiu Educação como: “Processo pelo qual as pessoas... adquirem a capacidade para uma redefinição constante das especialidades necessárias a determinada tarefa e para o acesso às fontes de aprendizagem dessas qualificações especializadas.”
Castells também apresentou as características deste novo mundo:
– Na esfera tecnológica:
• Revolução da tecnologia da informação
– base material = informacionalismo; riqueza, poder e códigos culturais
– elemento principal = tecnologia da informação
– ferramenta principal para reestruturação socioeconômica;possibilitou a formação de redes; maior dinamismo e flexibilidade.
– Na esfera econômica
– Meados 70: Crise capitalismo e estatismo
– Nova forma de capitalismo = Capitalismo informacional
» globalizado
» flexível
» menor poder trabalhador
– Tecnologia:Dualidade conexão x desconexão
– Estatismo:
» Queda União Soviética (incapacidade de assimilar o informacionalismo)
– Na esfera social:
– Final anos 60: explosão de movimentos sociais em diversos países do mundo industrializado
– movimentos culturais
» “objetivo mudar a vida e não assumir o poder”
» “crítica à cultura do consumismo”
» curta duração, mas consistiram em fonte de idéias para várias transformações
» “impactando sobre a economia, a tecnologia e os resultantes processos de reestruturação”
– Divisão das sociedades: elites ativas e grupos sociais inseguros

Novos Nanossensores são capazes de detectar sinais de câncer no sangue.

Pesquisadores da Universidade de Yale, nos Estados Unidos, construíram nanossensores capazes de detectar biomarcadores de câncer em uma amostra real de sangue, um feito que poderá simplificar o diagnóstico de tumores e de outras doenças.
O feito foi possível graças à união dos sensores construídos pela nanotecnologia com os biochips (pequenos laboratórios de análises clínicas que cabem na palma da mão), construídos com a mesma tecnologia usada na fabricação dos processadores de computador.
A equipe liderada pelos doutores Mark Reed e Tarek Fahmy usou sensores construídos com nanofios (fios milhares de vezes mais finos do que um fio de cabelo humano), para detectar e medir as concentrações de dois biomarcadores específicos: um para o câncer de próstata e outro para o câncer de mama.
"Os nanossensores vêm sendo desenvolvidos ao longo dos últimos 10 anos, mas até agora eles só funcionavam em condições controladas de laboratório", disse Reed. "Esta é a primeira vez que alguém consegue usá-los para analisar uma amostra de sangue pura, uma complexa solução de proteínas e íons e outros compostos que afetam a detecção."
Para superar o desafio de trazer os nanossensores para a prática, os pesquisadores desenvolveram um novo dispositivo que funciona como um filtro que captura os biomarcadores que estão sendo procurados, retirando-os do sangue e direcionando-os para o interior de um biochip, onde são instalados os nanossensores.
O acúmulo dos antígenos específicos para o câncer de próstata e para o câncer de mama no interior do biochip permite sua detecção pelos sensores de nanofios em concentrações extremamente baixas - da ordem de picogramas por mililitro - com 10% de precisão, (isto é o mesmo que detectar a concentração de um único grão de sal dissolvido em uma piscina olímpica).
Atualmente, os métodos de detecção só são capazes de indicar se um determinado biomarcador está presente ou não no sangue quando ele atinge concentrações suficientemente elevadas para que o equipamento de detecção faça estimativas confiáveis da sua presença. "Este novo método é muito mais preciso e é muito menos dependente da interpretação do operador do equipamento," diz Fahmy.
Além de depender de interpretações de certa forma subjetivas, os testes atuais também são muito trabalhosos. Eles exigem a coleta de uma amostra de sangue, que é enviada para um laboratório onde uma centrífuga separa os diferentes componentes do sangue, isolando o plasma. Finalmente, o plasma sanguíneo é submetido a uma análise química com várias horas de duração. Todo o processo pode levar vários dias.
Em comparação, o novo dispositivo é capaz de ler as concentrações de um biomarcador em poucos minutos. "Os médicos poderiam ter esses pequenos aparelhos portáteis em seus consultórios e obter leituras quase instantâneas", diz Fahmy. "Eles também poderiam levá-los consigo e examinarem os pacientes a domicílio."
Os novos nanossensores também poderão ser utilizados para testar uma ampla gama de biomarcadores ao mesmo tempo - indicadores de condições tão diversas quanto o câncer de ovário e as doenças cardiovasculares.
"Nós trouxemos o poder da microeletrônica moderna para a detecção do câncer," conclui o Dr. Reed, que acrescenta que não vê empecilhos para que a nova tecnologia chegue rapidamente ao uso clínico.
Bibliografia:

Label-free biomarker detection from whole blood
Eric Stern, Aleksandar Vacic, Nitin K. Rajan, Jason M. Criscione, Jason Park, Bojan R. Ilic, David J. Mooney, Mark A. Reed, Tarek M. Fahmy
Nature Nanotechnology
Vol.: Published online
DOI: 10.1038/nnano.2009.353

quinta-feira, 14 de janeiro de 2010

TECNOLOGIA ARTIFICIAL MAIS HUMANA

Impensável antes da descoberta da estrutura do DNA, em 1953, a compreensão da mente em termos biológicos é o principal desafio da ciência do século 21. É a possibilidade de entender, finalmente, os caminhos da aprendizagem, da percepção, das lembranças e da consciência, e também a fronteira do livre-arbítrio. A maior dificuldade em um projeto de engenharia reversa do córtex é também a mais óbvia: como reconstruir algo que não sabemos ao certo como funciona. Fundindo as máquinas mais velozes do mundo à nanotecnologia e à neurociência, as simulações, hoje, não passam de aproximações.
147.456 processadores, 143 terabytes de memória, 6.675 toneladas de aparelhos de ar condicionado, milhões de watts de energia elétrica e quase 4 mil metros quadrados de área. É esse o tamanho do maior cérebro artificial do mundo, construído no laboratório de inovação IBM, na Califórnia. “A capacidade computacional da mente é absurda. Por isso, criamos um modelo para tentar entendê-la”, explica o cientista indiano Dharmendra Modha, chefe do setor de computação cognitiva da IBM e criador do projeto. Para ele, “o cérebro é um paradigma”, pois “consegue sentir, perceber, interagir, lidar com ambigüidade e entender contextos” e, mesmo assim, “usar menos energia do que uma lâmpada e ocupar um espaço mínimo”.
Mas e a meta da tecnologia, ao que tudo indica, é tentar seguir esses mesmos passos. Mesmo com poder de arquivamento enorme, as máquinas ainda são incapazes de fazer o feijão-com-arroz da mente: pensar, sentir, adaptar-se.
Os projetos são inúmeros e promissores, tal como a cadeira de rodas que permite que pessoas paralisadas a controlem apenas com o pensamento, da Toyota.
Até o consumo deve ser afetado, como mostra uma pesquisa do Intel Labs, de Pittsburgh, que tem o objetivo de “ensinar as máquinas a entender um algoritmo daquilo que pensamos”, nas palavras do cientista Dean Pomerleau, chefe do projeto. A intenção é que, a partir disso, sejam desenvolvidas “interfaces mais ricas que as de hoje”, que seriam controladas sem dispositivos.
Montar um cérebro artificial, peça por peça, para finalmente entender como a mente real funciona, é o objetivo do projeto desenvolvido pela IBM, e financiado pelo Departamento de Defesa dos EUA, que tenta reduzir um universo de conexões a uma série de padrões que reconstruiria as ações do córtex até 2019. A IBM, segue firme no projeto, carro-chefe do seu laboratório de inovação, em Almaden, na Califórnia.
Combinando a neurociência e a nanotecnologia, a empresa espera em longo prazo “demonstrar os algoritmos da mente e desenvolver compactos computadores que se aproximem dessa inteligência”.
Por outro lado, mapear o cérebro e entender suas reações para, depois, desenvolver uma interface que acabaria com a necessidade de um equipamento físico para controlar a televisão ou o computador, é o objetivo de uma pesquisa em curso no Intel Labs. “Ao decodificar o cérebro, conseguiremos desenvolver interfaces integrando a tecnologia aos nossos pensamentos”, diz Dean Pomeleau, responsável pela idéia.
A fusão entre o cérebro humano e as máquinas é uma das grandes promessas da ciência atual. Rastreando as ondas cerebrais e transportando-as para um dispositivo robótico, as diversas pesquisas no mundo todo desenvolvem protótipos, que como o da cadeira de rodas que dá autonomia aos quadriplégicos, mencionado anteriormente, e um sistema de escrita que lhes devolve a palavra (que vem direto do cérebro).

A MUTAÇÃO DA MENTE

A internet muda nosso cérebro. Eis a conclusão do livro‘iBrain – Sobrevivendo à Alteração Tecnológica da Mente Moderna’, (inédito no Brasil) do neurocientista americano Gary Small, diretor do Centro de Pesquisa em Memória e Envelhecimento da Universidade da Califórnia. Small percebeu que pessoas com pouca experiência na web, quando online, mostravam atividade na linguagem, memória e centros visuais do cérebro, o que é típico de quem está lendo. Já usuários experientes tinham mais atividade nas áreas de tomada de decisão. Após cinco dias seguidos de navegação, a atividade cerebral dos novatos ficou mais parecida à dos veteranos. O cérebro adaptou-se rapidamente ao uso da rede.
Agora, há uma boa e uma má notícia aí: a boa é que, se você for mais velho, navegar pode ajudar a mantê-lo afiado; a má é que os mais experientes têm a capacidade neural muito consumida e sobra pouco para outras habilidades. Isso pode ser um indício do porque é difícil ler quando estamos online. É como ler um livro e fazer palavra-cruzada ao mesmo tempo.
A idéia do iBrain surgiu desenvolvendo tecnologias para estudar o cérebro à medida que envelhece. “Fiquei impressionado como as novas tecnologias, em especial, a internet, têm um efeito profundo em nossas vidas. Gostaria de saber qual o efeito delas no cérebro” – comenta o autor.
A Internet melhora a inteligência das pessoas, porque de certa forma cria uma extensão da memória biológica – temos um ‘HD externo’ com imensa quantidade de informações acessível a qualquer momento. Sacrificamos a profundidade pela amplitude. Os pontos positivos são: a possibilidade de se relacionar e colaborar em rede e o acesso instantâneo à informação. Os negativos incluem a o comprometimento da atenção e da dependência da tecnologia.
“Prevejo que vamos ter implantes de micro-chip no cérebro que nos ligarão a internet e a discos rígidos externos. Não vamos mais usar mouse e teclado. Vamos pensar em algo e instantaneamente isso vai acontecer”.

O PROJETO WALK AGAIN

Miguel Nicolelis, um dos principais expoentes dos estudos do cérebro, acredita que a ligação entre a tecnologia e a mente é indispensável para a solução de problemas em ambas as áreas. “Estamos investigando o sistema nervoso como uma forma distribuída e, com isso, estamos aprendendo o que acontece quando colocamos milhões ou bilhões de elementos trabalhando juntos. É uma ciência completamente nova e os computadores, muito inferiores na capacidade de analisar e entender contextos, só têm a aprender com a mente”, diz o fundador do Instituto de Neurociência que funciona desde 2005 em Natal, no Rio Grande do Norte, e que repatriou diversos pesquisadores brasileiros.
O brasileiro é um dos principais nomes de um projeto global chamado Walk Again, que une pesquisadores para construir uma espécie de exoesqueleto para humanos, nos moldes daquele dos besouros. Ligando a mente diretamente a um “terno” robótico (já em desenvolvimento), seria possível trazer movimentos de volta às pernas e aos braços de pessoas paralisadas, que controlariam a estrutura com pensamentos.
Eleito um dos 20 cientistas mais importantes do mundo pela revista Scientific American, Nicolelis é considerado o número 1 em sua especialidade, a neurobiologia, e seu maior projeto é conectar mente e robótica para fazer que quadriplégicos voltem a andar.
O pano de fundo desse experimento é a idéia de que, se fizermos com que um chip – ou uma ‘neuroprótese’ – capte os sinais da mente e transmita-os para um membro artificial em 200 milissegundos (que é o tempo em que um braço biológico responde aos impulsos), o cérebro entenderá aquela prótese mecanizada como uma parte do corpo.
“Já publicamos um trabalho mostrando a devolução do sinal de um computador diretamente para o cérebro humano”, afirma Nicolelis. “É como um tenista com uma raquete. Como ele a usa sempre, aquela ferramenta é assimilada como uma extensão do corpo. Com a interface cérebro-máquina, isso já está ocorrendo, pois alguns experimentos dizem que o corpo pode se acostumar de forma mais rápida do que nesse exemplo que eu dou, pois há uma ligação direta entre os estímulos neurais e o robô”, explica o médico, que hoje busca adaptar seus projetos para o uso clínico.
“Não há máquina que tenha visão crítica e ativa da realidade, que generalize e entenda contextos. A nova computação deve evoluir imitando o cérebro”, decreta Miguel Nicolelis. O futuro da tecnologia artificial é se tornar um pouco mais humana.
As máquinas, ao simular situações pelas quais o cérebro passa, cujo tema faz parte fundamental da nova neurociência que, apesar de já mostrar resultados, ainda dá os seus primeiros passos na compreensão total da mente. Por isso, em 2010, o chamado “Campus do Cérebro” idealizado por Nicolelis receberá um supercomputador Blue Gene/L, capaz de fazer 42 trilhões de operações por segundo – uma doação da Universidade de Lausanne, na Suíça. “Acho que, com essa união entre computação e cérebro, só temos a evoluir”, finaliza.

O FUTURO DIGITAL

O termo ciberespaço foi popularizado com a publicação de Neuromancer, de William Gibson em 1984, e não faz mais o menor sentido atualmente. O russo Lev Manovich, professor-diretor do grupo de Estudos Culturais do Software na Universidade da Califórnia, comenta: “Projetada como uma utopia na ficção cyberpunk, a web se concretizou e, com o tempo, foi totalmente domesticada e assimilada. Não há mais razão, portanto, para diferenciar online de offline, ou mesmo cultura de tecnologia: Esses espaços se fundiram e hoje são o mesmo. É tudo um fluxo contínuo”. Para ele, a separação entre os mundos real e virtual valeu só até 2005, quando a fusão se completou, com a ascensão da web 2.0 e das mídias sociais. A interatividade que isso trouxe é “uma mudança fundamental para a cultura humana”, mas apenas o começo do que uma sociedade inteiramente digitalizada poderá produzir.
Para Manovich, no mundo atual, o conceito de autoria fica cada vez mais borrado e, aos poucos, deixa de existir, assim como o ciberespaço futurista de Gibson. Todos seremos autores a cada livro lido, game jogado, disco ouvido. A cada vez que jogamos um videogame, diz o pesquisador: “a chance de duas pessoas percorrerem o mesmo espaço e fazerem as mesmas decisões é próxima do zero”. A arte do futuro não será mais feita de quadros ou instalações e nem mesmo de conceitos, e sim de cada jogo iniciado, da “experiência de cada pessoa”. A tensão entre a velha e a nova mídia, que ele estudou em seu livro mais comentado, The Language of the New Media (A linguagem da nova mídia), ainda não teria produzido um efeito significativo nos escritores, eles estão perdendo a batalha pela atenção dos leitores, para os milhares de blogs na internet.
“As novas tecnologias transformaram a forma de analisar a cultura. A linguagem colaborativa veio com a rede e se concretizou há apenas cinco anos. Ela já criou formatos e ainda vai mudar muito a produção de conhecimento” – Lev Manovich.
“Hoje, muito mais gente produz cultura e tudo faz parte de uma grande nuvem de informações. As pessoas escolhem pedaços de informação dessa nuvem e fazem suas próprias versões. O remix, que já foi tabu, hoje é o padrão” - Lev Manovich

Artur Matuck, um brasileiro excêntrico que trabalha com mídias digitais. Pouco conhecido fora do meio artístico e acadêmico, foi um dos pioneiros ao pensar a transformação que o impacto das linguagens do vídeo, do computador e da internet em uma época em que essas tecnologias nem eram populares.
Na década de 1970, Matuck propôs um selo que identificava obras que pudessem ser copiada gratuitamente. O símbolo ganhou o nome de “Semion” – “Sinal Internacional para Informação Liberada”. “Era uma idéia de contestação, de que a propriedade intelectual, o copyright e as patentes deveriam ser combatidos e de que poderia haver outra maneira de as pessoas serem criativas e de a informação se espalhar.”
Matuck também é excêntrico porque atua em áreas aparentemente distintas. Além de ser professor livre-docente de comunicação digital na Escola de Comunicação e Artes da USP, como videoartista, abordou matadouros nos EUA – ele é vegetariano e combate a “escravidão dos animais”; criou um software que confunde as letras digitadas (para dar a idéia de co-autoria entre homem e máquina); e já chegou a misturar poesia com ficção científica.
Sua atual proposta é bem provocadora: “a de que o acesso à tecnologia digital deveria ser um Direito (com D maiúsculo mesmo) do ser humano”. Uma vez que, na sociedade, é essencial que cada pessoa tenha uma identidade na internet – seja ela por e-mail, por redes sociais ou por uma conta no site da Receita Federal – o acesso a essas ferramentas deveria ser garantido, por que não, até pela Constituição. “A linguagem contemporânea passa pelas linguagens computacionais e da mídia. E os seres humanos deveriam ter direito a usar a linguagem do seu tempo. Todo mundo deveria ter direito a usar os softwares mais complexos, mais avançados.”
Matuck não defende a pirataria. Acredita que é, sim, um crime fazer download ilegal. Só que soluções precisam ser criadas. E cita a fotografia, cuja patente foi comprada pelo governo da França, no século 19, e doada para a humanidade. “É o primeiro exemplo de open source (código aberto) da história.” Quem sabe, um dia, isso possa acontecer com softwares?
A representação virtual é essencial para a negociação política. “Para que grupos e pessoas se representarem no mundo virtual e terem atuação relevante, eles têm de dominar linguagens que a escola ou a universidade não ensinam” - Artur Matuck
“Não estou de acordo que as pessoas devam ser acusadas (por fazer download). Há campanhas de livreiros que falam que copiar um livro é um crime. Eu acho que essa frase é um crime. Quer dizer que autoeducar é um crime” - Artur Matuck

O BLOG TECNOCULTURA E SOCIEDADE

O tema “Tecnologia, Cultura e Sociedade” tem se desenvolvido em todos os sentidos e vem adquirindo crescentes condições para que se aumente a legitimidade de sua discussão.
Assim, este Blog busca exercer sua vocação de estudar o fenômeno informação buscando apreendê-lo a partir dos contextos sociais de sua produção, organização e uso.
Tradicionalmente “Tecnologia, Cultura e Sociedade” se refere à sociologia da ciência e à sociologia da tecnologia. A proposta deste Blog é o de discutir a temática.
Segundo o Prof. Amilcar Herrera, (fundador do Instituto de Geociências da Unicamp) na década de 70, “Cultura” é a uma memória coletiva. Isso se aplicaria tanto às tradições quanto a um conhecimento coletivo acumulado sobre determinado ramo da ciência ou da tecnologia por um povo ou por uma empresa.
Poderíamos dizer também que cultura refere-se a uma produção coletiva: Muito atual, considerando a cibercultura, o creative commons, dentre outros.
Junte-se à nós, venha discutir, e participar desta produção coletiva.