Pesquisar neste blogue

quinta-feira, 3 de junho de 2010

Produtos Multimédia (continuação)


Webmarketing é um conjunto de instrumentos que destacam a empresa na internet, aproximando-a dos consumidores e posicionando a marca no mercado.

A criação de um website é o primeiro passo para colocar a empresa na internet. A questão que se prende com a estratégia de estar presente ou não na internet depende se os seus clientes ou possíveis clientes lá estejam, isto é se o segmento de mercado de uma empresa utiliza frequentemente a internet, tem acesso fácil e rápido, interessa-se pelo mercado online então a empresa deve obviamente ter um Website que a dê a conhecer, caso não seja, fidelize os clientes e permita o seu reconhecimento.

Alguns dos objectivos do webmarketing passam por captar, manter ou melhorar o relacionamento com os clientes, divulgar e promover os produtos ou serviços e aumentar as visitas ao site. Estes objectivos serão concretizados se houver um bom estudo por detrás e forem tomadas as medidas fundamentais para que este seja encontrado e visitado repetidas vezes. Assim, é necessário que seja fácil de encontrar, design apelativo, possível de interacção por parte do utilizador e contenha valor agregado. Acções como publicidade e promoção de vendas online, e-mail marketing, press release são acções que devem ser tidas em conta quando se pretende estar presente neste mundo.

A publicidade online é uma forma de comunicação persuasiva, por vezes até demais na minha opinião, que utiliza canais da internet. É uma boa forma de medir a adesão do público a determinadas campanhas ou visitas ao site e, assim, é possível avaliar o desempenho das estratégias. A publicidade online tem baixos custos de colocação, distribuição de informação sem restrições e flexibilidade de uso. Por outro lado, tem desvantagens no que diz respeito à relutância por parte dos utilizadores, isto é, se a publicidade não for apelativa e chamar a sua atenção não terá sucesso. Esta pode ser feita através de banner, minibanner ou botão, links patrocinados no Google por exemplo, pop-up, viral, e-mail, newsletters, entre outros.

O e-mail marketing é uma ferramenta de marketing directo, ou seja, é direccionado exactamente para os clientes que se pretende, optimizando o processo de comunicação, é personalizado, rápido e pratico e com baixos custos. Para que a utilização deste tipo de ferramentas funcione é necessário que haja uma boa base de dados actualizada.

quarta-feira, 2 de junho de 2010

Produtos Multimédia


As tecnologias da informação, vieram, sem dúvida, revolucionar o mundo com a sua evolução constante, e, no âmbito do marketing, estas também facilitaram e progrediram em muito as técnicas e os métodos utilizados para chegar ao público-alvo, sempre com o objectivo de, cada vez mais, satisfazer as suas necessidades. A globalização é outro factor relacionado com o avanço das tecnologias e que, com as exigências impostas pelos mercados, passou a ser uma preocupação a qualificação da mão-de-obra, a facilidade de efectuar trocas comerciais assim como oferecer produtos de alta qualidade que satisfaça em pleno as exigências dos consumidores. Por outro lado, está também patente a necessidades que as empresas têm em transmitir uma boa imagem, baseada na transparência, sustentabilidade, responsabilidade social e ambiental.

A comunicação hoje está, portanto, muito mais desenvolvida que há uns anos atrás. Nos dias que correm existem inúmeras formas de comunicação através da internet e intranet. A quantidade de blogs, websites, broadcast, webcast, salas de conversação e imprensa, entre outros, com o apoio de bases de dados, bluetooth, newsletters e afins, são alguns exemplos de como é feita a maioria da comunicação dos dias de hoje.

O marketing directo consiste no contacto directo que uma empresa tem com os seus consumidores, isto é, a empresa direcciona a sua comunicação com os segmentos de mercado que lhe interessam para determinado fim. Esta ferramenta tem como objectivo a fidelização e satisfação dos clientes com base numa relação duradoura.

Com estes avanços tecnológicos e novas formas de comunicar, o marketing foi actualizando as suas formas de actuação e surgiram novas ferramentas que auxiliam as empresas nesta área como o marketing viral e de guerrilha. O marketing viral, muito resumidamente, centra-se em publicidades que são postas em circulação essencialmente na internet, como forma de divulgar uma marca de uma forma interessante e divertida e que por isso seja passada para todos os contactos. O marketing de guerrilha é uma forma de publicitar um produto ou marca na rua com baixos custos utilizando os recursos disponíveis através de ideias originais que chamam a atenção do público.










domingo, 30 de maio de 2010

Aplicações Multimédia


As aplicações multimédia foram desenvolvidas com o propósito de melhorar e facilitar a comunicação.

O desenvolvimento de produtos multimédia apresenta normalmente interfaces gráficas e um comportamento em tempo real, e usam também serviços de multimédia do ambiente operacional.

Estes produtos têm utilização em sites estáticos, dinâmicos, sites servidores de multimédia de fluxo contínuo.

Relativamente aos sites dinâmicos, as páginas destes contêm um código activo. Este código pode ser do tipo Script (código HTML) ou Componentes (arquivos de código binário, invocados quando a referência é localizada na Página). A execução deste código activo pode ser feita do lado do cliente ou do lado do servidor.

Os Scripts fazem com que a página responda com acções às solicitações do utilizador.

GCI, Common Gateway Interface, é um protocolo que serve para comunicar entre diferentes processos, forms da Web com programas.

Os Componentes activos são programas executados pela máquina do cliente e invocados pelos navegadores quando este encontrar a respectiva referência.

No que respeita à autoria de aplicações podem ser de aplicações com interface multimédia ou de aplicações multimédia. As aplicações com interface multimédia baseia-se numa construção visual da interface do utilizador, com recurso a ferramentas de desenho e formulários, apresentam mecanismos para inclusão de material na interface, fornecem a possibilidade de programação textual em linguagem de programação simples e mecanismo de tempo de execução distribuído com o aplicativo.

As interfaces têm objectivos que passam pela rápida aprendizagem, utilização também rápida, reduzida da taxa de erros e grande produtividade e uma fácil utilização das funções disponíveis.

As interfaces do utilizador podem ser de três estilos: WYSIWYG (what you se eis what you get), interfaces icónicas que economizam espaço de ambiente de trabalho, superam barreiras linguísticas e contribuem para a estética da interface.

domingo, 23 de maio de 2010

Ferramentas Multimédia

Neste âmbito, das ferramentas e aplicações multimédia, existem softwares de autoria e bibliotecas multimédia que são suportados por sistemas operacionais adaptados às necessidades das aplicações.

Nos tempos que correm, o mundo está, indiscutivelmente, em rede, isto é, todo o mundo está ligado. Através das novas tecnologias e da internet que interliga tudo e todos, há um maior e mais fácil acesso à informação.

Este avanço nas tecnologias e no próprio acesso à internet estão a converter o mercado de massas em milhões de nichos, isto é, há cada vez mais uma segmentação do mercado, através da qual são identificados os públicos-alvo consoante as suas características e especificidades próprias.

O mundo digital tem cada vez mais impacto na vida de todos e, por isso, é necessário trabalhar esta realidade com as ferramentas apropriadas. Quando isso acontece, estas ferramentas multimédia são libertadoras da criatividade colectiva.

A maioria das ferramentas utilizadas para criar aplicações multimédia, necessárias para a captura de imagens, conversão de formatos, compatibilidade entre diferentes plataformas e disponibilização de conteúdos na Web, contêm um ou mais softwares de autoria e vários editores que servem para manipular textos, imagens, som e vídeo.

As ferramentas de autoria podem ser títulos lineares e títulos hipermédia.

Como exemplos mais conhecidos de autoria de títulos lineares temos o PowerPoint e o Acrobat, com funcionalidades distintas.

O PowerPoint baseia-se num show de slides com editor de gráfico interno, transições, OLE (object linking and embedding) e exportação para a Web.

Os recursos do Acrobat Exchange passam pela edição de documentos, visualização de impressão, formato PDF e importação de Postscript.

Falando agora das ferramentas de autoria de títulos hipermédia temos o FrontPage Editor e o Dreamweaver.

No que diz respeito às ferramentas de edição, existem editores de texto, software para OCR (optical character recognition), ferramentas para pintura e desenho, ferramentas para animações e modelação 3D, editores de imagem, plug-ins, editores de som e ferramentas para animação, vídeo e imagens digitais.

quinta-feira, 20 de maio de 2010

Suportes de Armazenamento

Os suportes de armazenamento são utilizados com a finalidade de guardar dados/ informação permanentemente ou de forma semi-permanente. Estes suportes, dependendo da tecnologia de leitura e escrita dos dados, são classificados como magnéticos, semicondutores ou ópticos. Por outro lado, de acordo com o tipo de informação que se pretende guardar, é necessária a utilização de uma maior ou menor capacidade de armazenamento.

Os suportes magnéticos utilizam teorias electromagnéticas que estão associadas a partículas que proporcionam a gravação e leitura de dados como as bandas magnéticas e os discos rígidos. Relativamente à banda magnética, esta é mais precisamente um afita plástica coberta de material possível de magnetizar e pode ser utilizada para guardar informações analógicas ou digitais como áudio e vídeo. Falando agora do disco rígido, uma unidade de disco rígido é composta por vários discos e os dados são gravados nas suas superfícies. O disco rígido é composto por pistas, sectores e cilindro. O tempo de acesso ao disco depende do tempo da procura, da comutação das cabeças e do atraso rotacional.

Os suportes semicondutores surgiram nos anos 80 com a invenção de uma nova tecnologia de memória por parte da Toshiba – a memoria Flash. A partir dai houve uma grande evolução neste tipo de suporte e hoje em dia é o dispositivo de armazenamento preferido e mais utilizado. Isto porque, para além da facilidade de transporte e armazenamento de dados também é muito mais resistente que os tradicionais discos rígidos. A memória flash é um chip que permite regravar dados bem como apaga-los, preservando o seu conteúdo sem necessidade de alimentação. As memórias USB (ou Pen Drive) utilizam a tecnologia flash e contêm uma ligação USB. Por outro lado, existem também os cartões de memória que são dispositivos de armazenamento utilizados essencialmente em câmaras digitais, telemóveis, PDAs, Mp3, computadores e outros aparelhos electrónicos. Estas memórias podem ser regravadas várias vezes e também não necessitam de alimentação para guardar a informação.

Os suportes ópticos funcionam através de um laser que atinge uma camada de material metálico disperso sobre a superfície de um disco. A leitura dos dados e feita através da pesquisa que o laser efectua no disco e uma lente capta o reflexo de luz dos pontos. Estes suportes são caracterizados conforme a sua capacidade de leitura/ gravação e podem ser de três tipos: só de leitura (gravados pelo fabricante podem ser lidos mas não gravados), WORM (gravados uma única vez, não podem ser apagados mas podem ser lidos inúmeras vezes) e, por fim, Magneto-óptico (grande capacidade de armazenamento de um disco óptico e pode ser gravado como um disco magnético).

Quanto aos discos compactos estes podem ser de quatro tipos: CD-ROM (Compact disk read-only), unidade com memória apenas para leitura, não dá para gravar e têm uma capacidade de memória de 700 Mb; CDR (compact disk recordable), pode ser gravado uma única vez; CD-RW (compact disk rewriteble), este tipo de disco é regravável, isto é, podem ser gravados e apagados os dados imensas vezes; e DVD-ROM (digital versatile disk) dos quais existem vários tipos, podendo conter uma memória de cerca de 9 Gb e possíveis de gravar dos dois lados, proporcionam benefícios relativos à qualidade do som e à capacidade de armazenamento e podem também ser graváveis e regraváveis.





quarta-feira, 19 de maio de 2010

Mundos Virtuais

Os mundos virtuais são uma realidade que abarca grande parte dos utilizadores das novas tecnologias. Estima-se que até ao próximo ano 4 em cada 5 pessoas que utilizam a internet irão participar activamente no “Second Life” ou nalgum sistema do género.

A recriação de um mundo, paralelo ao real, é um fenómeno mais que corrente. São criados ambientes virtuais onde as vidas paralelas são simuladas e determinadas pelo seu criador, com todas as virtudes e defeitos existentes no mundo real mas com a coordenação e desejo de cada indivíduo.

Os novos mundos virtuais surgem como novas ferramentas de divulgação das marcas. Pode-se ainda dizer que existe nos mundos virtuais a modificação da cultura real, na qual o utilizador e seu avatar podem representar uma só vontade, ou podem representar vários desejos possíveis de se concretizarem apenas na realidade virtual.

O fenómeno virtual mais conhecido deste género é o Second Life, aqui é possível, para além da sensação de uma vida diferente e perfeita até através da criação de um avatar (residente do mundo virtual), ter e fazer tudo o que se possa imaginar, o limite do que pode acontecer neste mundo depende exclusivamente da criatividade dos seus avatares. São dotados de uma forte economia que tem levado empresas como a IBM a comprar ilhas virtuais e promoverem assim os seus negócios neste mundo. Até a própria Universidade de Aveiro tem uma ilha no Second Life.

A origem de Mundos ou Ambientes Virtuais foi marcada com a criação de chats como o IRC, ambientes de jogos (Doom, Renderman), posteriormente o cinema (Matrix – Hollywood), ficção (passageiro do futuro) e, ultimamente a definição de avatares, organizações do real life presentes no Second Life.

Estes mundos fazem, indiscutivelmente, parte do chamado marketing digital, isto é, são uma ferramenta de Marketing Digital. Assim, falando agora desta área, foram determinadas sete forças do Marketing Digital que são a interactividade, a personalização, a globalização, a integração, a aproximação, a convergência e a democratização da informação. Estas oferecem uma nova dimensão à comunicação, às vendas e ao relacionamento com o mercado bem como o próprio surgimento de oportunidades de negócio.

O marketing está, mesmo que implicitamente, envolvido na criação/ surgimento de toda a envolvente relacionada com estas ferramentas tecnológicas, com estes mundos. Isto é, o negócio por detrás destas novidades, destas realidades, é sem dúvida desenvolvido pelo marketing. A presença de empresas/ instituições a nível digital deve-se a oportunidades que surgem uma vez que os públicos destas mesmas empresas se encontram presentes nesta realidade virtual, é o utilizador que escolhe e decide os conteúdos que quer visualizar, as ferramentas que pretende utilizar bem como as marcas e produtos que preferem.

O marketing passa por uma revolução, alterando e evoluindo as suas técnicas consoante os avanços tecnológicos. A guerra do marketing passa por antever as tendências e antecipar os concorrentes.





sábado, 15 de maio de 2010

Realidade Virtual


A realidade virtual pode ser descrita como um conjunto de tecnologias que, apoiadas no uso do computador que pode simular a nossa realidade ou outras realidades criadas pela nossa fantasia.

As primeiras experiencias realizadas ao nível da realidade virtual foram no século XX através do desenvolvimento do Sensorama e do Cinerama.

O Sensorama era uma espécie de cabine equipada com um dispositivo para visão estereoscópica que permitia ao utilizador experimentar uma combinação de visão tridimensional (segmentos de filmes 3D), som estéreo, vibrações mecânicas, aromas, e vento. Deste modo, o utilizador concretizava uma viagem multissensorial numa realidade artificial sem sair do mesmo lugar.

O Cinerama é uma tecnologia que consistia no uso de três câmaras que gravavam um filme de diferentes ângulos e que era projectado em três grandes telas curvas causando, assim, aos visualizadores a impressão de estar dentro do filme.

Realidade virtual é a junção de três ideias básicas: imersão (sentimento de que se faz parte do próprio ambiente, capacete de visualização ou salas com projecções nas paredes, tecto e chão), interacção (capacidade que o computador tem de detectar as entradas do utilizador e modificar instantaneamente o mundo virtual, capacidade reactiva) e envolvimento (grau de motivação dado ao utilizador para que ele se emprenhe em determinada actividade). Um bom exemplo que demonstra que estes três elementos estão presentes na realidade virtual são os jogos de vídeo. O utilizador entra num jogo e esquece o mundo que o rodeia, bloqueia os cinco sentidos única e exclusivamente para um único fim: o jogo, interage com a consola controlando os movimentos e decidindo os passos a dar e maioritariamente a motivação que é dada é a dificuldade que por vezes existe para terminar determinados níveis do jogo e quando este fim é conseguido são dados incentivos, remunerações pelo desempenho.

Nos dias que correm, a realidade virtual é já uma tecnologia bastante utilizada, acessível a muitos e que facilita e permite determinadas acções que de outro modo seriam difíceis ou até impossíveis. Abrange imensas áreas de investigação e actuação nomeadamente a saúde, educação, engenharias, marinha, exército, arquitectura e construção, representação, entre outros.









segunda-feira, 10 de maio de 2010

Compressão de Imagens


Princípios da teoria rate-distortion


Tendencialmente os dados de imagem possuem um elevado grau de redundância espacial, o que significa que os valores dos pixéis tendem a repetir-se com muita frequência. Por outro lado, os dados de imagem são destinados essencialmente à apresentação a um utilizador humano e, por isso, como forma de diminuir ao mínimo possível o débito binário fundamental para a obtenção de um fluxo de dados de imagem é crucial explorar as características de cada componente do sistema de compressão com perdas.

Nos sistemas de compressão com perdas, a compressão é obtida através da exploração das redundâncias espaciais contidas na imagem e das características perceptivas do sistema visual humano, fazendo com que a perda introduzida pela compressão seja imperceptível ao sistema visual do utilizador humano.


Função rate-distortion para imagens

A compressão com perdas, dada a eliminação de informação, fornece rácios de compressão mais elevados que a compressão sem perdas. No entanto, em qualquer sistema de compressão com perdas existe uma solução de compromisso entre a perda (distorção), D, que se pretende minimizar e o débito binário do fluxo de dados comprimido, R, que também se pretende minimizar para comprimir a informação da imagem.

Assim, o valor de R exprime-se em bits por cada símbolo codificado (pixéis) e o valor de D é normalizado pela variância dos dados de entrada no codificador. O rácio de compressão correspondente a um determinado débito binário obtém-se dividindo o débito binário da imagem de entrada (profundidade de cor) pelo débito binário (R) da imagem comprimida.


Quantificação

A principal forma de compressão em qualquer método de compressão com perdas é constituída pelo processo de quantificação dado que é durante este processo que ocorre a perda.

Antes da quantificação, a imagem pode conter um grande número de valores distintos para codificar a cor e o brilho dos pixéis. O algoritmo aplicado pelo quantificador, para na redução do número total de valores diferentes necessário para a apresentação de uma imagem digital com eficiência, determina a forma como os valores de entrada serão distribuídos pelos níveis de quantificação disponíveis à saída do quantificador. Os valores de entrada e de saída do quantificador podem ser escalares que podem ser uniformes ou não-uniformes.

O quantificador escalar uniforme reparte os valores de entrada por intervalos de quantificação com uma largura fixa. Os limites dos intervalos de quantificação designam-se por fronteiras de decisão do quantificador e os valores de entrada que se situam dentro de cada intervalo de quantificação são substituídos pelo valor médio do mesmo intervalo. A largura de cada intervalo de quantificação é designada por passo de quantificação e representa-se pelo símbolo .

Os quantificadores escalares uniformes podem ser de dois tipos: midtread e midrise.

Os primeiros (midtread) possuem o 0 como um dos seus valores de saída, ou seja, como um dos níveis de quantificação, sendo utilizados quando se necessita de um número impar de intervalos de quantificação. Contrariamente, no segundo tipo de quantificadores (midrise) não existe nenhum intervalo de quantificação com o valor 0, pelo que mapeiam um valor 0 de entrada num intervalo de quantificação diferente de 0, sendo utilizados quando se necessita de um numero par de intervalos de quantificação.

O quantificador midtread é útil nas situações onde existem vários valores próximos de 0 nos dados de entrada que são quantificados no valor 0 à saída.

O quantificador escalar não uniforme recorre a intervalos de quantificação que contêm larguras diferentes, consoante a região do sinal de entrada a que se aplicam. Existem dois tipos de quantificação não-uniforme: o quantificador Lloyd-Max e o quantificador companhed.

O algoritmo do quantificador Lloyd-Max permite, a partir de uma estimativa inicial dos valores dos níveis de quantificação, estimar alternativamente as fronteiras de divisão óptimas, partindo da estimativa actual dos níveis de quantificação óptimos. Posteriormente, a estimativa dos valores dos níveis de quantificação é actualizada utilizando os novos valores que determinou para as fronteiras de decisão. Este processo é repetido tantas vezes quantas as necessárias até que os níveis de quantificação sejam convergentes.

No quantificador companhed, o sinal de entrada é inicialmente mapeado por uma função compressora e seguidamente quantificado por um quantificador uniforme. Posteriormente à transmissão ou armazenamento e recuperação, os valores quantificados têm de ser obtidos através da operação inversa.


Fonte: Ribeiro, Nuno; Torres, José. Tecnologias de Compressão Multimédia. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

sexta-feira, 7 de maio de 2010

Compressão de áudio


O áudio é definido por uma perturbação ocorrida na pressão do ar que atinge o sistema auditivo humano. Existem limites para os tipos de perturbações deste género que conseguem ser detectadas pelo sistema auditivo humano, tanto em termos de frequência, quer de amplitude e duração temporal. Devendo então a concepção de métodos de codificação de áudio atender às características e limitações do ouvido humano. No geral, estes métodos tiram partido das duas maiores limitações do ouvido humano:

O comportamento não-linear onde o ouvido humano possui uma resposta não linear, a sensação do mesmo é que o ruído produzido por um som aumenta logariticamente com a intensidade do mesmo e não de uma forma linear.

O limiar adaptativo da audição, onde é considerada a capacidade variável do limite do nível mínimo (limiar de audibilidade), ao limite do nível máximo (limiar da dor), nos quais o ser humano perde a capacidade ouvir.

Banda de frequências da audição humana

À medida que as frequências das perturbações periódicas aumentam no ar, o ouvido humano começa a ouvir sons quando as frequências destes excedem os 20 ciclos por segundo, ou seja, 20 Hz. Quando as frequências destes sons excedem os 20.000 Hz, o sistema auditivo humano deixa de os ouvir.

A voz humana emite sons que variam entre 500 Hz até 2000 Hz. Sendo que as frequências mais baixas são produzidas pelos sons das vogais e dos baixos e as mais elevadas pelas consoantes.

Banda de intensidade da audição humana

É designada por banda dinâmica (dynamic range), as amplitudes de sons que conseguem ser ouvidas por seres humanos. O limite mínimo da banda dinâmica situa-se no limiar da audibilidade e o limite máximo no limiar da dor. Entende-se por amplitude a medida física de percepção humana do ruído ou volume de um som, designada também por loud-ness. No entanto, existe, do ponto de vista do sistema auditivo humano, um conjunto de interacções complexas entre a amplitude e a frequência de um sinal sonoro, ou seja, a percepção da tonalidade que está associada à frequência de um determinado som pode modificar quando se altera a respectiva amplitude.

A caracterização da banda desde o limiar de audibilidade ao limiar da dor, não sendo útil trabalhar com valores numéricos tão extensos, pode ser realizada mais convenientemente definindo uma nova unidade – o decibel (dB), que deriva do facto de se multiplicar por 10 o logaritmo do rácio entre as potências.

Mascaramento de frequências

Sendo que uma das limitações do ouvido humano é o facto de ser adaptativo, ou seja, o mesmo pode ser alterado devido à existência simultânea de um conjunto de sons.

Designam-se por sons mascarados todos os sons que se tornam inaudíveis devido a adaptação dinâmica do limiar da audibilidade.

Pode-se comparar o efeito de mascaramento com o que sucede com o sistema visual humano, quando este é sujeito a uma luz muito brilhante, perde a capacidade de visualizar luzes de intensidade mais reduzida. Este fenómeno é idêntico ao mascaramento sonoro, ao sujeitarmos o sistema auditivo a vários sons, outros podem-se tornar inaudíveis total ou parcialmente, apesar de poder durar apenas alguns milissegundos.

Se um som mascar outro, este efeito depende essencialmente da proximidade dos dois sons em termos de frequência. O efeito de mascaramento diminui mais lentamente para a direita da curva, ou seja, em direcção às altas frequências.

Conclui-se então que um som com menor frequência pode efectivamente mascarar sons com frequências mais elevadas, por outro lado um som com frequências mais elevadas afecta menos os sons com frequências mais baixas. O efeito mascaramento pode ocorrer independentemente de os sons ocorrerem ou não em simultâneo, ou seja, se o som máscara ocorrer antes de outro som, este último pode ainda ser mascarado pelo primeiro. Os efeitos de mascaramento continuam a observar-se mesmo que a máscara seja uma banda de frequência de ruído e não apenas uma única frequência.

No entanto, o efeito de mascaramento sonoro possui restrições, pois os sons audíveis apenas podem ser mascarados quando o som máscara se situa dentro da mesma banda crítica (frequência que é sempre rodeada por uma banda de frequências onde ocorrem os vários fenómenos de mascaramento que afectam a audição).

Mascaramento temporal

Por vezes um som pode ser mascarado por outro que o precede, efeito conhecido por forward masking, ou por um som que o segue, efeito designado por backward masking.

O efeito forward masking dura até 200 ms, correspondendo ao fenómeno através do qual os neurónios armazenam a energia inicial e não conseguem receber um novo estímulo, até que se libertem dessa energia, o efeito desta máscara vai diminuindo gradualmente até que desaparece por volta do limite de duração referido.

Motivação para a compressão de áudio digital

A compressão de áudio digital é tão importante quanto a compressão de imagens e vídeo digital, pois é uma parte importante de qualquer aplicação digital, que pode consumir consideravelmente a largura de banda disponível. Consequentemente, ao ser comprimida, obtemos mais espaço na largura de banda.

Representação de áudio digital

Existem dois pontos importantes para o controlo da qualidade e do débito binário (bit rate) de um sinal de áudio digital: A frequência de amostragem (ou taxa de amostragem) que permite determinar a quantidade de espectro de frequência do sinal analógico original que pode ser reproduzida com fidelidade pelo sinal de áudio digital; a resolução da quantificação resume-se ao número de bits por cada amostra de áudio. No que diz respeito ao áudio digital a resolução da quantificação determina a banda dinâmica (dynamic range) de um sinal digital de áudio.

Abordagens para a compressão de voz e áudio genérico


A entropia contida num sinal de áudio é relativamente alta, posto isto, os métodos de compressão sem perdas, não são funcionais quando aplicados directamente à compressão de dados de áudio digital. Vistos que os rácios de compressão dos métodos e compressão sem perdas não chegam para aliviar os problemas levantados pela transmissão e armazenamento de dados, foi necessário encontrar soluções alternativas mais adequadas às características deste tipo de média, ou seja, que tomam em consideração a natureza do média a comprimir.

A compressão de áudio pode ser obtida tomando em consideração as características da fonte de áudio.

Actualmente é possível a obtenção de rácios de compressão com perdas de voz até 20:1, embora os requisitos de qualidade para áudio genérico sejam bastante mais elevados que para a transmissão de voz sobre canais telefónicos.

As duas técnicas de compressão de áudio de alta-fidelidade mais usadas são: os algoritmos definidos nas várias normas MPEG – áudio; os algoritmos de compressão de áudio AC.

Ambas as técnicas usam modelos psicoacústicos relacionados com o sistema de percepção da audição humana.

As técnicas MPEG - Áudio e Dolby AC - 3 não partem de pressupostos sobre a fonte do sinal de entrada podendo ser aplicada eficazmente tanto no áudio do tipo de voz como a áudio de alta-fidelidade, através da aplicação de métodos de codificação perspectiva

Nas duas técnicas a compressão é obtida através de dois processos sequenciais: a transformação do sinal de entrada para o domínio das frequências; a utilização de métodos psicoacústicos para remoção de informação do ponto de vista perceptivo.


Fonte: Ribeiro, Nuno; Torres, José. Tecnologias de Compressão Multimédia. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

segunda-feira, 3 de maio de 2010

Técnicas de codificação de entropia


O conceito de codificação de entropia refere-se às técnicas de compressão e codificação que não têm em conta a natureza da informação a ser comprimida, isto é, estas técnicas de compressão tratam todos os dados como sequências de bits, sem optimizar a compressão através do tipo de informação que se está a comprimir, ignorando, assim, a semântica desta informação.

Todas as técnicas de codificação de entropia proporcionam sempre um modo de compressão sem perdas.

As técnicas de codificação de entropia podem ser divididas em três tipos principais: técnicas de supressão de sequências repetitivas, técnicas de codificação estatística e técnicas baseadas em dicionários.

A técnica de supressão de sequências repetitivas baseia-se na produção de códigos de comprimento fixo e funciona em dois passos. Primeiramente, a detecção de sequências repetitivas de bits ou bytes e posteriormente a consequente substituição destas sequências pelo seu número de ocorrências.

Este método pode assumir uma de duas formas possíveis: Técnica de supressão de zeros ou espaços e Técnica Run-Length Encoding (RLE).

A Supressão de zeros ou espaços é o método de supressão de sequências repetitivas que assume apenas um carácter (byte) predeterminado que aparece frequentemente e é repetido. Este carácter pode ser o zero em dados numéricos ou o espaço em dados textuais. Consequentemente, uma série de n espaços, ou zeros, sucessivos será substituída por um carácter especial (flag ou meta character) imediatamente seguido pelo número de ocorrências (n) desse carácter.

Run-Length Encoding (RLE) permite que qualquer sequência de caracteres repetidos possa ser substituída por uma forma abreviada. Ou seja, permite comprimir qualquer carácter que surja de forma repetitiva, para além dos zeros e espaços. O algoritmo da técnica RLE consiste em substituir uma série de n caracteres “c” consecutivos pelo próprio carácter “c” precedido por um carácter especial (a flag ou escape character) que, por sua vez, é seguido pelo número n de ocorrências do carácter repetido. Este conjunto de 3 caracteres que substitui a sequência repetida designa-se por token, e representa-se do seguinte modo: !. Este método não deve ser utilizado nos casos em que um carácter surge repetido apenas duas vezes visto que originaria uma sequência mais comprida do que a sequência original. De igual modo, a sua utilização para substituir sequências de três caracteres sucessivos não traria qualquer vantagem. Assim, pode concluir-se que a substituição deve apenas ser realizada caso o número de ocorrências sucessivas de um carácter seja igual ou superior a quatro. A forma do método RLE é a forma mais simples e utiliza-se apenas para conteúdos textuais.

No que diz respeito à descompressão, sempre que se encontra a flag no fluxo de dados comprimidos efectua-se uma operação de leitura do valor n e do carácter C que se seguem, escrevendo-se o carácter C no fluxo de dados descomprimidos tantas vezes quantas o valor de n. A técnica RLE, para além de dados textuais, pode também ser aplicada a dados de imagem.

O método de técnicas de codificação estatística baseia-se no seguinte processo genérico:

1. Identificação dos padrões de bits ou bytes que ocorrem mais frequentemente num dado fluxo de dados.

2. Codificação de cada padrão com menos bits do que o número de bits dispendido para o representar no fluxo de dados original.

Na codificação estatística os padrões que ocorrem com menor frequência serão codificados mediante a utilização de mais bits, ao passo que os padrões mais frequentes serão substituídos por códigos menos extensos. A noção fundamental assenta na codificação estatística, os padrões de bits ou bytes são substituídos de acordo com a frequência com que ocorrem, sendo este o motivo porque se designa por estatística. Os padrões mais frequentes utilizam códigos mais curtos, ao passo que os padrões menos frequentes utilizam códigos mais extensos.

No entanto, já que o método da codificação estatística implica a substituição de padrões por outros padrões menos ou mais extensos deve existir uma tabela, normalmente designada por codebook ou tabela de códigos, que estabeleça a correspondência entre os padrões originais e o seu novo código, quer no lado da codificação quer no da descodificação. Em certos casos, a identificação da frequência do padrão e a atribuição de códigos já se encontra disponível ou é predefinida. Neste caso, a frequência de ocorrência dos padrões não necessita de ser determinada de cada vez que se codifica um novo fluxo de dados.

O método de codificação estatística pode ser implementado de várias formas, nas quais se incluem: substituição de padrões, destinada exclusivamente à codificação de informação textual; codificação de comprimento variável onde os métodos mais conhecidos são os de Huffman e de Shannon-Fano; e a codificação aritmética que proporciona uma óptima compressão do ponto de vista do valor de entropia de uma sequencia de dados de entrada, determinado pelos métodos da teoria da informação. Voltando um pouco atrás, relativamente à codificação de Huffman, o seu funcionamento baseia-se na determinação da frequência das ocorrências de cada byte para uma dada porção do fluxo de dados original; determinar, de acordo com o algoritmo de Huffman, o número mínimo de bits a atribuir a cada carácter a partir da tabela de frequências de ocorrências e atribuir um código “óptimo” de acordo com esse cálculo e, por fim, armazenar os códigos atribuídos numa tabela de códigos.


As técnicas baseadas em dicionários utilizam uma selecção de sequências de símbolos e uma codificação destas sequências como um token, recorrendo a um dicionário que armazena as sequências de símbolos. Por outro lado, estes métodos são assimétricos, o que faz com que a compressão seja mais complexa que a descompressão. O dicionário utilizado pode ser estático que permite a adição de novas sequências mas não a eliminação das já existentes, ou dinâmico que se adapta à mensagem a codificar dado que contém as sequências anteriores encontradas na mensagem a codificar.


Fonte: Ribeiro, Nuno; Torres, José. Tecnologias de Compressão Multimédia. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

Modos e categorias de compressão


No que respeita ao modo como comprimem a informação, as técnicas de compressão podem ser classificadas como técnicas de compressão sem perdas ou técnicas de compressão com perdas.

Na compressão sem perdas a informação é recuperada sem qualquer alteração após o processo de descompressão, ou seja, o fluxo de bits descomprimidos é idêntico ao fluxo de bits original.

Estas técnicas são utilizadas na compressão de dados textuais e numéricos ou de programas/aplicações que não devem sofrer qualquer alteração com este processo de compressão.

Na compressão com perdas a informação descomprimida é diferente da informação original, adequa-se, por isso, à maioria dos tipos de media não-estruturados como o áudio digital, as imagens bitmap e o vídeo digital. Contudo, o facto de a informação descomprimida ser diferente da informação original não implica que a percepção do utilizador seja diferente.

Relativamente à forma como a informação é encarada pelo esquema de compressão, as técnicas de compressão de dados podem ser agrupadas em duas categorias, técnicas de codificação de entropia e técnicas de codificação de fonte.


Fonte: Ribeiro, Nuno; Torres, José. Tecnologias de Compressão Multimédia. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

Introdução à compressão multimédia


A utilização dos tipos de media (como o áudio e vídeo) requer que a informação seja comprimida e, ao mesmo tempo, preserve o mais possível a qualidade da informação original, ou seja, que esta informação perdida durante o processo de compressão seja a menos relevante do ponto de vista do utilizador.

A compressão de áudio, imagem e vídeo digitais é necessária principalmente para limitar o espaço de armazenamento consumido pelos conteúdos multimédia e também para possibilitar a transferência de conteúdos multimédia através de redes de comunicação utilizando as taxas de transferência (débitos binários ou bit rates) existentes actualmente.

Posto isto, a necessidade de reduzir a quantidade de dados envolvida na reprodução de áudio digital, imagens bitmap ou vídeo digital é evidente. Assim, a compressão de informação permite reduzir o espaço de armazenamento exigido pelos conteúdos multimédia bem como aumentar a velocidade do acesso aos conteúdos multimédia.

A compressão apresenta-se portanto como a única forma existente para se conseguir armazenar, disponibilizar e transmitir as grandes quantidades de dados exigidas pelos conteúdos multimédia.

A compressão de dados é um processo através do qual se converte um fluxo de dados de entrada (dados originais) num outro fluxo de dados que contém dados comprimidos que ocupam menos espaço de armazenamento. Quando o fluxo de dados comprimido é descomprimido, obtém-se um fluxo de dados de saída e que podem, ou não, ser idênticos aos dados contidos no fluxo de dados original, dependendo se a técnica de compressão é sem ou com perdas.


O desempenho de um esquema de compressão pode ser medido através do rácio de compressão que proporciona, que se obtém dividindo o espaço de armazenamento ocupado pelo fluxo de dados originais pelo espaço consumido pelo fluxo de dados comprimidos.



Fonte: Ribeiro, Nuno; Torres, José. Tecnologias de Compressão Multimédia. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

quinta-feira, 25 de março de 2010

Autoria de animação


No caso da animação bidimensional clássica, recorrendo a modelos celulóides, seria necessário desenhar cada frame da animação, sendo que cada objecto animado seria desenhado em posições ligeiramente diferentes. Nesta situação, o ponto de vista do animador é essencialmente fixo e os objectos movem-se à sua frente.
Na animação tridimensional por computador, o processo é ligeiramente diferente dado que atribui movimento aos objectos em tramas – chave específicas e mover a câmara de localização conforme a frame actual, para obter em cada instante a situação de visualização mais vantajosa.
O software de animação é responsável por calcular as frames intermédia, ou seja, calcular os movimentos intermédios dos vários objectos que permitem a obtenção da situação final definida pelo autor. Este processo é globalmente designado por keyframe animation e constitui a técnica mais utilizada para a criação de animação 3D.
A keyframe animation pode ser definida como um processo de atribuição de movimento a objectos em frames específicas de uma sequência de animação, permitindo que o computador interpole o movimento intermédio.
Uma técnica muito útil para animação do tipo keyframe animation é criação de hierarquias de objectos, ou seja, estabelecer ligações ou relações entre os objectos de uma cena de modo a que sejam afectados pelas características de outros objectos relacionados presentes na mesma cena.
Da mesma forma que é possível colocar objectos em keyframes para produzir animações 3D, também é possível colocar luzes e câmaras. O autor pode animar um ponto de luz ou mover uma câmara ao longo de um caminho predefinido, à medida que as frames da animação se sucedem. Deste modo, as possibilidades de criatividade são largamente abrangentes.
No que diz respeito ao movimento em si, a animação resume-se à especificação dos tipos fundamentais de movimento. É, então, possível fazer a rotação de um objecto em torno do seu ponto pivot ou em torno de outro ponto da cena que se define como centro de rotação. É também possível aplicar factores de escala e movimentar um objecto de uma localização para outra.
De uma forma geral o processo de keyframing é realizado recorrendo a gráficos interactivos que podem ser visualmente movidos nas keyframes por intermédio do rato ou de outro dispositivo.



Fonte: Ribeiro, Nuno. Multimédia e Tecnologias Interactivas. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

quarta-feira, 24 de março de 2010

Operações de animação


As operações que se podem realizar sobre os modelos de animação podem-se classificar com: Operações gráficas, operações de controlo de movimento e respectivos parâmetros, rendering de animação e reprodução da animação.
Uma vez que os modelos de animação são modelos gráficos estáticos aplicados ao longo do tempo, as operações gráficas como a edição de primitivas, edição estrutural, a eliminação e a visualização, também estes se aplicam aos modelos de animação. A diferença fundamental entre as operações gráficas e de animação reside na adição da dimensão temporal. Assim, os objectivos deixam de ser estáticos e passam a conter trajectórias, a eliminação deixa igualmente de ser estática e passa a ser possível especificar o comportamento das luzes ao longo do tempo.
Os sistemas de autoria de animação separam as ferramentas de modelação gráfica das ferramentas de animação. As ferramentas de modelação gráfica são utilizadas para construir objectos gráficos 3D enquanto que as ferramentas de animação adicionam informação temporal aos objectos produzindo modelos evolutivos de animação.
O rendering de animação pode ou não ser realizado em tempo real. Em tempo real as tramas da sequência de vídeo digital resultante do rendering vão sendo apresentadas ao utilizador enquanto que o modelo de animação vai ser convertido nessas frames de vídeo digital. Desta feita são necessárias no mínimo 15 tramas por segundo para evitar a distorção do movimento, assim, o rendering em tempo real só é possível para modelos evolutivos simples ou utilizando hardware especializado para aceleração do rendring da animação.
Se a animação for previamente convertida em tramas de vídeo digital, a sua reprodução é resumida à reprodução de uma sequência de vídeo digital, ou seja, resume-se a controlar o frame rate e a direcção do movimento. Porém, a reprodução de animações cujo rendering é realizado em tempo real é mais flexível e assim é possível modificar o modelo interactivamente à medida que a reprodução avança. A animação em tempo real é, deste modo, mais interactiva e modificável, no entanto, exige a presença de hardware dedicado de aceleração.



Fonte: Ribeiro, Nuno. Multimédia e Tecnologias Interactivas. 3ª Edição. FCA – Editora de Informática, Lda. 2007.

Animação | Representação


Inicialmente a animação era um media exclusivamente destinado ao entretenimento, foi crescendo até se tornar numa das formas mais eficazes e expressivas para comunicar uma ideia.
Quando a animação é reproduzida com um ritmo de 25 fps, tem o poder de transmitir uma mensagem da mesma forma que o vídeo digital e por isso, tanto para transmitir informação visual complexa como apenas para captar a atenção do utilizador, a animação é um tipo de media com muitas e reais potencialidades.
O software de autoria de animação para um computador pessoal permite ao autor exercer um controlo total no resultado final no que diz respeito aos níveis da forma, da cor, da iluminação e da perspectiva. No contexto da animação, o autor não tem preocupações no que respeita às restrições impostas pela natureza e, por isso, criar imagens que transmitem exactamente a mensagem pretendida para comunicar as suas ideias com a maior eficácia.
A animação, como media espacial e temporal que é, permite ao autor controlar o ritmo da sua mensagem. É possível utilizar a animação para mostrar em alguns segundos processos muito lentos ou pelo contrário mostrar um evento que ocorre tão rapidamente que não é perceptível ao ritmo natural. Por outro lado, a animação permite mostrar a forma como os objectos se movem ao longo do tempo, como acontece por exemplo com o tráfego urbano. Também é possível alterar a aparência superficial de um objecto mostrando a forma como um processo o altera ao longo do tempo, assim como movimentar uma ou mais câmaras ao longo de um modelo gráfico 3D que permita a navegação através de uma cena tridimensional.
A animação é a representação gráfica de objectos à medida que estes variam no tempo. A animação tradicional baseia-se num conjunto de desenhos individuais ou fotogramas que vistas em sucessão criam a ilusão de movimento. A animação realizada no computador produz também sequências de imagens deste tipo, no entanto, estas imagens são sintetizadas integralmente por software.
No animação também existem modelos que produzem vídeo digital (sequencia de imagens) quando processados por uma operação de rendering. Porém, contrariamente aos modelos gráficos que são estáticos, os modelos de animação são evolutivos, ou seja, variam no tempo e por isso, a amostragem de um modelo de animação num dado momento produz um modelo gráfico que pode, por seu turno, originar uma imagem através de uma operação de rendering.
As representações da animação envolvem a existência de modelos. No entanto, os modelos de animação uma vez que são evolutivos diferem dos modelos gráficos. Os modelos mais comuns são: modelos celulóides, modelos baseados em cenas, modelos baseados em eventos, modelos baseados em tramas-chave, modelos hierárquicos e de objectos articulados, modelos procedimentais e modelos empíricos.
Os modelos celulóides baseiam-se em folhas celulóides transparentes que contêm partes de uma cena. Para obter uma cena completa é necessário combinar e sobrepor as várias folhas, para obter o movimento dos objectos é através da deslocação da folha correspondente.
No que respeita à animação por computador, estas folhas são construídas sob a forma de imagens digitais que contêm um canal de transparência. Primeiramente, as cenas são convertidas em imagens e de seguida visualizadas através da apresentação das folhas pela ordem inversa, isto é, da última para a primeira. A ilusão de movimento é criada através da alteração da posição das folhas. Desta forma, estes modelos consistem num conjunto de imagens bitmap, na especificação da sua ordem e da sua posição relativa assim como na sua orientação.
Um modelo de animação pode construir-se tomando uma sequencia de modelos gráficos estáticos onde cada modelo representa um acena completa.
Os modelos baseados em eventos constituem uma variante dos modelos baseados em cenas e permitem exprimir as diferenças entre cenas sucessivas sob a forma de eventos que transformam uma determinada cena na seguinte.
A utilização de tramas-chave consiste na modulação das frames inicial e final da sequência animada e deixar que o software de animação desempenhe a tarefa de calcular as cenas intermédias.
Os modelos hierárquicos permitem a construção de objectos articulados, os quais são construções onde a configuração e os movimentos se encontram restringidos por determinadas condições.
As linguagens procedimentais ou de scripting constituem uma característica adicional que fornece ao animador a possibilidade de exprimir as sequencias de forma concisa, tornando-se úteis para modelar o movimento repetitivo e estruturado.
A técnica de modelação baseada nos modelos empíricos consiste na consideração das forças físicas e das interacções aplicadas entre os objectos de uma cena. Este método é muito utilizado na produção de sequências animadas que demonstram a evolução de sistemas físicos. O animador, geralmente, utiliza modelos matemáticos do sistema que pretende modelar, que podem derivar de princípios físicos, ou de dados recolhidos empiricamente, ou seja, dados observados ao longo do tempo. O modelo empírico necessita de ser resolvido de uma forma numérica ou por meio de simulação, para uma dada sequência de instantes de tempo, sendo que cada solução resulta numa trama da sequência animada final.


Fonte: Ribeiro, Nuno. Multimédia e Tecnologias Interactivas. 3ª Edição. FCA – Editora de Informática, Lda. 2007.