Seminários

Seminários passados

Palestrante: Alessandro Palmeira e Itai Soares
Data e hora: qui, 22/09/2016 - 16:00
Local: IME/USP
Resumo: Neste seminário apresentaremos o trabalho premiado como melhor artigo na International Society for Music Information Retrieval Conference 2015 (ISMIR 2015) de Andreas Arzt e Gerhard Widmer, entitulado Real-time music tracking using multiple performances as a reference.
Geralmente, algoritmos de acompanhamento musical em tempo real utilizam diretamente uma representação simbólica da partitura ou uma versão sintetizada da mesma como referência para o processo de alinhamento online. Neste artigo nós apresentamos uma abordagem diferente. Primeiramente, diferentes performances da peça em questão são coletadas e alinhadas (offline) à representação simbólica. Então, múltiplas instâncias do algoritmo de acompanhamento em tempo real (cada uma usando uma performance diferente como referência) são usadas para seguir a performance ao vivo e suas saídas são combinadas para gerar a posição atual na partitura. Como a avaliação mostra, essa estratégia aumenta tanto a robustez quando a precisão, especialmente em peças que são geralmente difíceis de acompanhar (e.g. peças com mudanças extremas e abruptas de tempo ou peças orquestrais com algo grau de polifonia). Finalmente, nós descrevemos uma aplicação prática, onde esse algoritmo de acompanhamento musical foi usado para acompanhar uma orquestra famosa mundialmente em uma sala de concerto a fim de mostrar conteúdo visual sincronizado (a partitura, textos explicativos e vídeos) para a audiência.

Palestrante: Marcio Masaki Tomiyoshi e Roberto Piassi Passos Bodo
Data e hora: ter, 20/09/2016 - 16:00
Local: Auditório Antonio Gilioli, IME/USP
Resumo: Neste seminário apresentaremos o trabalho premiado como melhor artigo de estudante no ISMIR 2011 de Mikael Henaff, Kevin Jarrett, Koray Kavukcuoglu e Yann LeCun, entitulado Unsupervised learning of sparse features for scalable audio classification.
Será apresentado um sistema para aprender características do áudio automaticamente de um maneira não-supervisionada. O método primeiro aprende um dicionário super-completo o qual pode ser usado para decompor esparsamente espectrogramas espaçados logaritmicamente. Em seguida, é treinado um codificador eficiente que mapeia rapidamente novas entradas para aproximações de suas representações esparsas usando o dicionário aprendido. Isto evita custosos procedimentos iterativos normalmente exigidos para a inferência de códigos esparsos. Estes códigos esparsos são utilizados como entradas para uma Máquina de Suporte Vetorial linear (Support Vector Machine - SVM). Este sistema atinge 83.4% de acurácia ao predizer gêneros musicais no banco de dados GTZAN, o que é competitivo com abordagens empregadas atualmente. Além disso, o uso de um classificador linear simples combinado com um sistema eficiente de extração de características permite que a abordagem seja escalável em bancos de dados grandes.

Palestrante: Fábio Goródscy e Felipe Felix
Data e hora: qui, 15/09/2016 - 16:00
Local: Auditório Antonio Giglioli, IME/USP
Resumo:

Detalharemos formas de capturar estruturas repetitivas em uma gravação musical. Este tema está relacionado com a sumarização de áudio (audio thumbnailing) que tem como meta minimizar a duração de músicas mantendo características desejadas pela aplicação.

Mostraremos exemplos com matrizes de aptidão para ilustrar o funcionamento de uma técnica que captura estruturas repetitivas com base na precisão e na cobertura de segmentos da música em cima de matrizes de auto-similaridade (self-similarity matrices).

Este seminário é baseado no artigo premiado no ISMIR de 2011, A SEGMENT-BASED FITNESS MEASURE FOR CAPTURING REPETITIVE STRUCTURES OF MUSIC RECORDINGS de Meinard Müller, Peter Grosche, Nanzhu Jiang.

Palestrante: Arthur Tofani, Thilo Koch
Data e hora: ter, 13/09/2016 - 16:00
Local: Auditório Antonio Giglioli, IME/USP
Resumo: Neste seminário vamos apresentar um trabalho de Pierre-Antoine Manzagol, Thierry Bertin-Mathieux and Douglas Eck, apresentado no ISMIR 2008.
A maioria dos features usado em MIR (music information retrieval) são inspirados por trabalhos de reconhecimento de fala/voz e são variações do espectrograma. Recentemente, representações esparsas e relativas ao tempo receberam muita atenção. Essas representações são eficazes e evitam o trade-off entre tempo e frequência na transformação de Fourier. Mas pouco trabalho foi conduzido com streams de música. Esse trabalho explora esses features no contexto de sinais musicais, com foco em exemplos de músicas reais como entrada para a apredizagem supervisionada.

Palestrante: Dra. Carolina Brum Medeiros (Fliprl CEO, IDMIL/McGill, Google ATAP)
Data e hora: ter, 06/09/2016 - 15:00
Local: Sala 132-A, IME/USP
Resumo: Os últimos anos foram marcados pela variabilidade de novos dispositivos para medição gestual, dos quais vários foram utilizados como controladores musicais. Apesar da grande variedade de dispositivos, entidades acadêmicas e industriais mantêm o esforço de pesquisar e desenvolver novos dispositivos. Por quê? Nessa conversa, gostaria de levantar questionamentos do porquê não estamos satisfeitos com os dispositivos existentes: Natural inquietação humana? Consumismo e mercado? Evolução tecnológica, permitindo a criação de dispositivos mais eficientes? Busca de novas formas de expressão? Ou talvez estaríamos buscando abstrair o aspecto físico dos objetos e estruturas? Vamos discutir alguns desses novos dispositivos e alguns pensamentos sobre o uso de controladores gestuais, baseados na leitura dos seguintes autores: Marcelo Wanderley, Alva Noe, Ivan Poupyrev, Oliver Sacks, John Milton e Ana Solodkin.

Páginas

Subscribe to Próximos seminários Subscribe to Seminários passados