Seminars

Past talks

Speaker: Prof. Dr. Flávio Figueiredo (UFMG)
Date and time: Tuesday, August 24, 2021 - 13:00
Place: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)
Abstract:

Understanding how influences shape musical creation provides rich insight into cultural trends. As such, there have been several efforts to create quantitative complex network methods that support the analysis of influence networks among songs/artists in a music corpus. We contribute to this body of work by examining how disruption happens in different music corpora. That is, we leverage methods devised to study disruption in Science and Technology and apply them to the context of music creation. Our results point that such methods identify innovative songs/artists and that disruption is mostly uncorrelated with network centrality.


(video presentation in portuguese)

Speaker: Rodolfo Thomazelli, Guilherme Fontebasso, Lucas Egidio Neves, Victor Oliveira (Turbonius P&D) e Guilherme Paiva (post-doc at IME-USP and Turbonius P&D)
Date and time: Tuesday, July 13, 2021 - 13:00
Place: https://meet.jit.si/CompmusSeminário
Abstract:

(abstract in Portuguese)

O comportamento acústico em salas pequenas é conhecidamente caracterizado pelos fenômenos modais, que são responsáveis pela criação de respostas espacial e espectralmente heterogêneas nas baixas frequências. Para os casos nos quais almeja-se certa qualidade acústica (resposta homogênea), como salas destinadas ao registro, prática, e apreciação fonográficas, é preferível que tal característica seja contornada. Dentre as soluções conhecidas para o problema, destaca-se pela praticidade, acessibilidade e eficácia, o condicionamento acústico via aplicação de absorvedores de Helmholtz. A complexidade dos fenômenos modais, porém, dificulta a tomada de decisão sobre qual a melhor abordagem para o condicionamento, que depende da quantidade, da localização, e da sintonia de cada módulo do absorvedor, sendo que o processo é majoritariamente caracterizado por tentativas e erros. Nesse sentido, um aplicativo de simulação acústica que contempla o tratamento modal configura uma ferramenta promissora para auxiliar profissionais e pesquisadores da área. No seminário será apresentado o desenvolvimento do XuriAPP – um aplicativo projetado para guiar o condicionamento acústico otimizado sobretudo para salas pequenas e em baixas frequências. O trabalho, que atualmente encontra-se em fase de testes, é resultado de uma das pesquisas conduzidas pelo Projeto Xuri da startup Turbonius P&D.


(video presentation in portuguese)

Speaker: Dr. Maurício do V. M. da Costa (COPPE/UFRJ)
Date and time: Tuesday, June 23, 2020 - 12:00
Place: https://meet.jit.si/CompmusSeminário
Abstract:

(abstract in Portuguese)

Representações tempo-frequenciais (RTFs) são uma das ferramentas mais valiosas em processamento digital de áudio, sendo utilizadas em diversas aplicações. RTFs podem ser calculadas tendo diferentes resoluções em tempo e em frequência e podem, inclusive, representar determinadas variações em frequência, como no caso do uso da transformada de fan-chirp. A maior deficiência de RTFs é o espalhamento de energia relacionado à não-estacionariedade do sinal na região da janela de análise. Esse tipo de artefato geralmente resulta em prejuízo de desempenho da aplicação que utilize tal RTF; portanto, ter RTFs que representem precisamente os sinais de interesse é essencial para melhorar o desempenho de tais sistemas.

Uma forma de se calcular RTFs de alta resolução é combinar RTFs de diferentes resoluções de forma a preservar os melhores aspectos de cada uma. Essa é a ideia geral que embasa todos os métodos propostos nesse seminário, do qual o principal objetivo é possibilitar a representação precisa de sinais de melodia principal em contextos polifônicos. Os métodos são classificados como: combinações ponto-a-ponto, combinações baseadas em informação local, e combinações baseadas em análise de imagem. Seus desempenhos são medidos por meio de diversos experimentos, em que são utilizados sinais sintéticos controlados e sinais reais, e os resultados apontam o método proposto de interpolação de fan-chirps em multirresolução como o melhor em termos de largura de banda de frequência, definição de onset e faixa dinâmica.


(video presentation in portuguese)

Speaker: Dr. Guilherme Paiva
Date and time: Tuesday, June 16, 2020 - 12:00
Place: https://meet.jit.si/CompmusSeminário
Abstract:

Live transmission @ https://meet.jit.si/CompmusSeminário

The viola caipira is a Brazilian guitar widely used in popular music and has been little studied in musical acoustics. Generally, it consists of ten metallic strings arranged in five pairs, tuned in unison or octave. In this seminar, the author presents some results obtained in his thesis research, which focused on the analysis and synthesis of musical sounds produced by the viola caipira .

The analysis of the motions of plucked strings using a high speed camera shows the existence of sympathetic vibrations, which results in a sound halo, constituting an important perceptive feature. These measurements also reveal the existence of shocks between strings, which lead to very clearly audible consequences. The modal analysis of the body vibrations, carried out by a scanning laser vibrometer and an automatic impact hammer reveals some differences and similarities with the classical guitar.

A physical modelling, based on a modal approach, is carried out for sound synthesis purposes. It takes into account the strings motions with two orthogonal polarizations, the couplings with the body and the collisions between strings. This model is hybrid since it combines an analytical approach to describe the vibrations of strings and experimental data describing the body. Simulations in the time domain finally reveal the main characteristics of the viola caipira.

Slides
Audio Examples


(video presentation in portuguese)

Speaker: Nicolas Figueiredo
Date and time: Wednesday, April 10, 2019 - 16:00
Place: Auditório do CCSL/IME
Abstract:

Spectral representations of temporal signals are vastly utilized in several areas including engineering, mathematics and computer science. For this, the SFTF is commonly used, and it utilizes equally spaced constant resolution frequency components. In order to minimize the trade-off between time and frequency resolution, multi-resolution techniques utilize frequency components with variable resolution and spacing. This same trade-off is the motivation behind adaptive transforms, which utilize information about the signal being analyzed to compose a spectrogram that prioritizes frequency or time resolution depending on the signal's characteristics.

In this seminar, the Constant-Q Transform (CQT) will be presented as an example of a multi-resolution analysis, along with two types of adaptive transforms developed by Lukin & Todd and the idea behind a possible contribution based on reducing the computing costs of adaptive transforms.


(video presentation in portuguese)

Pages

Subscribe to Upcoming talks Subscribe to Past talks