Músicos manipulam, conscientemente, diferentes parâmetros acústicos, com o objetivo de expressar suas ideias musicais para os ouvintes e para outros músicos. Eles performam, ainda, movimentos físicos que, embora sejam essenciais para a produção de som no instrumento musical, possuem estreita relação com as intenções artísticas dos performers.
O termo ancillary gesture (gestos auxiliar) caracteriza os movimentos que fazem parte da performance, mas que não necessariamente produzem o som. Gestos aparecem ao longo da performance e, consequentemente, assumem a intenção de comunicar.
Nesta comunicação, apontarei para a complexa inter-relação entre os gestos executados pelos músicos e a organização das frases musicais interpretadas por eles, definidas a partir de análises de parâmetros acústicos manipulados, além de relatos de expressão de suas intenções musicais. Este trabalho pretende mostrar também que os gestos auxiliares não são aleatórios, uma vez que os mesmos são recorrentes e estáveis, em todas as performances estudadas.
Apesar da complexidade de se atribuir gêneros para músicas, a classificação automática de gêneros musicais em grandes bancos de dados possui uma grande importância para tarefas de Recuperação de Informação Musical. Historicamente, diversas técnicas de Aprendizagem de Máquina foram aplicadas utilizando como amostras características extraídas de arquivos de áudio, partituras e, até mesmo, das letras das músicas.
Neste seminário iremos apresentar os resultados de experimentos realizados com o conjunto de dados GTZAN, utilizando features globais de áudio (extraídas com a biblioteca LibROSA) e algoritmos tradicionais de classificação (implementados pelo scikit-learn).
Código fonte: https://github.com/rppbodo/musical-genre-classification
Este seminário é uma apresentação do artigo premiado como _Best Student Paper_ do ISMIR em 2009, chamado EASY AS CBA: A SIMPLE PROBABILISTIC MODEL FOR TAGGING MUSIC de Matthew D. Hoffman, David M. Blei, Perry R. Cook.
Muitas músicas não são associadas a tags bem representativas e isso faz o processo de recuperação de músicas a partir das tags não ser eficiente.
Apresentaremos um modelo probabilistico que aprende a realizar predição automática de tags a partir das características de timbre das músicas. Este método é simples de implementar, fácil de testar e que retorna resultados rapidamente.
Atualmente existem diversas partituras de musicas disponíveis na internet, muitas vezes diversas partituras da mesma musica. Porém, ao mesmo tempo que temos acesso a este grande acervo de partituras, outro problema surge. Qual partitura é a mais adequada para o musico? O artigo SCORE ANALYZER: AUTOMATICALLY DETERMINING SCORES DIFFICULTY LEVEL FOR INSTRUMENTAL E-LEARNING de Véronique Sébastien, Henri Ralambondrainy, Olivier Sébastien e Noël Conruyt, propõe a criação de um algoritmo que determina a dificuldade de uma partitura. O resultado da analise obtido do algoritmo é então comparada com o a avaliação de músicos profissionais. Neste seminário, iremos detalhar como o algoritmo foi desenvolvido e quais os resultados gerados.