Percorrer por data de Publicação, começado por "2025-12-05"
A mostrar 1 - 2 de 2
Resultados por página
Opções de ordenação
- A (in)visibilidade da alma: linguagem cinematográfica na representação de perceções subjetivas e sensoriais da cegueiraPublication . Amaral, Lara Rodrigues; Castanheira, GraçaEste trabalho apresenta uma investigação sobre o cinema experimental a partir da criação e análise de um projeto audiovisual original, inspirado na vivência sensorial de uma pessoa com deficiência visual. Explora-se a linguagem do cinema experimental como forma de expressão sensorial não linear, que transcende as convenções narrativas tradicionais para representar experiências subjetivas e ampliadas. A pesquisa combina fundamentação teórica referente à perceção sensorial, subjetividade e inovação estética com a produção prática de um objeto audiovisual interativo e imersivo. A análise do produto final aborda a articulação entre a experiência sensorial do sujeito estudado e as estratégias de linguagem audiovisual experimental, evidenciando as potencialidades do cinema para ampliar os canais de comunicação da experiência humana.
- Emotion recognition in multimedia contentPublication . Condesso, Sofia Fernandes; Ferreira, Artur Jorge; Leite, Nuno Miguel da Costa de SousaAbstract Emotion Recognition (ER) has become crucial in Human-Computer Interaction (HCI), with applications ranging from mental health support to adaptive learning. While many existing approaches rely on controlled environments or hardware-based sensors, this thesis explores non-contact unimodal methods—speech, facial expressions, and textual data—for a more naturalistic and practical analysis of emotions. First, we conduct a systematic evaluation of unimodal ER, comparing classical Machine Learning (ML) and Deep Learning (DL) approaches across multiple unimodal and multimodal datasets. For speech modality (audio), we extract acoustic features using openSMILE (GeMAPS), and learn with models such as Support Vector Machines (SVM) and Random Forests. Results show that feature selection on acoustic features can improve Speech Emotion Recognition (SER). For Facial Emotion Recognition (FER), we experiment with DeepFace and a lightweight Convolutional Neural Networks (CNN). For textual emotion recognition, we employ Word2Vec and GloVe with ML and DL models, and also experiment zero-shot and few-shot learning with large language models. In multimodal experiments, fusion of text and audio modalities improved accuracy to 0.45, confirming the benefit of combining complementary emotional cues. However, adding the visual modality led to a slight degradation in performance, attributed to suboptimal frame sampling. Overall, results highlight the trade-offs between unimodal simplicity and multimodal robustness, demonstrating that lightweight, interpretable models can achieve practical performance for real-world emotion-aware applications.
