If you have an interest in joining our group (for instance, as a PhD student or PostDoc), please don't hesitate to contact Martin and Steffen at any time, even if there are no currently advertised positions that align with your qualifications. This also applies to Bachelor or Master students seeking student assistant positions or thesis topics.
We are currently hiring for an academic position. Please find the full job advertisement and details in both English and German. We look forward to your application!
Research Area: Optimal Estimation / Computational Aspects
Bayesian MCMC estimation typically requires extensive computational time. Hecht et al. (2020; also see Hecht and Zitzmann, 2020) introduced a novel method to expedite MCMC estimation for specific models, yet did not address the management of missing data, leaving it as an area for future research. This project aims to identify, implement, and evaluate effective methods for handling missing data within this new Bayesian modeling framework.
References:
Supervisor: Andre
Research Area: Machine Learning
Künstliche Intelligenz und Algorithmen des maschinellen Lernens gewinnen zunehmend an Bedeutung in verschiedenen Forschungsfeldern. So auch in den psychologischen Wissenschaften. Eine Modellklasse, die sich in anderen Forschungsfeldern häufig als Gewinner in Vorhersage-Wettbewerben herausgestellt hat, ist das künstliche neurale Netzwerk, welches an die Mechanismen der biologischen neuronalen Netzwerke angelehnt ist. Der Erfolg in anderen Forschungsfeldern von neuralen Netzwerken ist Grund genug zur Annahme, dass man diese Modellklasse auch für psychologische Datensätze zur Prognose von Verhaltensmustern und/oder kognitiven Prozessen verwenden könnte.
Diese Studie widmet sich der Evaluation unterschiedlicher Imputationsmethoden im Kontext neuraler Netze mit dem Ziel, die Robustheit dieser Modelle hinsichtlich fehlender Werte zu untersuchen. Das Forschungsvorhaben konzentriert sich auf die Anwendung verschiedener Imputationsverfahren auf simulierten Datensätzen, um deren Auswirkungen auf die Vorhersage menschlichen Erlebens und Verhaltens zu analysieren.
Mittels simulierter Daten, die gezielt fehlende Werte enthalten, werden diverse Imputationsansätze untersucht, darunter traditionelle Verfahren wie der Mittelwert- oder Medianersatz sowie fortgeschrittene Techniken wie die k-NN-Imputation und Imputation mittels Autoencoder. Hierbei steht die Anpassungsfähigkeit dieser Methoden an die komplexen Strukturen neuronaler Netze im Fokus der Analyse.
Die Effektivität der Imputationsmethoden wird anhand von Leistungskennzahlen bewertet, um eine umfassende Einschätzung ihrer Auswirkungen auf die Prognosegenauigkeit zu ermöglichen.
Die Ergebnisse dieser Untersuchung liefern wichtige Erkenntnisse darüber, inwieweit verschiedene Imputationsmethoden dazu beitragen können, die Herausforderungen fehlender Werte in neuralen Netzen zu bewältigen. Diese Erkenntnisse sind von Relevanz für Praktiker und Forscher, die die Leistungsfähigkeit neuraler Netze in realen Anwendungen verbessern möchten, insbesondere unter Berücksichtigung unvollständiger Datensätze. Diese Studie trägt somit zum aktuellen Diskurs über die Optimierung neuraler Netze im Umgang mit realen Datenimperfektionen bei.
Supervisor: Andre
Research Area: Machine Learning
Künstliche Intelligenz und Algorithmen des maschinellen Lernens gewinnen zunehmend an Bedeutung in verschiedenen Forschungsfeldern. So auch in den psychologischen Wissenschaften. Eine Modellklasse, die sich in anderen Forschungsfeldern häufig als Gewinner in Vorhersage-Wettbewerben herausgestellt hat, ist das künstliche neurale Netzwerk, welches an die Mechanismen der biologischen neuronalen Netzwerke angelehnt ist. Der Erfolg in anderen Forschungsfeldern von neuralen Netzwerken ist Grund genug zur Annahme, dass man diese Modellklasse auch für psychologische Datensätze zur Prognose von Verhaltensmustern und/oder kognitiven Prozessen verwenden könnte.
Diese Studie widmet sich der Evaluation der Jackknife-Methode im Kontext neuraler Netze mit dem Ziel, Unsicherheiten dieser Modelle hinsichtlich ihrer Prognosegenauigkeit zu untersuchen. Das Forschungsvorhaben konzentriert sich auf die Anwendung der Jackknife-Methode auf simulierten Datensätzen im Multilevel-Kontext, um deren Auswirkungen auf die Vorhersage menschlichen Erlebens und Verhaltens zu analysieren.
Die Effektivität der Unsicherheitsschätzung wird anhand von Leistungskennzahlen bewertet, um eine umfassende Einschätzung ihrer Auswirkungen auf die Prognosegenauigkeit zu ermöglichen.
Die Ergebnisse dieser Untersuchung liefern wichtige Erkenntnisse darüber, inwieweit die Jackknife-Methode dazu beitragen kann, die Herausforderungen der Unsicherheitsschätzung in neuralen Netzen zu bewältigen. Diese Erkenntnisse sind von Relevanz für Praktiker und Forscher, die die Leistungsfähigkeit neuraler Netze in realen Anwendungen verbessern möchten, insbesondere unter Berücksichtigung psychologischer hierarchischer Datensätze. Diese Studie trägt somit zum aktuellen Diskurs über die Optimierung neuraler Netze im Umgang mit realen Datenimperfektionen bei.
Supervisor: Andre
Research Area: Machine Learning
Künstliche Intelligenz und Algorithmen des maschinellen Lernens gewinnen zunehmend an Bedeutung in verschiedenen Forschungsfeldern. So auch in den psychologischen Wissenschaften. Eine Modellklasse, die sich in anderen Forschungsfeldern häufig als Gewinner in Vorhersage-Wettbewerben herausgestellt hat, ist das künstliche neurale Netzwerk, welches an die Mechanismen der biologischen neuronalen Netzwerke angelehnt ist. Der Erfolg in anderen Forschungsfeldern von neuralen Netzwerken ist Grund genug zur Annahme, dass man diese Modellklasse auch für psychologische Datensätze zur Prognose von Verhaltensmustern und/oder kognitiven Prozessen verwenden könnte.
Dieses Projekt fokussiert sich auf die Herausforderungen und Potenziale der Hyperparameterkonfiguration für Long-Short-Term Memory Networks (LSTMs) im Kontext menschlichen Erlebens und Verhaltens. Ziel ist die Entwicklung eines begründbaren Hyperparameterraums, der die Modellleistung auf psychologische Datensätze optimiert und gleichzeitig eine transparente Interpretation der gewählten Konfiguration ermöglicht.
Die Forschung beginnt mit einer umfassenden Analyse der relevanten Hyperparameter, einschließlich Lernraten, Batch-Größen, Schichtarchitekturen und Dropout-Raten, um potenziell einflussreiche Faktoren zu identifizieren. Basierend auf dieser Analyse wird ein Hyperparameterraum definiert, der die spezifischen Anforderungen psychologischer Daten berücksichtigt und gleichzeitig Raum für solide Modellprognosen schafft.
Durch systematische Experimente mit unterschiedlichen Hyperparametereinstellungen wird die Leistung der LSTMs auf simulierten psychologischen Datensätzen evaluiert. Die Ergebnisse ermöglichen nicht nur die Identifikation optimaler Konfigurationen, sondern auch Einblicke in die Auswirkungen einzelner Hyperparameter auf die Modellleistung.
Die Erkenntnisse dieser Studie dienen nicht nur der Entwicklung effektiverer Modelle für die Analyse psychologischer Daten, sondern bieten auch einen Beitrag zur Schaffung von Transparenz und Verständlichkeit bei der Auswahl von Hyperparametern für LSTMs. Diese Forschung richtet sich an Studenten und Praktiker, die ein tieferes Verständnis für die Feinabstimmung von LSTMs im Kontext psychologischer Anwendungen anstreben.
Supervisor: Andre
Research Area: Machine Learning
Künstliche Intelligenz und Algorithmen des maschinellen Lernens gewinnen zunehmend an Bedeutung in verschiedenen Forschungsfeldern. So auch in den psychologischen Wissenschaften. Eine Modellklasse, die sich in anderen Forschungsfeldern häufig als Gewinner in Vorhersage-Wettbewerben herausgestellt hat, ist das künstliche neurale Netzwerk, welches an die Mechanismen der biologischen neuronalen Netzwerke angelehnt ist. Der Erfolg in anderen Forschungsfeldern von neuralen Netzwerken ist Grund genug zur Annahme, dass man diese Modellklasse auch für psychologische Datensätze zur Prognose von Verhaltensmustern und/oder kognitiven Prozessen verwenden könnte.
Dieses Projekt fokussiert sich auf die Herausforderungen und Potenziale der Hyperparameterkonfiguration für Transformer neurale Netzwerke im Kontext menschlichen Erlebens und Verhaltens. Ziel ist die Entwicklung eines begründbaren Hyperparameterraums, der die Modellleistung auf psychologische Datensätze optimiert und gleichzeitig eine transparente Interpretation der gewählten Konfiguration ermöglicht.
Die Forschung beginnt mit einer umfassenden Analyse der relevanten Hyperparameter, einschließlich Lernraten, Batch-Größen, Schichtarchitekturen und „Attention-Heads“, um potenziell einflussreiche Faktoren zu identifizieren. Basierend auf dieser Analyse wird ein Hyperparameterraum definiert, der die spezifischen Anforderungen psychologischer Daten berücksichtigt und gleichzeitig Raum für solide Modellprognosen schafft.
Durch systematische Experimente mit unterschiedlichen Hyperparametereinstellungen wird die Leistung der Transformer-Netze auf simulierten psychologischen Datensätzen evaluiert. Die Ergebnisse ermöglichen nicht nur die Identifikation optimaler Konfigurationen, sondern auch Einblicke in die Auswirkungen einzelner Hyperparameter auf die Modellleistung.
Die Erkenntnisse dieser Studie dienen nicht nur der Entwicklung effektiverer Modelle für die Analyse psychologischer Daten, sondern bieten auch einen Beitrag zur Schaffung von Transparenz und Verständlichkeit bei der Auswahl von Hyperparametern für Transformer-Netze. Diese Forschung richtet sich an Studenten und Praktiker, die ein tieferes Verständnis für die Feinabstimmung von „Transformer Neural Networks“ im Kontext psychologischer Anwendungen anstreben.
Don't hesitate to share your own ideas with us; they are greatly appreciated!