Interaktive 3R Maus-Arena

Die interaktive Open-Field-Maus-Arena wurde von Pascal Ankli entwickelt. Die Arena ist vollständig weiss ausgekleidet und eignet sich daher besonders für die Untersuchung dunkler Mauslinien, beispielsweise C57BL/6-Mäuse. Ein variables Beleuchtungssystem in Kombination mit einem iPhone-Stativ ermöglicht eine homogene Ausleuchtung der Arena mit unterschiedlichen Lichtfarben sowie variabler Lichtintensität. Die Verhaltensaufnahmen erfolgen mittels iPhone, wobei die Videos kabellos in Echtzeit auf ein MacBook übertragen, dort aufgezeichnet und anschliessend für die Analyse mit beispielsweise DeepLabCut [1] oder vergleichbaren markerlosen Tracking-Verfahren verwendet werden können. Darüber hinaus können die aufgezeichneten Daten in Python-basierte Analysepipelines integriert und mit gängigen wissenschaftlichen Bibliotheken zur Verhaltensquantifizierung, statistischen Auswertung und Modellierung weiterverarbeitet werden. Dieses Setup erlaubt eine präzise und flexible Quantifizierung des Mausverhaltens.

Die Arena ist mit einem Arduino-Uno-Board [2] ausgestattet, das von Pascal Ankli selbst programmiert wurde und in mehreren experimentellen Modi multimodale Stimuli generiert. Dabei werden visuelle Signale unterschiedlicher Wellenlängen (blau bzw. grün) für eine Dauer von zehn Sekunden präsentiert, kombiniert mit akustischen Signalen variabler Frequenz über drei Sekunden.

Im ersten Modus werden visuelle und akustische Stimuli präsentiert, die nicht mit einem Reward verknüpft sind (CS−). Im zweiten Modus sind spezifische, alternative Kombinationen aus Lichtwellenlänge und akustischer Frequenz mit der Ausschüttung eines Food-Rewards gekoppelt (CS+). Im dritten Modus werden die visuellen und akustischen Stimuli aus Modus 1 und Modus 2 simultan überlagert. Dadurch wird das ursprünglich reward-assoziierte Signal maskiert, während kein Reward freigegeben wird. Diese Bedingung dient dazu, die bewusste Wahrnehmung des relevanten Signals gezielt zu erschweren oder zu unterbinden, während sensorische Information weiterhin physikalisch präsent bleibt.

Dieses experimentelle Paradigma ermöglicht die systematische Untersuchung des Verhaltens von Mäusen sowie deren Verarbeitung visueller und akustischer Signale im Kontext eines Belohnungssystems. Insbesondere erlaubt das Setup die Analyse von Lernprozessen, Erwartungsbildung, multisensorischer Integration, Maskierungseffekten sowie stimulusabhängigem Entscheidungsverhalten. Darüber hinaus kann das System zur Untersuchung von Vorhersagefehlern, Antizipationsverhalten sowie der Differenzierung zwischen automatischen und potenziell bewusst vermittelten Verhaltensreaktionen eingesetzt werden.

Das System wurde zudem unter Berücksichtigung der 3R-Prinzipien (Replacement, Reduction, Refinement) [3] konzipiert. Durch die vollständig automatisierte Stimuluspräsentation und objektive, videobasierte Verhaltensanalyse wird eine hohe Datendichte pro Tier erreicht, was zur Reduktion der benötigten Tierzahl (Reduction) beiträgt. Die markerlose Videoanalyse ermöglicht eine nicht-invasive Datenerhebung ohne chirurgische Eingriffe oder zusätzliche Belastung der Tiere und unterstützt damit das Refinement. Gleichzeitig erlaubt die flexible, wiederverwendbare Versuchsumgebung eine effiziente Durchführung unterschiedlicher Fragestellungen innerhalb desselben Paradigmas, wodurch zusätzliche Tierexperimente minimiert werden können.

Durch die flexible, selbst programmierte Steuerung über das Arduino-Board kann das Paradigma zudem gezielt erweitert werden. Dazu zählen beispielsweise variabel verzögerte Stimulus-Reward-Intervalle, Near-Threshold-Stimuli mit reduzierter Intensität, zeitliche Maskierungsparadigmen, probabilistische Reward-Strukturen, inkongruente multisensorische Stimuli (z. B. visuelle und akustische Konfliktbedingungen) sowie Reward-Omissions- oder Surprise-Trials. Solche Erweiterungen ermöglichen eine weiterführende Untersuchung von Erwartungsbildung, sensorischer Evidenzakkumulation, Entscheidungsunsicherheit und potenziellen Korrelaten bewusster Wahrnehmung.

In folgendem Video finden Sie eine kurze Demonstration. 

Sie haben der Verwendung von Cookies widersprochen. Daher stehen Ihnen einige Funktionen dieser Website (z. B. Kartenansichten oder Videos) nur eingeschränkt zur Verfügung. Sie können Ihre Einstellung in dem Cookie-Policy-Banner unten rechts auf der Homepage jederzeit ändern.

Referenzen

[1] Mathis, A., Mamidanna, P., Cury, K.M. et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci 21, 1281–1289 (2018).DOI: https://doi.org/10.1038/s41593-018-0209-y

[2] Chen X and Li H (2017) ArControl: An Arduino-Based Comprehensive Behavioral Platform with Real-Time Performance. Front. Behav. Neurosci. 11:244. DOI: https://doi.org/10.3389/fnbeh.2017.00244

[3] Ritskes-Hoitinga, M.; van Luijk, J. How Can Systematic Reviews Teach Us More about the Implementation of the 3Rs and Animal Welfare? Animals 2019, 9, 1163.DOI: https://doi.org/10.3390/ani9121163