Vision-based context-awareness in minimally invasive surgical video streams

dc.contributor.advisorHellwich, Olaf
dc.contributor.authorSahu, Manish
dc.contributor.grantorTechnische Universität Berlinen
dc.contributor.refereeHellwich, Olaf
dc.contributor.refereeSpeidel, Stefanie
dc.contributor.refereeZachow, Stefan
dc.date.accepted2021-12-23
dc.date.accessioned2022-02-24T10:35:29Z
dc.date.available2022-02-24T10:35:29Z
dc.date.issued2022
dc.description.abstractSurgical interventions are becoming increasingly complex thanks to modern assistance systems (imaging, robotics, etc.). Minimally invasive surgery in particular places high demands on surgeons due to added surgical complexity and information overload. Therefore, there is a growing need of developing context-aware systems that recognize the current surgical situation in order to derive and present the relevant information to the surgical staff for assistance. Current approaches for deriving contextual cues either utilize specialized hardware that is disruptive to the surgical workflow, or utilize vision-based approaches that require valuable time of surgeons, especially for manual annotations. The main objective of this cumulative dissertation is to improve the existing approaches for three important sub-problems of vision-based context-aware systems, namely surgical phase recognition, surgical instrument recognition and surgical instrument segmentation, while tackling the vision and manual annotation challenges related to these problems. This dissertation demonstrates that vision-based approaches for the three named clinical sub-problems of context-aware systems can be developed in an annotation-scarce setting by employing: domain-specific, deep learning based transfer learning techniques for the surgical instrument and phase recognition tasks; and deep learning based simulation-to-real unsupervised domain adaptation techniques for the surgical instrument segmentation task. The efficacy and real-time performance of the developed approaches have been evaluated on publicly available datasets containing real surgical videos (laparoscopic procedures) that were acquired in an uncontrolled surgical environment. These proposed approaches advance the state-of-the-art for the aforementioned research problems of context-aware systems in the OR and can potentially be utilized for real-time notification of the surgical phase, surgical instrument usage and image-based localization of surgical instruments.en
dc.description.abstractChirurgische Eingriffe werden dank moderner Assistenzsysteme (Bildgebung, Robotik usw.) immer komplexer. Insbesondere die minimalinvasive Chirurgie stellt aufgrund der zusätzlichen chirurgischen Komplexität und der Informationsfülle hohe Anforderungen an die Operateur/-innen. Aus diesem Grund besteht ein zunehmender Bedarf an der Entwicklung kontextsensitiver Systeme, die die aktuelle Operationssituation erkennen, um daraus die relevanten Informationen abzuleiten und dem chirurgischen Personal zur Unterstützung zu präsentieren. Derzeitige Ansätze zur Generierung kontextsensitiver Hinweise verwenden entweder spezielle Hardware, die den chirurgischen Arbeitsablauf stören, oder sie nutzen bildverarbeitungsbasierten Ansätzen, die wertvolle Zeit der Chirurgen in Anspruch nehmen, insbesondere für manuelle Annotationen. Das Hauptziel dieser kumulativen Dissertation ist es, bestehend Ansätze für drei wichtige Teilprobleme von bildbasierten kontextsensitiven Systemen zu verbessern: die Erkennung von chirurgischen Phasen, chirurgischen Instrumenten und die Segmentierung von chirurgischen Instrumenten im Bildmaterial. Hierbei werden insbesondere auch die mit diesen Problemen verbundenen Herausforderungen in Bezug auf die Klarheit des Bildmaterials und die manuelle Annotation mit in Angriff genommen. In dieser Dissertation wird gezeigt, dass bildverarbeitungsbasierte Ansätze für die drei genannten klinischen Teilprobleme kontextsensitiver Systeme in einem annotationsarmen Umfeld entwickelt werden können. Für die Aufgaben der chirurgischen Instrumenten- und Phasenerkennung werden hierzu domänenspezifische, auf Deep Learning basierende 'Transfer-Learning'-Techniken verwendet und für die Aufgabe der Segmentierung chirurgischer Instrumente werden auf Deep Learning basierende 'Simulation-to-Real Unsupervised Domain Adaption' Techniken eingesetzt. Die Wirksamkeit und die Echtzeitleistung der entwickelten Ansätze wurden an öffentlich zugänglichen Datensätzen mit realen chirurgischen Videos (laparoskopische Verfahren) evaluiert, die in einer unkontrollierten chirurgischen Umgebung aufgenommen wurden. Die vorgeschlagenen Ansätze stellen einen Fortschritt der wissenschaftlichen Erkenntnis in Bezug auf die oben genannten Forschungsprobleme kontextbezogener Systeme im OP dar und können potenziell für die Echtzeit-Benachrichtigung der chirurgischen Phase, Verwendung von chirurgischen Instrumenten und die bildbasierte Lokalisierung von chirurgischen Instrumenten verwendet werden.de
dc.identifier.urihttps://depositonce.tu-berlin.de/handle/11303/16126
dc.identifier.urihttp://dx.doi.org/10.14279/depositonce-14900
dc.language.isoenen
dc.rights.urihttp://rightsstatements.org/vocab/InC/1.0/en
dc.subject.ddc004 Datenverarbeitung; Informatikde
dc.subject.othercomputer visionen
dc.subject.otherdeep learningen
dc.subject.othercomputer assisted surgeryen
dc.subject.otherminimally invasive surgeryen
dc.subject.othersurgical data scienceen
dc.subject.otherComputervisionde
dc.subject.othermaschinelles Lernende
dc.subject.othercomputerassistierte Chirurgiede
dc.subject.otherminimalinvasive Chirurgiede
dc.subject.otherbildgebendes Verfahrende
dc.titleVision-based context-awareness in minimally invasive surgical video streamsen
dc.title.translatedVision-basierte Kontexterkennung in minimalinvasiven chirurgischen Videoaufnahmende
dc.typeDoctoral Thesisen
dc.type.versionacceptedVersionen
tub.accessrights.dnbdomainen
tub.affiliationFak. 4 Elektrotechnik und Informatik::Inst. Technische Informatik und Mikroelektronik::FG Computer Vision & Remote Sensingde
tub.affiliation.facultyFak. 4 Elektrotechnik und Informatikde
tub.affiliation.groupFG Computer Vision & Remote Sensingde
tub.affiliation.instituteInst. Technische Informatik und Mikroelektronikde
tub.publisher.universityorinstitutionTechnische Universität Berlinen

Files

Original bundle
Now showing 1 - 1 of 1
Loading…
Thumbnail Image
Name:
sahu_manish.pdf
Size:
16.91 MB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
4.86 KB
Format:
Item-specific license agreed upon to submission
Description:

Collections