
(Foto: privat)
Kliegis, L.; Weigt, J.
Klinik für Gastroenterologie, Hepatologie und Infektiologie, Otto-von-Guericke-Universität Magdeburg
mit Universitätsklinikum Magdeburg
Künstliche Intelligenz ist in vielen Bereichen als Ergänzung menschlicher Ressourcen zur Bewältigung verschiedenster alltäglicher Aufgaben nicht mehr wegzudenken. Neben der Gesichtserkennung an Smartphone-Kameras, Schachcomputern oder autonom fahrenden Fahrzeugen ist ihr Einzug in die Medizin eine logische Konsequenz der technischen Entwicklung der letzten Jahrzehnte und wird zunächst neben der Radiologie unter anderem in den bildgebenden Bereichen der Histopathologie, Ophthalmologie, Dermatologie und Endoskopie erwartet. In jüngster Zeit wurden verschiedene Ansätze für diagnostische Assistenzsysteme in der gastrointestinalen Endoskopie vorgestellt, deren Anwendungen von der Ösophagogastroduodenoskopie über Kapselendoskopie bis zur Koloskopie reichen.
Die wissenschaftliche Auseinandersetzung mit solchen Assistenzsystemen stellt eine neue Herausforderung für Ärzte dar und setzt mitunter gute Kenntnisse über die technischen, mathematischen und terminologischen Grundsätze künstlicher neuronaler Netze voraus. In diesem Artikel wird ein Überblick über Entwicklungen der Künstlichen Intelligenz in der gastrointestinalen Endoskopie gegeben und der Schwerpunkt auf die automatisierte Detektion und Charakterisierung von Kolonpolypen in der Koloskopie gelegt.
Koloskopie
Die enge Verknüpfung von minimalinvasiver Diagnostik und lokaler Therapie steht im Vordergrund der gastrointestinalen Endoskopie. Hierbei stellt die Koloskopie diejenige Untersuchung mit dem größten Stellenwert in Bezug auf die Karzinominzidenz dar. Entscheidend hierfür ist die frühzeitige Erkennung und Entfernung von Adenomen. Zahlreiche Fachgesellschaften definieren mittlerweile Qualitätsmerkmale für Koloskopien (1, 2), durch deren Einhaltung ein Nutzen für den Patienten vorhersehbar ist. Die hierfür in der Literatur verwendete Terminologie birgt das Risiko der Fehlinterpretation gleich mehrerer Begriffe, deren Unterscheidung unabdingbar für das Verständnis von Studienergebnissen ist: Als wichtigster Qualitätsindikator wird die Adenom-Detektionsrate (ADR) angesehen, die jenen Anteil an im Rahmen einer Screening-Koloskopie untersuchten Patienten beschreibt, bei dem mindestens ein Adenom gefunden wurde (3). Hingegen beschreibt die Polypen-Detektionsrate (PDR) die Anzahl der entdeckten Polypen pro Patient, während mit der Adenom-Fehlrate (engl. „Adenoma-Miss-Rate“, AMR) schließlich die Anzahl übersehener Adenome pro Patient definiert wird.
Trotz optimaler Vorbereitung der zu untersuchenden Umgebung mithilfe von Darmspülungen als patientenseitige Voraussetzung für eine gelungene Koloskopie (4), geht man derzeit davon aus, dass etwa 20 % der Adenome in der Koloskopie übersehen werden (5). Hierbei kommen neben den direkt durch die Untersucher verursachten Unterschiede auch technische Aspekte zum Tragen: In der klinischen Anwendung zeigen sich beispielsweise hochauflösende Endoskopiesysteme jenen mit sogenannter Standardauflösung in Bezug auf die ADR überlegen (6–9). Diese Daten legen nahe, dass zukünftig ausschließlich auf Systeme mit HD-Auflösung zurückgegriffen werden sollte. Darüber hinaus ist die Brennweite der verwendeten Optik wichtig, da sie den Blickwinkel und somit die vom Untersucher beurteilbare Fläche definiert. Erschwerend hinzu kommen hinter Schleimhautfalten verborgene Polypen und solche, die trotz aller Bemühungen und technischer Entwicklungen vom Untersuchenden unentdeckt bleiben, obwohl sie objektiv im Bild vorhanden und damit Teil der Bildinformation sind. Nicht zuletzt hat die Erfahrung und Konzentrationsfähigkeit des Untersuchenden einen erheblichen Einfluss auf die Qualität der Untersuchung (10).
Tiefe neuronale Netze: Ein Überblick
Bereits vor knapp 20 Jahren gab es erste Bemühungen, Kolonpolypen von bildverarbeitenden Algorithmen in Einzelbildern erkennen zu lassen (11, 12). Diese Algorithmen wurden damals noch mit manuell festgelegten „Suchkriterien“ ausgestattet, was zwar bereits ein Schritt in Richtung automatisierter Detektion war, bei dem vielgestaltigen Vorkommen an Kolonpolypen jedoch unzureichende Ergebnisse lieferte. Zusätzlich war die Rechenleistung von Computern noch zu gering, als dass die Auswertung von Videodaten in Echtzeit in greifbarer Nähe schien. Somit verzögerte sich der Einzug in die klinische Anwendung bis in die Gegenwart, in der die Künstliche Intelligenz, hinter deren Begriff sich heutzutage in der Objekterkennung zumeist „tiefe neuronale Netze“ verbergen, durch moderne Algorithmen und die exponentiell gestiegene Rechenleistung heutiger Computer eine Renaissance erlebt.
In der stetig wachsenden Familie neuronaler Netze bzw. maschinellen Lernens haben sich sogenannte „Convolutional Neural Networks“ (CNN) als zur Auswertung von in Bild- und Videodaten enthaltener Information, insbesondere der Objekterkennung, durchgesetzt (13). Das Vorbild dieser CNNs stammt hierbei aus der Biologie: So beeinflusste der seinerzeit gegenwärtige Kenntnisstand über neuronale Verknüpfungen in den visuellen Corties von Makaken und Katzen die grundlegende Architektur und Hierarchie der Reiz- bzw. Informationsverarbeitung (14-16). Analog hierzu werden in verschiedenen Schichten des „tiefen neuronalen Netzes“ verschiedene Abstraktionsgrade an Information verarbeitet: Beispielsweise reagieren die synonym benannten Neuronen in den niederen Schichten in der Regel zunächst auf senkrechte, horizontale oder diagonale Kanten im Bild. Diese unzähligen Informationsfragmente werden in höheren Ebenen dann zu immer komplexeren Formen aufgelöst und schließlich von der höchsten Ebene des Netzes zu einer jeweiligen Wahrscheinlichkeit einer oder mehreren Kategorien zugeordnet (17, 18).
Um diese Klassifizierung verschiedener Objekte vornehmen zu können, werden die neuronalen Netze in der Medizin in der Regel zunächst mit Bildern trainiert, die zuvor von Experten annotiert wurden. Das Niveau der Annotation kann am Beispiel von Kolonpolypen vom bloßen Unterteilen der Trainingsdaten in „enthält Polypen“ und „enthält keinen Polypen“ bis hin zur Pixel-genauen manuellen Markierung von polypösem Gewebe im Einzelbild reichen. Anhand dieses Trainingsdatensatzes generiert das Modell sein eigenes visuelles Konzept (sprich: eigene Suchkriterien) für Kolonpolypen: Es lernt, zu entscheiden, ob und welche Pixel im jeweiligen Bild zu einem Polypen gehören und welche nicht. In der Praxis ließen sich solche Befunde dann auf dem Bildschirm etwa durch Rahmen oder Farbüberlagerungen grafisch hervorheben, um die Aufmerksamkeit des Untersuchers auf die jeweilige Bildregion zu lenken. Die Echtzeitanalyse von Videodaten funktioniert in der Regel so, dass dem neuronalen Netzwerk die Einzelbilder (engl. „frames“) mit einer Bildrate von etwa 30 bis 60 Frames pro Sekunde (fps) zur Analyse präsentiert werden und deren Bildinformation anhand justierbarer Regeln bewertet wird. So ließe sich beispielsweise festlegen, dass das Detektionssystem einen Polypen erst ab fünf konsekutiven Frames, in denen die jeweilige Wahrscheinlichkeit für dessen Vorhandensein aus Sicht des neuronalen Netzes einen definierten Schwellenwert erreicht, in der entsprechenden Bildregion hervorheben soll. Mithilfe eines solchen zeitlich dimensionierten Zusammenhangs von Bildinformation ließen sich Fehlalarme durch flüchtige Artefakte wie z. B. Reflexionen oder Luftblasen und somit die Unschärfe der Befundung reduzieren (19). Dies könnte die Anwendbarkeit eines Systems für den Untersuchenden steigern.
Anwendungen Künstlicher Intelligenz in der gastrointestinalen Endoskopie
Neben der automatisierten Erkennung von Kolonpolypen (20–24) sowie ihrer durch Computer unterstützten Charakterisierung in der Koloskopie (25–28) existiert bereits eine Bandbreite an Möglichkeiten für den Einsatz von Assistenzsystemen, welche die Diagnostik verschiedener gastrointestinaler Erkrankungen erleichtern, präzisieren und in ihrer Qualität möglichst anwenderunabhängig stabilisieren sollen. Beispielsweise befassen sich in der Läsionserkennung mittels ÖGD verschiedene Autoren mit der Detektion von Magenfrühkarzinomen (29) oder H.-Pylori-Infektionen (30). Weiter gibt es Ansätze zur optischen Beurteilung der Tumorinvasionstiefe (31) und zur Barrett-Surveillance (32-34). Eine Arbeitserleichterung könnte das automatisierte Aufbereiten (Segmentieren) von Kapsel-Endoskopien darstellen, indem informative Sequenzen (z. B. Blutungen) vor den mitunter sehr umfangreichen non-informativen Sequenzen (z. B. Schaum, Stuhl, Verwacklungsunschärfen) hervorgehoben werden (35). Sogenannte „Recurrent Convolutional Neural Networks“ (RCNN), die über eine Art Gedächtnisschleife verfügen, ließen sich zukünftig zu Schulungszwecken und die automatisierte Dokumentation bzw. Zuordnung von Befunden aus verschiedenen Bildgebungen z. B. im Sinne einer „visuellen Odometrie“ in der Koloskopie oder ÖGD nutzen (36).
Computer-assistierte Detektion (CADe) und Charakterisierung (CADx) von Kolonpolypen
Zwar haben inzwischen mehrere Unternehmen marktreife Systeme zur computergestützten Detektion (und Charakterisierung) von Kolonpolypen vorgestellt, doch behält der Großteil der vorliegenden Daten in der Literatur bislang experimentellen und retrospektiven Charakter. Im Folgenden werden einige jüngere Arbeiten zur Thematik kurz vorgestellt. In einer Studie von Hassan et al. wurde das plattformübergreifende Detektionssystem „GI Genius“ der Firma Medtronic an Kurzvideos von 105 Patienten mit insgesamt 338 Polypen untersucht. Die Studie zeigte eine Sensitivität von 99,7 % bei einer Falsch-positiv-Rate von unter 1 % der für die Untersuchung verwendeten Videoframes. Bemerkenswert war die durch das System gegenüber Experten deutlich verbesserte Reaktionszeit auf detektierbare Polypen (∆t = -1,27 ± 3,81 s) (20).

In einer chinesischen Studie wurden 1058 Patienten entweder mit oder ohne Zuhilfenahme eines Detektionssystems in Hinblick auf die ADR untersucht. Diese stieg signifikant von 20,1 % auf 29,3 % (p < 0,001) an, was hauptsächlich durch die Detektion überrepräsentierter sowohl diminutiver (< 5 mm) als auch hyperplastischer Polypen in der Versuchsgruppe verursacht wurde (21).
Eine japanische Forschungsgruppe randomisierte 546 retrospektiv zusammengestellte Videosequenzen aus Koloskopien von 73 Patienten mit insgesamt 155 durch zwei Experten befundeten kolorektalen Polypen auf einen Trainings-Datensatz mit 105 Polyp-positiven bzw. 306 Polyp-negativen Sequenzen und einen Test-Datensatz mit 50 Polyp-positiven bzw. 85 Polyp-negativen Sequenzen. Die Einzelbildanalyse des CNNs erreichte eine Sensitivität von 90,0 %, eine Spezifität von 63,3 % und eine Treffergenauigkeit von 76,5 %. In der Polyp-basierten Analyse detektierte das CNN Polypen mit einer Sensitivität von 94 %, 47 von 50 Polypen bei einer Falsch-positiv-Rate von 60 % (22).


Urban et al. trainierten gleich mehrere neuronale Netze mit verschiedenen Herangehensweisen und waren im Stande, die vorhandenen Kolonpolypen im Bild nicht nur in Echtzeit zu detektieren, sondern mithilfe sogenannter bounding-boxes auch zu lokalisieren. Die besten Resultate bei der Einzelbildanalyse lieferte hierbei ein an einer Datenbank von Alltagsbildern vortrainiertes und an einer proprietären Polyp-Datenbank fein justiertes tiefes neuronales Netz, welches für die Erkennung eines Polypen im Bild bei einer Treffergenauigkeit von 96,4 % und einer AUC von 0,991 nur 10 ms Verarbeitungszeit benötigte. Der verwendete Algorithmus detektierte bei der Analyse von ca. 10 Videos sogar mehr Polypen als die Experten-Analyse (ADR > 50 %) zuvor. Eine zusätzliche Ebene der Diagnostik wird erreicht, indem das System den Polypen nicht bloß erfolgreich lokalisiert, sondern anhand einer optischen Analyse seiner Binnenstruktur auch eine Vorhersage über dessen Histologie (neoplastisch bzw. nicht-neoplastisch) erstellen kann. Die Konsequenz einer sicheren, automatisierten Charakterisierung wäre, dass zahlreiche nicht-pathologische Befunde entweder in situ belassen oder nach Abtragung ohne Umwege über die histopathologische Befundung entsorgt werden könnten. So ließe sich nicht nur die finanzielle Belastung des Gesundheitssystems, sondern auch der durch Bagatellläsionen verursachte Arbeitsaufwand für die Histopathologie reduzieren (37).
Mori et al. untersuchten an 791 Patienten die Vorhersage der Histologie an diminutiven Polypen und fanden heraus, dass der negativ prädiktive Wert des von ihnen verwendeten Systems mit 96,4 % deutlich oberhalb des 2011 von der American
Society for Gastrointestinal Endoscopy (ASGE) verlangten Grenzwertes von 90 % (37) liegt, der einer rein endoskopischen Beurteilung zu entscheiden erlaubt, ob ein Polyp abgetragen werden muss oder nicht (25).
Eine retrospektive Studie von Kudo et al. verglich anhand auf Färbung mit Methylenblau bzw. „Narrow-band Imaging“ (NBI) basierender endozytoskopischer Bilder von 100 Patienten das System EndoBRAIN der Firma Olympus mit 30 Endoskopikern, wovon 20 in Ausbildung und 10 Experten waren. Die Autoren konnten zeigen, dass EndoBRAIN an mit Methylenblau gefärbten Befunden signifikant bessere Ergebnisse als beide Kontrollgruppen bei der Differenzierung zwischen neoplastischen und nicht-neoplastischen Befunden erzielte. Bei der Analyse von NBI-Bildern übertraf das System abermals die Anfänger und erreichte, abgesehen von signifikant höheren Werten für Sensitivität und negativ prädiktivem Wert, ein mit Experten vergleichbares Ergebnis (28).
Ausblick
Nachdem das Prinzip der Künstlichen Intelligenz (KI) in der Endoskopie anhand der automatisierten Detektion und Charakterisierung von Kolonpolypen vorgestellt wurde, sei angemerkt, dass die Künstliche Intelligenz in verschiedenen Gebieten der medizinischen Diagnostik erforscht und zukünftig Anwendung finden wird (38-40). Dieser Fortschritt ist allerdings mit einigen Herausforderungen verbunden, die es zu überwinden gilt.
Die Kolonadenome sind nicht ohne Grund eines der ersten vielversprechenden Anwendungsgebiete für Systeme dieser Art: Kolonpolypen sind häufig und die Diagnostik ist sicher, woraus bei entsprechenden technischen Voraussetzungen eine hohe Verfügbarkeit hochqualitativer Daten resultiert. Dies ist von großer Bedeutung für den Lernerfolg und die sich daraus ableitende Genauigkeit eines neuronalen Netzes.
Bei Erkrankungen, bei denen ein Urteil zum Vorliegen der Erkrankung hingegen oft schwierig oder verschieden einstufbar ist, etwa bei der atrophischen Gastritis, bei der die Inter-Observer-Reliabilität selbst von Pathologen mit einem Kappa von 0.12 bislang ungenügend ist (41), können die Trainingsdaten nur mit einer geringen Genauigkeit vorbereitet werden, was wiederum den Lernerfolg beeinträchtigen kann. Zudem ist die verfügbare Datenmenge im Beispiel der atrophischen Gastritis vergleichsweise gering. Zwar scheinen einige tausend bis zigtausend zu analysierende Einzelbilder für einen einzelnen Arzt unzumutbare Dimensionen anzunehmen, doch stellen solche Datenmengen heutzutage lediglich ein Appetithäppchen für die datenhungrigen Algorithmen moderner Machine Learning-Methoden dar. Eine robuste Lösung dafür, ausreichend große Mengen an standardisiertem Bildmaterial von Patienten in guter Qualität und sicherer Klassifizierung herstellerübergreifend verfügbar zu machen, erscheint derzeit nicht nur unter den aktuellen Datenschutzbestimmungen in weiter Ferne.
Ein weiterer, in der Endoskopie bislang kaum untersuchter, aber wichtiger Aspekt ist die Interaktion des Assistenzsystems mit dem Untersucher. Hierzu gibt es viele Überlegungen, aber noch wenig wissenschaftliche Erkenntnisse. Allein die Art der Kennzeichnung detektierter Befunde mithilfe von Farben, akustischen oder haptischen Signalen (z. B. vibrierender Handgriff) wird eine entscheidende Rolle in der Anwendbarkeit und damit Akzeptanz dieser Systeme im klinischen Alltag spielen. Zum Beispiel muss der Hinweis auf einen Polypen nach einer gewissen Zeit (bspw. unmittelbar vor der Resektion) nicht mehr zwingend im Bild angezeigt werden – verschwindet er aber zu schnell, könnten mitunter sogar Befunde, die von der KI detektiert und dargestellt wurden, vom Untersucher übersehen werden. Ebenso könnten Fehlalarme im durch Blutungen und Kontraktionen geprägten Resektionsgebiet insbesondere noch unerfahrene Untersuchende in Bezug auf die R0-Resektion verunsichern, was mitunter zu unnötigen Nachresektionen führen könnte. Diese und andere Grenzen eines neuronalen Netzes muss von den Untersuchenden gekannt und eingeschätzt werden können.
Die Einführung der Detektionssysteme in die klinische Anwendung mag einen großen Schritt bedeuten. Während wir im Alltag längst an die oft kaum mehr wahrnehmbare Präsenz und Unterstützung Künstlicher Intelligenz (bspw. Begriffsvorschläge von Suchmaschinen) gewöhnt sind, so stehen wir in der Medizin derzeit noch am Anfang der Entwicklung von diagnostischen Assistenzsystemen auf der Basis Künstlicher Intelligenz. Nicht zuletzt stellt hier der rege Schlagabtausch stetig steigender Rechenleistung mit den zunehmend komplexeren datenverarbeitenden Methoden der Informatik die größte Triebkraft neuer Technologien auf diesem Gebiet dar.
Ein Großteil dieser Innovationen entstammt dazu dem nicht-medizinischen Sektor und erhält oftmals erst zweitrangig Einzug in die Medizin. Ein Grund dafür ist unter anderem die hohe und niedrigschwellige Datenverfügbarkeit außerhalb der Medizin. Doch für die Entwicklung robuster Algorithmen bedarf es ausreichend Trainingsmaterial. In Zukunft könnte es daher eine Herausforderung werden, mit der rasanten Entwicklung neuer Methoden und deren wachsende Vielfalt mit wissenschaftlichen Bewertungen unter Berücksichtigung der datenschutzrechtlichen Gegebenheiten Schritt zu halten.
Mit der steigenden Zahl an wissenschaftlichen Veröffentlichungen auf diesem Gebiet wächst auch die Notwendigkeit, sich mit der Methodik der Entwicklung solcher Systeme auseinanderzusetzen, um ggf. auftretende Schwächen in den jeweiligen Arbeiten erkennen und einschätzen zu können (42). Auch wenn die Surrogatparameter wie ADR und PDR durch den Einsatz von Detektionssystemen verbessert werden können, bleibt der harte Endpunkt für den Nutzen dieser neuen Technologie doch die Karzinominzidenz in der Bevölkerung. Diese hängt bei Weitem nicht nur von der Detektionsrate der entsprechenden Instanzen ab, ist doch die Nachsorge ein ausschlaggebender Baustein in der therapeutischen Kaskade. Dies macht es schwierig, den gewünschten Rückgang der Karzinominzidenz allein bzw. größtenteils der verbesserten Diagnostik zuzuschreiben, sollten entsprechende Untersuchungen in Zukunft vorliegen.
Fazit:
Die Entwicklung der Künstlichen Intelligenz schreitet unaufhaltsam voran. Erste Systeme sind bereits zugelassen und auf dem Markt erhältlich. Aufgrund der komplexen Materie ist es wichtig, dass Anwender sich der Indikationen und besonders auch Einschränkungen bewusst sind.
Quellen:
- Bretthauer M, Aabakken L, Dekker E, et al.: Reporting systems in gastrointestinal endoscopy: Requirements and standards facilitating quality improvement: European Society of Gastrointestinal Endoscopy position statement. United European Gastroenterol J 2016; 4(2): 172–6.
- Rembacken B, Hassan C, Riemann JF, et al.: Quality in screening colonoscopy: position statement of the European Society of Gastrointestinal Endoscopy (ESGE). Endoscopy 2012; 44(10): 957–68.
- Bisschops R, East JE, Hassan C, et al.: Advanced imaging for detection and differentiation of colorectal neoplasia: European Society of Gastrointestinal Endoscopy (ESGE) Guideline - Update 2019. Endoscopy 2019; 51(12): 1155–79.
- Hassan C, East J, Radaelli F, et al.: Bowel preparation for colonoscopy: European Society of Gastrointestinal Endoscopy (ESGE) Guideline - Update 2019. Endoscopy 2019; 51(8): 775–94.
- van Rijn JC, Reitsma JB, Stoker J, Bossuyt PM, van Deventer SJ, Dekker E: Polyp miss rate determined by tandem colonoscopy: a systematic review. Am J Gastroenterol 2006; 101(2): 343–50.
- Subramanian V, Mannath J, Hawkey CJ, Ragunath K: High definition colonoscopy vs. standard video endoscopy for the detection of colonic polyps: a meta-analysis. Endoscopy 2011; 43(6): 499–505.
- Buchner AM, Shahid MW, Heckman MG, et al.: High-definition colonoscopy detects colorectal polyps at a higher rate than standard white-light colonoscopy. Clin Gastroenterol Hepatol 2010; 8(4): 364–70.
- Tribonias G, Theodoropoulou A, Konstantinidis K, et al.: Comparison of standard vs high-definition, wide-angle colonoscopy for polyp detection: a randomized controlled trial. Colorectal Dis 2010; 12(10 Online): e260-6.
- East JE, Stavrindis M, Thomas-Gibson S, Guenther T, Tekkis PP, Saunders BP: A comparative study of standard vs. high definition colonoscopy for adenoma and hyperplastic polyp detection with optimized withdrawal technique. Aliment Pharmacol Ther 2008; 28(6): 768–76.
- Leufkens AM, van Oijen MGH, Vleggaar FP, Siersema PD: Factors influencing the miss rate of polyps in a back-to-back colonoscopy study. Endoscopy 2012; 44(5): 470–5.
- Karkanis SA, Iakovidis DK, Maroulis DE, Karras DA, Tzivras M: Computer-aided tumor detection in endoscopic video using color wavelet features. IEEE Trans Inf Technol Biomed 2003; 7(3): 141–52.
- Tajbakhsh N, Gurudu SR, Liang J: Automated Polyp Detection in Colonoscopy Videos Using Shape and Context Information. IEEE Trans Med Imaging 2016; 35(2): 630–44.
- Krizhevsky A, Sutskever I, Hinton GE: ImageNet Classification with Deep Convolutional Neural Networks. In: Pereira F, Burges CJC, Bottou L, Weinberger KQ (eds.): Advances in Neural Information Processing Systems 25. Curran Associates, Inc 2012; 1097–105.
- Rosenblatt F: The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev 1958; 65(6): 386–408.
- Hubel DH, Wiesel TN: Receptive fields, binocular interaction and functional architecture in the cat's visual cortex. J Physiol (Lond) 1962; 160: 106–54.
- Desimone R, Albright TD, Gross CG, Bruce C: Stimulus-selective properties of inferior temporal neurons in the macaque. J. Neurosci 1984; 4(8): 2051–62.
- Goodfellow I, Bengio Y, Courville A: Deep learning. Cambridge, Massachusetts, London, England: MIT Press 2016.
- LeCun Y, Bengio Y, Hinton G: Deep learning. Nature 2015; 521(7553): 436–44.
- Lequan Y, Hao C, Qi D, Jing Q, Pheng AH: Integrating Online and Offline Three-Dimensional Deep Learning for Automated Polyp Detection in Colonoscopy Videos. IEEE J Biomed Health Inform 2017; 21(1): 65–75.
- Hassan C, Wallace MB, Sharma P, et al.: New artificial intelligence system: first validation study versus experienced endoscopists for colorectal polyp detection. Gut 2020; 69(5): 799–800.
- Wang P, Berzin TM, Glissen Brown JR, et al.: Real-time automatic detection system increases colonoscopic polyp and adenoma detection rates: a prospective randomised controlled study. Gut 2019; 68(10): 1813–9.
- Misawa M, Kudo S-E, Mori Y, et al.: Artificial Intelligence-Assisted Polyp Detection for Colonoscopy: Initial Experience. Gastroenterology 2018; 154(8): 2027-2029.e3.
- Urban G, Tripathi P, Alkayali T, et al.: Deep Learning Localizes and Identifies Polyps in Real Time With 96% Accuracy in Screening Colonoscopy. Gastroenterology 2018; 155(4): 1069-1078.e8.
- Wang P, Xiao X, Glissen Brown JR, et al.: Development and validation of a deep-learning algorithm for the detection of polyps during colonoscopy. Nat Biomed Eng 2018; 2(10): 741–8.
- Mori Y, Kudo S-E, Misawa M, et al.: Real-Time Use of Artificial Intelligence in Identification of Diminutive Polyps During Colonoscopy: A Prospective Study. Ann Intern Med 2018; 169(6): 357–66.
- Mori Y, Kudo S E, Misawa M, Mori K: Simultaneous detection and characterization of diminutive polyps with the use of artificial intelligence during colonoscopy. VideoGIE 2019; 4(1): 7–10.
- Byrne MF, Chapados N, Soudan F, et al.: Real-time differentiation of adenomatous and hyperplastic diminutive colorectal polyps during analysis of unaltered videos of standard colonoscopy using a deep learning model. Gut 2019; 68(1): 94–100.
- Kudo S E, Misawa M, Mori Y, et al.: Artificial Intelligence-assisted System Improves Endoscopic Identification of Colorectal Neoplasms. Clin Gastroenterol Hepatol 2020; 18 (8): 1874-81.e2.
- Hirasawa T, Aoyama K, Tanimoto T, et al.: Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images. Gastric Cancer 2018; 21(4): 653–60.
- Shichijo S, Nomura S, Aoyama K, et al.: Application of Convolutional Neural Networks in the Diagnosis of Helicobacter pylori Infection Based on Endoscopic Images. EBioMedicine 2017; 25: 106–11.
- Horie Y, Yoshio T, Aoyama K, et al.: Diagnostic outcomes of esophageal cancer by artificial intelligence using convolutional neural networks. Gastrointest Endosc 2019; 89(1): 25–32.
- Ebigbo A, Mendel R, Probst A, et al.: Real-time use of artificial intelligence in the evaluation of cancer in Barrett's oesophagus. Gut 2020; 69(4): 615–6.
- Mendel R, Ebigbo A, Probst A, Messmann H, Palm C: Barrett’s Esophagus Analysis Using Convolutional Neural Networks. In: Maier-Hein gFH, Deserno gLM, Handels H, Tolxdorff T (eds.): Bildverarbeitung für die Medizin 2017. Berlin, Heidelberg: Springer Berlin Heidelberg 2017; 80-5.
- Ebigbo A, Mendel R, Probst A, et al.: Computer-aided diagnosis using deep learning in the evaluation of early oesophageal adenocarcinoma. Gut 2019; 68(7): 1143–5.
- Ghosh T, Li L, Chakareski J: Effective Deep Learning for Semantic Segmentation Based Bleeding Zone Detection in Capsule Endoscopy Images. In: 2018 25th IEEE International Conference on Image Processing (ICIP). IEEE 2018 - 2018; 3034–38.
- Turan M, Almalioglu Y, Araujo H, Konukoglu E, Sitti M: Deep EndoVO: A recurrent convolutional neural network (RCNN) based visual odometry approach for endoscopic capsule robots. Neurocomputing 2018; 275: 1861–70.
- Rex DK, Kahi C, O'Brien M, et al.: The American Society for Gastrointestinal Endoscopy PIVI (Preservation and Incorporation of Valuable Endoscopic Innovations) on real-time endoscopic assessment of the histology of diminutive colorectal polyps. Gastrointest Endosc 2011; 73(3): 419–22.
- Farahat A, Reichert C, Sweeney-Reed CM, Hinrichs H: Convolutional neural networks for decoding of covert attention focus and saliency maps for EEG feature visualization. J Neural Eng 2019; 16(6): 66010.
- Ting DSW, Cheung CY-L, Lim G, et al.: Development and Validation of a Deep Learning System for Diabetic Retinopathy and Related Eye Diseases Using Retinal Images From Multiethnic Populations With Diabetes. JAMA 2017; 318(22): 2211–23.
- Esteva A, Kuprel B, Novoa RA, et al.: Dermatologist-level classification of skin cancer with deep neural networks. Nature 2017; 542(7639): 115–8.
- Kim SS, Kook M-C, Shin O-R, et al.: Factors to improve the interobserver agreement for gastric atrophy and intestinal metaplasia: consensus of definition and criteria. Histopathology 2018; 72(5): 838–45.
- Doshi-Velez F, Perlis RH: Evaluating Machine Learning Articles. JAMA 2019; 322(18): 1777–9.
Interessenkonflikte:
JW erhielt Forschungsgelder sowie Honorare für Vorträge von der Firma Fujifilm; LK hat keine Interessenskonflikte
Prof. Dr. med. Jochen Weigt
FA f. Innere Medizin und Gastroenterologie,
Medikamentöse Tumortherapie
kommissarischer Direktor und Sektionsleiter Endoskopie,
Gastroenterologisches Funktionslabor
Klinik für Gastroenterologie, Hepatologie und Infektiologie
Otto-von-Guericke-Universität Magdeburg
mit Universitätsklinikum, Leipziger Str. 44, 39120 Magdeburg
E-Mail: jochen.weigtmed.ovgu.de
Tel: 0391/6713100, Fax: 0391/6713105
Fotos: Autor