In vielen Systemen für das autonome Fahren werden LiDAR-Sensoren eingesetzt, um die dreidimensionale Umgebung des Fahrzeuges genau zu vermessen. Eine mögliche Alternative ist der Einsatz von Kamerasystemen, um Tiefeninformationen zu ermitteln. Neben dem klassischen Ansatz mit Stereo-Sichtsystemen besteht die Möglichkeit, aus Bildern einer Monokamera die Tiefe im Bild zu schätzen. Im Rahmen dieser Arbeit werden zu diesem Zweck zwei Ansätze getestet. Es wird ein künstliches neuronales Netz nach der Referenz von Hu et al. [14] implementiert und auf einem selbsterstellten Datensatz aus Kamerabildern und LiDAR-Daten des „Made in Germany“-Fahrzeuges trainiert. Um fehlende Daten im Himmelbereich auszugleichen, wurde zusätzlich eine Himmelerkennung implementiert. Es werden unterschiedliche Backbones und eine leichte Modifikation der Architektur getestet. Ein zweiter Ansatz nutzt den optischen Fluss einer Bildsequenz und die bekannte Kamerabewegung, um die Distanzen im Bild zu berechnen. Beide Ansätze werden auf dem selbsterstellten Datensatz evaluiert. Das künstliche neuronale Netz liefert dabei deutlich bessere Ergebnisse mit einem mittleren absoluten relativen Fehler von 17 %.