Das Wissen über die unmittelbare Umgebung ist von größter Wichtigkeit für sämtliche Anwendungen in der Robotik und des autonomen Fahrens. Für das autonome Fahren werden diese Informationen stets aus hochgenauen Karten extrahiert, die den Einsatz einer hochpräzisen Lokalisierung voraussetzen. Damit geht die Beschränkung einher, dass das System nur in denjenigen Arealen verwendet werden kann, die zuvor kartiert worden sind. Darüber hinaus sorgen nachträgliche Änderungen der Umgebung dafür, dass die hochgenaue Karte anschließend nicht mehr mit der Realität übereinstimmt und damit ihre Gültigkeit verliert. Daher widmet sich die vorliegende Arbeit der Problemstellung, wie die unmittelbare Umgebung eines autonom fahrenden Fahrzeugs ohne Zuhilfenahme einer hochgenauen Karte, sondern ausschließlich mit Hilfe von im Fahrzeug verbauter Sensorik erfasst und repräsentiert werden kann. Ausgehend von der „Dempster-Shafer theory of evidence” wird eine neue Methode vorgestellt, um Sensor-Messdaten wie bspw. erkannte Fahrstreifenmarkierungslinien, Punktewolken von einer bildbasierten semantischen Segmentierung, Belegungskarten und andere Verkehrsteilnehmer in einem gridbasierten Umfeldmodell miteinander zu fusionieren und dabei die semantische Bedeutung jeder Gridzelle zu schätzen. Anschließend werden mit Hilfe einer Pfadplanung aus dem gridbasierten Modell potentielle Fahrstreifen extrahiert und in ein geeignetes geometrisches Straßenmodell überführt. Alle entwickelten Methoden wurden mit Sensor-Messdaten aus realen Verkehrssituationen evaluiert und die Leistungsfähigkeit der vorgestellten Lösungen exemplarisch dargestellt. Im Rahmen der Arbeit entstanden unter anderem 4 Publikationen (Erstautorenschaft), in denen die Forschungsergebnisse veröffentlicht wurden [1, 2, 3, 4].