• No results found

Sensorfusion för ACC-System

N/A
N/A
Protected

Academic year: 2021

Share "Sensorfusion för ACC-System"

Copied!
50
0
0

Loading.... (view fulltext now)

Full text

(1)Examensarbete LITH-ITN-ED-EX--07/005--SE. Sensorfusion för ACC-system Åsa Nylander 2007-01-26. Department of Science and Technology Linköpings Universitet SE-601 74 Norrköping, Sweden. Institutionen för teknik och naturvetenskap Linköpings Universitet 601 74 Norrköping.

(2) LITH-ITN-ED-EX--07/005--SE. Sensorfusion för ACC-system Examensarbete utfört i Elektronikdesign vid Linköpings Tekniska Högskola, Campus Norrköping. Åsa Nylander Handledare Magnus Eriksson Examinator Ole Pedersen Norrköping 2007-01-26.

(3) Datum Date. Avdelning, Institution Division, Department Institutionen för teknik och naturvetenskap. 2007-01-26. Department of Science and Technology. Språk Language. Rapporttyp Report category. x Svenska/Swedish Engelska/English. Examensarbete B-uppsats C-uppsats x D-uppsats. ISBN _____________________________________________________ ISRN LITH-ITN-ED-EX--07/005--SE _________________________________________________________________ Serietitel och serienummer ISSN Title of series, numbering ___________________________________. _ ________________ _ ________________. URL för elektronisk version. Titel Title. Sensorfusion för ACC-system. Författare Author. Åsa Nylander. Sammanfattning Abstract Genom. att fusionera (sammanföra) data från olika sensorer kan ett resultat uppnås som ger mer än de enskilda sensorerna var för sig. Här utreds vilka sensorer och sensorfusionsmetoder som kan vara aktuella att använda för Scanias adaptiva farthållare (ACC). Den adaptiva farthållaren anpassar det egna fordonets hastighet inte bara till en förinställd hastighet utan även till framförvarande fordons hastighet. Scanias ACC-system använder idag en radar för måldetektering. Det finns ett antal algoritmer och arkitekturer som passar för sensorfusionssystem beroende på nivån hos sensordatan och användningsområdet. Minstakvadratmetoder kan användas då data ska matchas mot en fysisk modell, ofta med lågnivådata. När tillgänglig data är på den nivån att den används direkt för att fatta beslut kan sannolikhetsmetoder användas. Intelligent fusion består av kognitiva modeller som avser härma den mänskliga beslutsprocessen. Till detta passar data på hög nivå. Två lösningar, för två olika sensoruppsättningar, har tagits fram. Båda lösningarna är uppbyggda av bayesiska nätverk. Det första nätverket fusionerar data från den befintliga radarenheten med data från en kamera som detekterar vägmarkeringar. Resultaten visar att filbyten kan upptäckas tidigare i och med fusionen. Det andra nätverket använder sig av två radarenheter, den ursprungliga samt en likadan enhet till, vilket resulterar i ett bredare synfält. Nätverket avgör vilka mål hos respektive radar som kan anses vara samma matchade mål. Informationen kan användas för att öka redundansen i systemet samt för att upptäcka mål tidigare än förut.. Nyckelord Keyword. Sensorfusion, Bayesiska nätverk, ACC-system, adaptiv farthållning.

(4) Upphovsrätt Detta dokument hålls tillgängligt på Internet – eller dess framtida ersättare – under en längre tid från publiceringsdatum under förutsättning att inga extraordinära omständigheter uppstår. Tillgång till dokumentet innebär tillstånd för var och en att läsa, ladda ner, skriva ut enstaka kopior för enskilt bruk och att använda det oförändrat för ickekommersiell forskning och för undervisning. Överföring av upphovsrätten vid en senare tidpunkt kan inte upphäva detta tillstånd. All annan användning av dokumentet kräver upphovsmannens medgivande. För att garantera äktheten, säkerheten och tillgängligheten finns det lösningar av teknisk och administrativ art. Upphovsmannens ideella rätt innefattar rätt att bli nämnd som upphovsman i den omfattning som god sed kräver vid användning av dokumentet på ovan beskrivna sätt samt skydd mot att dokumentet ändras eller presenteras i sådan form eller i sådant sammanhang som är kränkande för upphovsmannens litterära eller konstnärliga anseende eller egenart. För ytterligare information om Linköping University Electronic Press se förlagets hemsida http://www.ep.liu.se/ Copyright The publishers will keep this document online on the Internet - or its possible replacement - for a considerable time from the date of publication barring exceptional circumstances. The online availability of the document implies a permanent permission for anyone to read, to download, to print out single copies for your own use and to use it unchanged for any non-commercial research and educational purpose. Subsequent transfers of copyright cannot revoke this permission. All other uses of the document are conditional on the consent of the copyright owner. The publisher has taken technical and administrative measures to assure authenticity, security and accessibility. According to intellectual property law the author has the right to be mentioned when his/her work is accessed as described above and to be protected against infringement. For additional information about the Linköping University Electronic Press and its procedures for publication and for assurance of document integrity, please refer to its WWW home page: http://www.ep.liu.se/. © Åsa Nylander.

(5) Sammanfattning Genom att fusionera (sammanföra) data från olika sensorer kan ett resultat uppnås som ger mer än de enskilda sensorerna var för sig. Här utreds vilka sensorer och sensorfusionsmetoder som kan vara aktuella att använda för Scanias adaptiva farthållare (ACC). Den adaptiva farthållaren anpassar det egna fordonets hastighet inte bara till en förinställd hastighet utan även till framförvarande fordons hastighet. Scanias ACC-system använder idag en radar för måldetektering. Det nns ett antal algoritmer och arkitekturer som passar för sensorfusionssystem beroende på nivån hos sensordatan och användningsområdet. Minstakvadratmetoder kan användas då data ska matchas mot en fysisk modell, ofta med lågnivådata. När tillgänglig data är på den nivån att den används direkt för att fatta beslut kan sannolikhetsmetoder användas. Intelligent fusion består av kognitiva modeller som avser härma den mänskliga beslutsprocessen. Till detta passar data på hög nivå. Två lösningar, för två olika sensoruppsättningar, har tagits fram. Båda lösningarna är uppbyggda av bayesiska nätverk. Det första nätverket fusionerar data från den bentliga radarenheten med data från en kamera som detekterar vägmarkeringar. Resultaten visar att lbyten kan upptäckas tidigare i och med fusionen. Det andra nätverket använder sig av två radarenheter, den ursprungliga samt en likadan enhet till, vilket resulterar i ett bredare synfält. Nätverket avgör vilka mål hos respektive radar som kan anses vara samma matchade mål. Informationen kan användas för att öka redundansen i systemet samt för att upptäcka mål tidigare än förut..

(6) Abstract By fusing data from dierent sensors a result can be achieved that is worth more than the data from each sensor by itself. Which sensors and sensor fusion methods that could be used in Scania's adaptive cruise control system (ACC) is investigated. The ACC system adapts the vehicle's speed not only to a driver decided set speed but also to the speed of preceding vehicles. Scania's ACC system uses a radar for target detection. There exists a number of algorithms and architectures t for use in sensor fusion systems. Which one to use depends on the level of the data to be fused and on the eld of application. Least square methods are used when matching data to a physical model, data to be used is often at a low level. When working with data at decision level, probability methods are favored. Another example is intelligent fusion, cognitive methods intending to mimic the human decision process. Suitable data is data at a high level. Two solutions, for two dierent sensor sets, are proposed. Both solutions are made out of Bayesian networks. The rst one fuses data from the existing radar unit with data from a camera which detects lane markings. The results show that lane changes can be detected earlier thanks to the fusion. The second network uses two radar sensors of the same kind as the rst, resulting in a wider eld of view. The network decides which ones of each radars targets that are the same matching targets. This information could be used to increase the redundancy of the system and to detect targets earlier..

(7) Innehåll 1. 2. Inledning. 1. 1.1. Syfte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 1. 1.2. Metod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 1. 1.3. Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 2. 1.4. Avgränsningar . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 2. Bakgrund 2.1. 2.2. 2.3. 3. 3. ACC-system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3. 2.1.1. Scanias system. 3. 2.1.2. Andra tillverkares system. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 7. 2.2.1. 7. Radar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 2.2.2. Lidar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 2.2.3. Kamera. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3.2. 3.3. 2.2.4. Infraröd kamera. . . . . . . . . . . . . . . . . . . . . . . .. 8. GPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 8. Sensorfusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 9. 2.3.1. 9. Sensorfusion, modeller och arkitekturer. . . . . . . . . . .. 2.3.2. Sensorfusion, algoritmer . . . . . . . . . . . . . . . . . . .. 10. 2.3.3. Patent . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 13. 14. Bayesiska nätverk . . . . . . . . . . . . . . . . . . . . . . . . . . .. 14. 3.1.1. 14. Bayes inferens . . . . . . . . . . . . . . . . . . . . . . . . .. 3.1.2. DAG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 15. 3.1.3. Beräkningar i bayesiska nätverk . . . . . . . . . . . . . . .. 15. 3.1.4. GeNIe och Bayes Net Toolbox. 16. Val av sensorer. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 17. 3.2.1. Radarenheten . . . . . . . . . . . . . . . . . . . . . . . . .. 17. 3.2.2. Kameran. 18. . . . . . . . . . . . . . . . . . . . . . . . . . . .. Fusion av radar och LDW-kamera 3.3.1. 3.4. 7 7. 2.2.5. Genomförande 3.1. 5. Sensorer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . .. 20. Nätverket . . . . . . . . . . . . . . . . . . . . . . . . . . .. 20. 3.3.2. Implementation av nätverket. . . . . . . . . . . . . . . . .. 23. 3.3.3. Bevis för normalfördelning . . . . . . . . . . . . . . . . . .. 23. . . . . . . . . . . . . . . . . . . . . .. 26. 3.4.1. Fusion av två radarenheter. Nätverket . . . . . . . . . . . . . . . . . . . . . . . . . . .. 26. 3.4.2. Implementation av nätverket. 28. i. . . . . . . . . . . . . . . . ..

(8) 4. Resultat och analys 4.1. 4.2. 5. 30. Resultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 30. 4.1.1. 30. Mätning 20061201_7, fusionsnätverk 1 . . . . . . . . . . .. 4.1.2. Mätning 20070115_8, fusionsnätverk 1 och 2. . . . . . . .. 32. 4.1.3. Mätning 20061215, fusionsnätverk 1 och 2 . . . . . . . . .. 34. Analys och slutsats . . . . . . . . . . . . . . . . . . . . . . . . . .. 36. Avslutande diskussion. 37. ii.

(9) Tabeller 2.1. Fordonstillverkare med ACC-system. . . . . . . . . . . . . . . . .. 5. 3.1. Sannolikhetstabell för nod H. 3.2. . . . . . . . . . . . . . . . . . . . .. 16. Sannolikhetstabell för nod I . . . . . . . . . . . . . . . . . . . . .. 3.3. Sannolikhetstabell för. 16. 3.4. Sannolikhetstabell för. 3.5. Sannolikhetstabell för. P (H, I) . . P (H) efter P (I | H) .. . . . . . . . . . . . . . . . . . .. 16. uppdatering . . . . . . . . . . .. 16. . . . . . . . . . . . . . . . . . .. 16. 3.6. Radardata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 3.7. Kameradata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 19. 3.8. Radarmål enligt radarmålnummer. . . . . . . . . . . . . . . . . .. 23. 3.9. Sannolikhetstabell för noden Filinfo, mål . . . . . . . . . . . . . .. 23. 3.10. σ. för normalfördelningsbevis . . . . . . . . . . . . . . . . .. 24. 3.11 Sannolikhetstabell för noden Samma mål, placering . . . . . . . .. 27. 3.12 Sannolikhetstabell för noden Samma mål, RT . . . . . . . . . . .. 28. 3.13 sannolikhetstabell för noden Samma mål . . . . . . . . . . . . . .. 28. 3.14 Matchmatris. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 29. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 29. 4.1. Filnumrering för mätningarna . . . . . . . . . . . . . . . . . . . .. 30. 4.2. Tid för körfältsbyte, mätning 20070115_8 . . . . . . . . . . . . .. 34. och. µ. 3.15 Mållista. iii.

(10) Figurer 2.1. Strömställare för ACC . . . . . . . . . . . . . . . . . . . . . . . .. 4. 2.2. Rattknapp för ACC. . . . . . . . . . . . . . . . . . . . . . . . . .. 4. 2.3. Figurer för ACC. . . . . . . . . . . . . . . . . . . . . . . . . . . .. 4. 2.4. Kollisionsvarningssymbol för ACC. 2.5. Fusionsnivåer enligt JDL . . . . . . . . . . . . . . . . . . . . . . .. 2.6. Fusionsgrupper baserat på datanivåer. 2.7. Fusionsgrupper baserat på I/O. 3.1. Bayesiskt nätverk, exempel. 3.2 3.3. Radarmålnumrering. . . . . . . . . . . . . . . . . . . . . . . . . .. 18. 3.4. Placering av kamera i bil . . . . . . . . . . . . . . . . . . . . . . .. 19. 3.5. Kamerans synfält . . . . . . . . . . . . . . . . . . . . . . . . . . .. 19. 3.6. Grask representation av viss kameradata . . . . . . . . . . . . .. 19. 3.7. Fusionsnätverk 1. 20. 3.8. Position hos mål relativt värdfordonet. . . . . . . . . . . . . . . .. 21. 3.9. Position hos körfält relativt målfordonet . . . . . . . . . . . . . .. 21. . . . . . . . . . . . . . . . . .. 4 9. . . . . . . . . . . . . . . .. 11. . . . . . . . . . . . . . . . . . . .. 11. . . . . . . . . . . . . . . . . . . . . .. 15. Placering av radar på bil . . . . . . . . . . . . . . . . . . . . . . .. 17. . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3.10 Normalfördelningsplot från mätning 20061114_12. . . . . . . . .. 25. . . . . . . . . . . . . .. 25. . . . . . . . . . . . . . . . . . . . . . . . . . . .. 26. 4.1. Filmruta från 061201_7 . . . . . . . . . . . . . . . . . . . . . . .. 31. 4.2. Mätning 061201_7, fusionsnätverk 1 . . . . . . . . . . . . . . . .. 32. 4.3. Förstorad bild av mätning 061201_7 . . . . . . . . . . . . . . . .. 32. 4.4. Mätning 20070115_8, fusionsnätverk 1 . . . . . . . . . . . . . . .. 33. 4.5. Mätning 20070115_8, fusionsnätverk 2 . . . . . . . . . . . . . . .. 34. 4.6. Mätning 20070115_8, fusionsnätverk 1 och 2. . . . . . . . . . . .. 34. 4.7. Mätning 20061215, fusionsnätverk 1. . . . . . . . . . . . . . . . .. 35. 4.8. Mätning 20061215, fusionsnätverk 1 och 2 . . . . . . . . . . . . .. 35. 3.11 Fördelningskurvor från mätning 20061114 3.12 Fusionsnätverk 2. iv.

(11) Kapitel 1. Inledning Adaptiv farthållning (engelska. adaptive-, autonomous-, active- cruise control ),. ACC, används idag på många fordon och även på Scanias lastbilar. Scanias system kompletterar den vanliga farthållaren när det egna fordonet hinner upp ett annat. Istället för att fortsätta hålla den inställda hastigheten övergår systemet till att följa framförvarande fordon på ett visst avstånd. När det blir fri väg igen återgår fordonet till den tidigare begärda hastigheten. Idag använder sig Scania av en radar för att få information om traksituationen. Genom att tillföra ytterligare sensorer som kompletterar den bentliga informationen och gör den mer trovärdig kan systemet utvecklas vidare. Kombineringen av data från en eller era sensorer är det som kallas för sensorfusion. Det nns många olika sensorer som kan tänkas vara lämpliga och minst lika många tekniker för att sammanföra data från dem. Vilka som kan passa för just Scanias system, samt hur de kan implementeras, följer här en redogörelse för.. 1.1. Syfte. Examensarbetet ska utreda vilka olika typer av sensorer som kan användas för att komplettera Scanias system samt vilka sensorfusionsmetoder som är aktuella. Syftet är även att utveckla en prototyp som använder sig av fusion mellan två olika sensorer.. 1.2. Metod. För att utreda vilka sensorer och fusionslösningar som skulle kunna användas i det här fallet har en litteraturstudie genomförts. Information om olika sensorfusionsmetoder har hämtats ur böcker medan artiklar och patentdokument har bidragit med kunskap om hur sensorfusion kan användas i automotiva system. Internet har varit en källa för allmän information (istället för klassiska. 1.

(12) uppslagsverk) och Scanias interna dokument har givit viktig förståelse för de inblandade systemen. De två förslagen som presenteras i rapporten implementerades med hjälp av programmen MATLAB och GeNIe som beskrivs i kapitel 3.3.2. Som datainsamlingsprogram och utvärderingsverktyg användes även CANape.. 1.3. Struktur. Rapporten startar med en genomgång av vad ACC-system är och hur de kan fungera. Sen följer kort information om sensorer som är vanligt förekommande i tidigare nämnda system. Efter detta tar delen där genomförandet beskrivs vid, här presenteras de två förslag för sensorfusion som tagits fram. I kapitlet Resultat och analys visas m.h.a. mätningar funktionen hos fusionsförslagen. Slutligen presenteras tankar och funderingar som uppkommit under arbetets gång.. 1.4. Avgränsningar. Arbetet är avgränsat till att, för implementationen, använda endast de sensorer som nns tillgängliga för Scanias lastbilar i dagens system. Data som tillhandahålls av dessa sensorer är på en viss nivå, vilket i sin tur påverkar valet av metoder för sensorfusion. Vissa problem med noggrannhet och precision hos sensorerna medförde att det istället för två olika sensorfusionslösningar med samma sensorer implementerades två lösningar m.h.a. samma metod och olika sensorer.. 2.

(13) Kapitel 2. Bakgrund För att lättare kunna ta till sig de sensorfusionslösningar som presenteras senare i rapporten följer här information om sensorfusionsmetoder, sensorer samt den typen av system som lösningarna riktar sig mot.. 2.1. ACC-system. ACC-system anpassar, med hjälp av radar eller lasersensorer, det egna fordonets hastighet efter ett framförvarande. Olika tillverkares system uppför sig på olika sätt, nedan presenteras Scanias system mer ingående.. 2.1.1. Scanias system. Scania har idag ett radarbaserat ACC-system, ett uttalat komfortsystem som använder gas, retarder och hjulbromsar för att reglera fordonets hastighet. [1] Det huvudsakliga användningsområdet är vid motorvägskörning med tät trak och vid ojämna hastigheter. Antag att lastbilen framförs med den genom farthållaren inställda hastigheter på en motorväg och att ett annat fordon hinns upp. Med den adaptiva farthållaren aktiverad kommer hastigheten nu regleras så att den önskade luckan till framförvarande fordon hålls utan att föraren behöver ingripa. Om fordonet framför kör av motorvägen och inga er fordon detekteras kommer hastigheten återgå till den inställda.. Användning Den adaptiva farthållaren kan aktiveras i hastigheter över 20 km/h genom att föraren ställt huvudströmställaren (gur 2.1) i sitt nedre läge. Avstånd till framförvarande fordon väljes genom att med strömställare (gur 2.1) välja en av fem nivåer. Önskad hastighet ställs in med rattknappen i gur 2.2 genom ett tryck på plus eller minus och gaspedalen kan släppas. I displayen i kombiinstrumentet (på instrumentpanelen) visas följande symboler beroende på situation (gur 2.3). I. 3.

(14) Figur 2.1: Strömställare för ACC. T.h. Huvudströmställare,. t.v.. avståndsväl-. jare [2]. Figur 2.2: Rattknapp för ACC [3]. situationer när systemet inte klarar av att bromsa fordonet tillräckligt kommer en kollisionsvarning (gur 2.4) visas och en signal hörs för att uppmana föraren att själv ta över inbromsningen.. Figur 2.3: Figurer för ACC [2]. Figur 2.4: Kollisionsvarningssymbol för ACC [2]. Begränsningar Systemet har vissa begränsningar som beror på radarns egenskaper (beskrivs mer ingående i stycke 3.2.1 på sidan. 17).. I kurvor kan det vara svårt att avgöra vilken l framförvarande fordon är placerade i, vilket kan leda till oväntade eller sena inbromsningar.. Vid förskjutning i sidled av framförvarande fordon (t.ex. vid bred l) kan det hända att de inte identieras på ett korrekt sätt.. 4.

(15) Vid av- och påfarter är det ibland svårt att upptäcka fordon av samma anledning som ovan.. Körfältsbyte strax framför det egna fordonet kan vara svåra att detektera och föraren måste själv ingripa för att öka avståndet. Förhoppningen är att införandet av er sensorer ska kunna eliminera dessa begränsningar samt kunna utöka systemets användningsområde. Ett exempel där detta är gjort är Mercedes system Distronic Plus i stycke 2.1.2.. 2.1.2. Andra tillverkares system. Liknande system som Scanias nns hos många både personbilstillverkare och lastbilstillverkare. Tabell 2.1 presenterar vilka tillverkarna är samt vilken sensorlösning de valt i de fall där det framkommer.. Tabell 2.1: Fordonstillverkare med ACC-system. Tillverkare. Radar. MAN [4]. x. Mercedes, Actros [5]. x. Iveco [6]. x. Volvo, Trucks [7]. x. Acura [8]. x. Audi [9]. x. BMW [10]. x. Cadillac [11]. x. Innit [12]. x. Jaguar [13]. x. Nissan [14]. Laser. Okänt. x x. RangeRover [15]. x. Volkswagen [16]. x. Toyota [17]. x. x. Lexus [18]. x. x. Volvo [19]. x. Mercedes-Benz [20]. x. Värt att notera är att systemen inte nns tillgängliga på alla marknader samt att det oftast är de lyxigare modellerna som systemen går att få på.. Mercedes Distronic Plus Mercedes. Benz. var. år. 1998. först. ut. med. att. erbjuda. ett. ACC-system,. Distronic [21]. Till den nya S-klassen erbjuder de en andra generation av systemet som kallas för Distronic Plus, ett ACC-system med tre radarsensorer. De tre radarsensorerna är en långdistansradar på 77 GHz med 150 meters räckvidd och. 10 ◦. spridning och två identiska kortdistansradar på 24 GHz som ser. 30 meter med en vinkel på +/-. 30 ◦. . Tillsammans ger de systemet möjlighet. att fungera i så kallade stop & go situationer (kökörning ner till stillastående).. 5.

(16) För att klara av detta har dynamiken hos det ursprungliga systemet fått ändras så att det tillåter större acceleration och deacceleration. Distronic Plus kan aktiveras från 30 km/h vilket även är den lägsta möjliga hastighet som farthållaren kan vara inställd på. När systemet väl är aktiverat klarar det inbromsningar till stillastående och när så har skett måste föraren ge signal till systemet att starta genom ett lätt tryck på gasen, alternativt dra i cruise-control spaken. [22]. 6.

(17) 2.2. Sensorer. En sensor är ett instrument som omvandlar en fysisk insignal till en, ofta elektrisk, utsignal som sen kan användas i andra system. Det nns en mängd olika sensorer så som termiska-, mekaniska- och optiska sensorer med vitt spridda användningsområden. För ACC-system med en huvudsensor används oftast radar eller laser och för system med er sensorer kombineras många gånger dessa med en kamera [23, 24, 25, 26, 27, 28, 29, 30, 31]. Här följer en kort beskrivning av de sensorer som kan lämpa sig för ACC-system.. 2.2.1. Radar. En radar (Radio Detection and Ranging) mäter bl.a. avstånd till föremål och dess hastighet med hjälp av en radarvåg. En våg skickas ut och den, av ett föremål, reekterade vågen analyseras. För att mäta avstånd ser man till tiden det tog för pulsen att reekteras och komma tillbaka. För att mäta den relativa hastigheten hos målet kan Dopplereekten utnyttjas. Dopplereekten beskriver den skillnad i frekvens och våglängd som uppkommer hos en våg när den träar ett mål som rör sig. Funktionaliteten hos radarn är väderoberoende vilket är en stor fördel. Däremot nns det begränsningar i hur mycket eekt en radar får emittera vilket begränsar antingen synfältsbredden eller siktlängden (antingen långt och smalt eller kort och brett). [32, 33]. 2.2.2. Lidar. Lidar (Light Detection and Ranging) är en laserbaserad metod som kan mäta t.ex. avstånd till föremål, hastighet och rotation. Lidarsensorerna som används i de här sammanhangen består oftast av ett antal sändare och mottagare, detta för att täcka ett område av samma storlek som radarn. Avstånd mäts m.h.a. tiden det tar för den utsända pulsen att komma till mottagaren. [34] En fördel med lidar är att pulsen har en smal spridningsvinkel vilket underlättar för att skilja på objekt som ligger nära varandra. [35] En nackdel med lidar är att den är mer känslig för störningar från t.ex. snöfall än radar.. 2.2.3. Kamera. En kamera kan användas för att identiera objekt och det går ofta att få en bra gur av målets placering och storlek. Beroende på vilken information som efterfrågas kan olika kameratyper och kamerakongurationer användas. Exempel på sådana är svartvit eller färgkamera och mono- eller stereosyn. Nackdelar är att kameran är väderberoende samt att metoden kräver mycket beräkningar i form av bildbehandling.. 7.

(18) 2.2.4. Infraröd kamera. En Infraröd kamera (IR kamera) ger information om temperatur på objekt i omgivningen och fångar upp ett objekts infraröda strålning på samma sätt som en vanlig kamera fångar ljus. Ju varmare ett objekt är, ju mer infraröd strålning avger det. [36] Den egenskapen gör att det går att se var fordon framför nns. En fördel med IR-kameror är att de kan användas även i mörker och en nackdel att man inte kan urskilja exakt storlek hos ett objekt (för att det inte nns någon information om hur stor del av målet som är kallt).. 2.2.5. GPS. GPS (Navigation Satellite Timing and Ranging Global Positioning System) är ett satellitnavigeringssystem som ger en mottagare information om dess position (longitud, latitud och altitud) genom att avstånd till minst tre av GPS satelliterna mäts. [37] Genom att kombinera informationen från GPS-mottagaren med kartinformation kan t.ex. vägens kurvatur och andra egenskaper bestämmas.. 8.

(19) 2.3. Sensorfusion. Genom att kombinera data från två eller era sensorer kan man få ett resultat som är bättre än resultatet från varje sensor för sig. Sambehandlingen av data från lika sensorer som ser samma område kan tillföra systemet högre redundans vilket leder till större tillförlitlighet. Lika sensorer som ser olika områden kan ge en vidare bild av verkligheten systemet benner sig i. När olika sorters sensorer ser samma område resulterar det i en mer komplex bild av omvärlden. Kombineringen av sensordata på detta sätt kallas sensorfusion. För ACC-system kan högre tillförlitlighet vara viktigt vid utökning till att innefatta nödbromsfunktioner samtidigt som en mer komplett bild av den omgivning fordonet benner sig i kan användas för funktioner så som stop & go och körning i stadstrak. Historiskt sett har sensorfusion används till militära ändamål så som objektigenkänning, på senare tid har det dock dykt upp i er och er civila tillämpningar. Exempel på dessa är automatisk kontroll av industriella tillverkningssystem och väderövervakning [38].. 2.3.1. Sensorfusion, modeller och arkitekturer. U.S Joint Directory of Laboratories (JDL) utvecklade 1985 en första revision av ett system, JDL Data Fusion Model, som syftar till att beskriva hur sensorfusion går till och för att underlätta kommunikationen mellan de som arbetar med sensorfusion. Där speciceras bl.a. processer och tekniker som kan användas. Modellen består av fem nivåer som beskriver sensorfusion vilka presenteras nedan samt i gur 2.5. Viktigt är att påpeka att de inte beskriver en process där man måste gå igenom varje steg i den följd de står [38].. Figur 2.5: Fusionsnivåer enligt JDL [38], kap 2 sid 5. Nivå 0 Sub-Object Data Assessment, uppskattning och förutsägelse av en signal utifrån pixel-/ signal-nivå data.. Nivå 1 Object Assessment, uppskattning och förutsägelse av en enhets tillstånd utifrån beslut tagna från observationer.. 9.

(20) Nivå 2 Situation Assessment , uppskattning och förutsägelse av tillstånd utifrån samband mellan enheter.. Nivå 3 Impact Assessment, uppskattning och förutsägelse av hur de planerade eller uppskattade handlingarna påverkar situationen.. Nivå 4 Process Renement, förbättringar av resultat baserat på insamlad data, planering och kontroll. I [39] konstateras att det nns svårigheter att koppla nivåerna i JDL modellen mot verkligheten vid sensorfusion i icke-militära system. Förutom detta påpekas även att förvirringen är stor runt hur nivåerna ska tolkas, men att modellen trots detta haft en stor inverkan på området. Det nns i litteraturen många förslag på hur man ska utföra och klassicera sensorfusion. I [40] sammanställs hundratalet artiklar skrivna på området och det ges en överblick över de arkitekturer och algoritmer som är vanligast förekommande. Ett möjligt sätt till indelning av sensorfusionsarkitekturer är att gruppera dem beroende på var användningsområdet nns. D.v.s. vilken uppgift de är designade för, vilka sensortyper som används, hur sensorerna är kopplade samt på vilken nivå fusionen äger rum. Den senare är den vanligaste och består i sin tur av tre grupper. Dessa är. data fusion (i [41] kallad pixelnivåfusion) där oprocessad data behandlas, feature fusion, egenskapsfusion, som använder data kombinerad till egenskaper och beslutsfusion där en än högre nivå på data antas [42] [41] (gur 2.6). Den här delen i datafusionsödet passar in i nivå 1 i JDL modellen. Dessa tre grupper utökas i [42] till fem stycken, baserat på vilka typer av I/O (input/output) som är inblandade. De typer av I/O som anges är data, feature och decision. Data är den lägsta nivån och använder sig av obehandlad sensordata. Features är nästa nivå och med feature menas någon egenskap hos det betraktade objektet. På den högsta nivån, decision nivån, använder man sig av beslut för att fusionera. Dessa olika egenskaper kombineras ihop till de fem alternativ som ses i gur 2.7.. 2.3.2. Sensorfusion, algoritmer. En viktig del av sensorfusion är de många matematiska verktyg som används, och valet av algoritm görs i många fall utifrån arkitektur. Algoritmerna klassiceras i tre kategorier. Den första är fysiska modeller, den andra är tekniker baserade på slutledning utifrån särdrag hos det betraktade samt slutligen kognitiva modeller [41]. Teknikerna för dessa tre kategorier är minstakvadratmetoder, sannolikhetsmetoder respektive intelligent fusion [43]. Här följer en kort beskrivning av de vanligaste algoritmerna.. Minstakvadratmetoder Vid fysisk modellering när man utför tex klassicering av ett objekt genom att matcha dess fysiska egenskaper mot en modell så kan man använda sig av s k. 10.

(21) Figur 2.6: Fusionsgrupper baserat på. Figur 2.7: Fusionsgrupper baserat på. datanivåer [38], kap 1 sid 8. I/O [38], kap 1 sid 5. minstakvadratmetoder [41].. Kalmanlter Ett Kalmanlter rekonstruerar en ofullständig signal baserat på en matematisk beskrivning av systemet [21]. Det introducerades 1960 av Rudolph E. Kalman och ger en optimal uppskattning baserat på rekursiv utvärdering. Kalmanltret är känsligt för brus, allt brus ska vara känt och/ eller vitt brus, annars fås problem med divergens. Kalmanltret i samband med sensorfusion används så att data väljes från den sensor som presterar bäst vid varje tillfälle. Det är oftast ett indirekt återkopplat lter som används. [44]. Sannolikhetsmetoder När beslut tas utifrån egenskaper hos insamlad data utan att matcha dessa mot fysiska modeller så kan sannolikhetsmetoder användas [41]. Bayes inferens Bayes inferens baserar sig på Bayes regel (se kapitel 3.1). Den beskriver sannolikheten att man får ett visst utfall förutsatt en annan händelse (sannolikheten. 11.

(22) att. b ska inträa om vi vet att a gjort det), d.v.s. betingad sannolikhet. A priori. kunskap används för att bilda en uppskattning av resultatet. Även a posteriori sannolikheten att en händelse som inträat är sann räknas ut, d.v.s. om utfallet tros visa en sann situation. [41]. Dempster-Shafer Dempster-Shafer är en sannolikhetsbaserad teori som är bra när sensorerna inte kan garantera att informationen som ges är helt säker. Kunskap som nns om olika händelser kombineras för att ge en sannolikhetsmassa som ligger mellan 0 och 1. Den anger hur säker informationen är. Sannolikhetsmassorna kombineras sen m.h.a. Dempsters regel och den hypotes som anses mest sannolik är den som föredras av den största samlingen bevis. Till skillnad från Bayes inferens klarar Dempster-Shafer av att arbeta med icke kompletta modeller när a priori sannolikheter och sannolikhetsfunktioner är okända. Något som särskiljer Dempster-Shafer är att metoden kan skilja mellan brist på tro och misstro. En nackdel är att den ofta är tyngre beräkningsmässigt än Bayes inferens. [41]. Intelligent fusion Kognitiva modeller försöker härma den mänskliga beslutsprocessen, därför kallas de för intelligenta fusionsmetoder.. Articiella neurala nätverk Neurala system härmar den kognitiva förmågan hos hjärnan och består av articiella neuroner som arbetar parallellt. De passar bra för t.ex. igenkänning och bildbehandling och kan ses som träningsbara svarta lådor (blackbox) som löser svårdenierade problem med hög dimension och komplexa förhållande mellan ingående variabler. Articiella neurala nätverk byggs upp av den adaptiva linjärkombineraren vars utsignal är en linjärkombination av insignalerna. Insignalerna viktas dessutom med viktningsvektorn som består av positiva eller negativa kontinuerliga variabler. Det nns både linjära och olinjära articiella neurala nätverk med linjära och olinjära klassicerare vilka kan lära sig ett visst antal slumpmässiga mönster. [41]. Oskarp logik. Oskarp logik (engelska. fuzzy logic ). är en form av logik där lagen om det utes-. lutna tredje (det som i klassisk logik säger att ett påstående är antingen sant eller falskt) inte gäller. Metoden är baserad på teorin om oskarpa mängder som introducerades 1965 av Lot Zadeh [45]. Dessa mängder är generaliseringar av vanliga mängder och arbetar med påståenden sådana som John är lång. Lång är relativt och det är svårt att sätta en allmänt accepterad gräns som t.ex. att John är lång om han är 1,82 m men inte om han är 1,81 m. [46]. Oskarp logik används med fördel då gränser mellan mängder inte är hårda för att inte tappa den vaghet som nns i verkliga livet, bl.a. kan kontinuerliga variabler användas. En oskarp mängd är grupper av variabler som hör till systemet, t.ex. kan en mängd till ett system som anger temperatur vara varm, kall och ljummen. Tillhörighet till en mängd anges av ett värde mellan 0 till 1 och visas graskt i en medelmsfunktion. fastställts används regler på OM - DÅ form (tex OM temperaturen är varm DÅ ska äkten köras på högsta nivån) för att påverka utsignalerna. Hela processen går till så att de oskarpa värden som fås genom att. 12.

(23) tillhörigheten bestämts omvandlas till diskreta utvärden genom användning av olika metoder för att skärpa de oskarpa värdena(de-fuzzikation). [41]. 2.3.3. Patent. Det nns ett antal patent på sensorfusionslösningar, speciellt för personbilar. Skrbina m.. [47] presenterar ett kollisions undvikande system med radar och kamerasensorer parvis monterade runt en personbil. Systemet arbetar med en databank som innehåller information om objekten. Data korreleras m.h.a tid och information om objekt mellan tidsstämplarna interpoleras fram. De Messeman m.. [48] har patenterat ett system även det med radar och kamera som korrelerar data beroende på avstånd. Det uppskattar m.h.a detta hur allvarlig en krock med målet skulle vara och använder den informationen i systemet. Patentet [49] beskriver ett system som utför objektsärskiljning för kollisionsvarningssystem. Det innehåller ett antal mallar (t.ex. fordon, träd människor) som data korrelerar mot. Systemet är uppbyggt av seende sensorer (kameror) och icke seende sensorer (radar, lidar). Ytterligare ett patent där man använder sig av radar och kamera presenteras i [50]. Här tar systemet olika information om målet från olika sensorer. Radarn ger hastighet och avstånd medan kameran ger vinkel och bredd.. 13.

(24) Kapitel 3. Genomförande Det här kapitlet innehåller beskrivningar av de två lösningsförslag som togs fram för att prova på sensorfusion, samt information om den teknik och de sensorer som valdes.. 3.1. Bayesiska nätverk. Bayesiska nätverk bygger på principen om Bayes inferens som introducerades i kapitel 2.3.2 på sidan 11. Det är den teknik som senare används i de föreslagna sensorfusionslösningarna. Detta dels eftersom att den är så visuell, något som gör den lättare att förstå. Dels eftersom att nätverken är uppbyggda av moduler vilket gör det lätt att uppdatera och förändra samt ett av de mest grundläggande kraven, att den fungerar för den nivå på data som nns tillgänglig. I det här kapitlet utvecklas konceptet och beskrivs mer ingående.. 3.1.1. Bayes inferens. Bayes inferens beräknas m.h.a. Bayes sats. P (b | a) = där. P (a). är sannolikheten för. a. P (a | b)P (b) P (a). (givet som ett tal mellan 0 och 1,. säger att det är helt säkert att utfallet anta ett visst värde förutsatt att. a. a. P (a) = 1 b ska. fås). Den ger sannolikheten att. antagit ett annat. Bayes sats kommer från. regeln om betingad sannolikhet,. P (a | b)P (b) = P (a, b) om man multiplicerar sannolikheten att nolikheten att. b. a. ska inträa då. inträar får man sannolikheten att både. 14. b a. gjort det med sanoch. b. inträar. Ett.

(25) och det är molnigt) = P(det regnar när det är molnigt)· P(det är molnigt). Eftersom att även exempel kan vara att om P(det regnar. P (b | a)P (a) = P (a, b) så kan Bayes sats tas fram. För att kunna använda Bayes inferens måste man veta, eller antaga, sannolikhetsfördelningar. Detta kallas för a priori kunskaper. Resultatet som erhålles efter användning av Bayes sats kallas a posteriorikunskap och beskriver hur mycket tro som sätts till ett visst resultat. [51]. 3.1.2. DAG. Ett Bayesiskt nätverk består av ett set med variabler och kopplingar mellan dessa variabler som tillsammans bildar en DAG (directed acyclic graph). Ingen cyklisk koppling mellan variablerna får nnas. Till varje variabel nns en sannolikhetsfunktion som anger beroende mellan kopplade noder. Två exempel på bayesiska nätverk nns i gur 3.1. De uppdateras genom att det tillförs bevis. Ett bevis betecknar att det nns information om en viss nods tillstånd, tex att nod. B. har antagit värde. b.. [51]. Figur 3.1: Bayesiskt nätverk, exempel. 3.1.3. Beräkningar i bayesiska nätverk. Till varje nod i nätverken i gur 3.1 hör en sannolikhetstabell samt variabler. Sannolikhetstabellerna är utsatta i guren som. P (X) och variablerna som x1 , x2 P (A).. etc. Från nätverket (b) kan era olika sannolikheter räknas fram, bl.a.. Beräkningsgången illustreras m.h.a. nätverket (a). Om sannolikhetstabellerna ser ut som i tabell 3.1 respektive 3.2 så blir kan. P (H). P (H, I) som. i tabell 3.3. Från detta. (tabell 3.3) tas fram genom marginalisering [51]. P (H) =. X I. 15. P (H, I).

(26) Det ger även att. P (I | H). (tabell 3.5) kan räknas ut.. Tabell 3.1: Sannolikhetstabell för nod H. P (H | I) i1 i2. Tabell. h1. h2. 0,8. 0,3. 0,2. 0,7. 3.3:. P (H, I) P (H, I) i1 i2. Sannolikhetstabell. h1. h2. 0,64. 0,06. 0,16. 0,14. Tabell 3.2: Sannolikhetstabell för nod I P(I). för. P (A). h1. h2. 0,91. 0,2. 0,23. 0,47. i2 0,2. Tabell 3.4: Sannolikhetstabell för. P (H). efter uppdatering P(H). Tabell 3.5: Sannolikhetstabell för. P (H | I) i1 i2. i1 0,8. h1. h2. 0,7. 0,3. P (I | H). beror, vilket förstås av ovanstående resonemang, på de övriga noderna i. nätverket och dess värde kommer att ändras om bevis tillförs systemet. Om det. c1 så kommer P (C) byta värde från t.ex. P (C) = (0, 6; 0, 2; 0, 2) till P (C) = (1; 0; 0), vilket i sin tur påverkar P (B | C, D). är säkert att nod C antagit värdet. och fortplantar sig vidare genom nätverket. Det gör att många beräkningar måste ske vid varje ändring av bevis.. 3.1.4. GeNIe och Bayes Net Toolbox. För att utföra beräkningarna med Bayes inferens i Bayesiska nätverk nns det hjälpmedel. GeNIe [52] är ett gratisprogram från Decision Systems Laboratory i vilket det är enkelt att rita upp nät med ett mindre antal noder och tillstånd hos variablerna. Figur 3.1 är ritad med GeNIe. Efter att nätet är uppritat och sannolikhetsfördelningarna inskrivna går det att ange bevis hos önskade noder och få. P (U | e). uträknat. Det här verktyget har använts för uppritning av. nätverk och för kontroll av simpla funktioner, men för den storlek på nätverk som används senare behövs ett mer lättanvändbart alternativ. Bayes Net Toolbox (BNT) [53] är ett komplement till programmet MATLAB. BNT saknar det graska användargränssnittet hos GeNIe men som ger tillgång till MATLABs alla möjligheter och har använts för att implementera de bayesiska nätverken beskrivna senare i rapporten.. 16.

(27) 3.2. Val av sensorer. Valet av sensorer gjordes baserat på tillgänglighet, de som används nns i Scanias system idag. I det första fusionsförslaget används data från en kamera och en radarsensor och i det andra förslaget lades data från två radarenheter ihop.. 3.2.1. Radarenheten. Till Scanias ACC-system (se kapitel 2.1) används en pulsdopplerradar från Autocruise. Den mäter avstånd, relativ hastighet och vinkel hos målen.. •. Frekvensområde 76-77 GHz. •. Max detekteringsavstånd 250 m. •. Avstånd, första systemreaktion 200 m. •. Synfält. •. Hastighetsupplösning 0,09 km/h. •. Vinkelnoggranhet. 12 ◦. 0, 3 ◦. Det är alltså en radar som ser smalt men långt. [54] Radarn sitter monterad på bilens vänstra sida och kan ses snett till vänster under lamporna i gur 3.2.. Figur 3.2: Placering av radar på bil [55]. Radardata Radarenheten rapporterar information om fyra av de mål som benner sig framför värdfordonet enligt gur 3.3. Data kommuniceras via CAN (controller. network ). area. nätverket i bilen. Informationen som används i fusionsförslagen pre-. senteras i tabell 3.6 med sina respektive signalnamn. De ger, i ordning, avstånd,. 17.

(28) relativ hastighet, vinkel samt ett specikt spårnummer för varje mål. Detta relativt mitten på målet. Signalerna sänds i meddelanden med namnet RT_x (radar. target,. radarmål ), där x står för vilket mål enligt gur 3.3.. Figur 3.3: Radarmålnumrering, RT1, RT2, RT3 och RT4. [56], sid 18. Tabell 3.6: Radardata. Data. Distance To Vehicle. Relative Speed Of Vehicle. Track Uncorrected Azimuth. 0 - 642,55 m. -250. -12,5 -. -. 12, 5 ◦. Track Number 0 - 250. 251,992 km/h. 3.2.2. Kameran. Den andra sensorn som används är en kamera, AutoVue, som hör till Scanias. Lane Departure Warning, LDW-system. Ett linjedetekteringsystem och som levereras av Iteris.. 1. Kameran arbetar med ljus i de synliga våglängderna (400-750 nm) och ser 6 - 30 m framför lastbilen enligt gur 3.5 med minst 30 bildrutor per sekund. Den reglerar själv för ändrade ljusförhållanden så som solljus och skugga. All databehandling sker i kamerans ECU (electronic control unit). Kameran monteras inne i förarhytten i mitten på lastbilens vindruta, se gur 3.4.. [57]. 1 Scanias LDW-system detekterar linjer framför bilen och avgör, genom att se till bl.a. rattrörelser, om en eventuell korsning av linjen görs medveten eller inte. Om så behövs varnar systemet m.h.a. ett ljudmeddelande.. 18.

(29) Figur 3.4: Placering av kamera i bil [58]. Kameradata Kameran skickar information, också via CAN nätverket, om linjernas beskaning, i gur 3.6 visas hur några av signalerna denieras. Annan information som ges är vilken typ av vägmarkering som nns (heldraget, streckat eller annat) samt dess bredd. Information som används presenteras i tabell 3.7. Signalen RoadCurvature ger information om kurvaturen på vägen i enheten 1/m, d.v.s. värdet som fås är det för 1/radien av kurvaturen.. Figur 3.6: Grask representation av viss Figur 3.5: Kamerans synfält [57], sid 9. kameradata [57], sid 6. Tabell 3.7: Kameradata. Data. Distance To Right Line. Road Curvature. Lane Width. -1000 - 1000 cm. -0,01 - 0,01 1/m. 0 - 1000 cm. 19.

(30) 3.3. Fusion av radar och LDW-kamera. Den första fusionen av data som testats är den mellan en radarenhet och LDW-kameran. Från radarn kommer information om omvärlden relativt värdfordonet och från LDW-kameran fås information om värdfordonets förhållande till omvärlden. Genom att kombinera radarns målplaceringsinformation med LDW-kamerans information om lbredd, lplacering och vägkurvatur borde t.ex. en mer korrekt. 2. ltillhörighet kunna bestämmas .. 3.3.1. Nätverket. Lösningsförlaget utgår från ett s k Bayesiskt nätverk enligt gur 3.7.. Indata till nätverket är avstånd till mål, vinkel till mål, kurvatur, lbredd och värdfordonets avstånd till höger linje.. Utdata från nätverket är i form av sannolikheter att målet ligger i en viss l (vår, vänster eller höger) relativt värdfordonet.. Figur 3.7: Fusionsnätverk 1. 2 Radarn bestämmer l utifrån placering av mål relativt oss, lbredd och kurvatur. Kurvaturen bestäms med hjälp av banan hos alla mål radarn ser och lbredden antas vara konstant.. 20.

(31) Noderna Nedan följer en beskrivning av de ingående nodernas karaktäristik.. Avstånd till mål Det här är en observerad nod som kräver indata om målavstånd från radarn. Att noden är observerad innebär att den alltid måste tillföras bevis och därför inte behöver ha någon sannolikhetsfunktion. Avståndet till målet anges som ett värde mellan 0 och 100 m, med en upplösning på 2 m. Om ingen data nns alternativt målet är längre bort än 100 m så används värdet Not available, NA.. Vinkel till mål Även detta är en observerad nod som tar data från radarn. Vinkeln anges i grader med värden från. −6 ◦. (målet benner sig till vänster) till. +6 ◦. (målet är. till höger).. Målets oset enligt radar Den här noden har som indata uppgiften om målets avstånd och vinkel och ska som utdata ange målets oset relativt värdfordonet i sidled (se gur 3.8). Osetavståndet anges i meter som ett värde mellan -7 (till vänster) och +7 (till höger) alternativt som NA om något av indatat har antagit NA (om avståndet är 0 ligger målfordonet alltså precis på samma ställe i sidled som värdfordonet). Sannolikhetsfunktionen är konstruerad så att den ger sannolikheten 1 om radaroset T.ex. är är. 0. ◦. P (0 | 0 ◦ , 22m) = 1. (sannolikheten att målets oset är 0 då dess vinkel. och avstånd 22 m) eftersom att. 3.8:. 22 · sin 0 = 0. medan. P (0 | 2 ◦ , 22m) = 0. 22 · sin 2 = 0, 77.. eftersom att. Figur. = avstånd · sin(vinkel). Position. hos. mål. relativt. värdfordonet. Figur 3.9: Position hos körfält relativt målfordonet. V_Avstånd till mål V_Avstånd står för vinkelrätt avstånd och anger det vinkelräta avståndet till målet (0 - 100 m eller NA). Detta eftersom att avståndet som fås från radarn anger avstånd inklusive vinkel (Se gur 3.8). Sannolikhetsfunktionen är uppbyggd enligt samma principer som den ovan. Den ger 1 då. V _Avstånd = avstånd · cos(vinkel). 21.

(32) Kurvatur Detta är en observerad nod med data från LDW-kameran. Kurvaturen anges som ett värde mellan -0,01 och +0,01 1/m (1/radien) alternativt NA.. Målets oset enligt LDW Här tas lens oset i sidled relativt värdfordonet (-7 till +7 m) fram. Detta för att kompensera för den förskjutning som vägens kurvatur introducerar, se gur 3.9. Om kurvaturen är skild från noll är radien = 1/kurvaturen och värdet som sannolikhetsfunktionen skapas enligt fås ur.  LDWoset. . = radie − radie · cos arcsin. V_avstånd. . radie. Måloset, sammanslagen Den här noden ger, som namnet antyder, oset i sidled hos målfordonet med hänsyn taget både till oset enligt radar och oset enligt LDW-kamera. Sannolikhetsfunktionen är resultatet av en addition av de båda, och resultatet är ett värde mellan -7 m och +7 m.. Filbredd Filbredd får data från LDW-kameran och är alltså en observerad nod. Värdet på lbredden får vara mellan 3,20 m och 4,50 m(annars anges det till NA) vilket inkluderar alla vägar i Sverige (enligt. [59]).. OsetHöger LDW-kameran ger även information om avstånd till höger respektive vänster linje. Det här bayesiska nätverket är baserat på avstånd till höger linje som får vara mellan 0 och 4 m. Noden har ingen sannolikhetsfunktion eftersom att den är observerad.. Fil, sammanslagen Hypoteshändelser för noden kan anta värdena vänster, höger, vår och NA. De anger med vilken sannolikhet målet kan antas vara i respektive l (relativt värdfordonet). Hur målet ligger i förhållande till lerna (ett värde angett i meter) används sen för att ta fram sannolikheten, baserat på teorin att ett fordons placering i en l är normalfördelad (se kap 3.3.3). Placeringen av målet relativt lerna räknas ut på följande sätt: vår. = 0, 5 · lbredd − osetHöger + måloset höger. = vår − lbredd. vänster. = vår + lbredd. Dessa värden används sen för att ta fram värden ur en normalfördelning med väntevärdet. µ=0. och standardavvikelsen. σ = 0, 5 · lbredd.. Avståndsgräns Den här noden nns eftersom att data från radarn bli mindre tillförlitliga ju längre bort målet är, upplösningen (speciellt för vinklar) räcker inte till. Att gränsen här är just 75 m beror dels på att max avstånd hos fordon som ACCsystemet reglerar mot är just 75 m, dels på att data från mätningar visar att det är runt det avståndet som uppgifterna oftare blir fel.. 22.

(33) Fil, radar Noden Fil, radar ger. P (f il) = 1. för det värde på l som radarn placerar. målet i. Detta beror på vilket mål radarn identierat det som (enligt gur 3.3). Tabell 3.8 visar sannolikhetstabellen.. Tabell 3.8: Radarmål enligt radarmålnummer. Målnummer, radar. Fil, radar. RT1. P(vänster) = 0, P(vår) = 1, P(höger) = 0. RT2. P(vänster) = 0, P(vår) = 1, P(höger) = 0. RT3. P(vänster) = 1, P(vår) = 0, P(höger) = 0. RT4. P(vänster) = 0, P(vår) = 0, P(höger) = 1. Filinfo, mål Hypoteshändelser för noden kan anta värdena vänster, höger och vår. Filinfo, mål är beroende av tre andra noder, Fil, radar, Fil, sammanslagen respektive Avståndsgräns. sannolikhetsfunktionen för noden ser ut som i tabell 3.9.. Tabell 3.9: Sannolikhetstabell för noden Filinfo, mål. Avstånd. Fil, sammanslagen. Fil, radar. Filinfo, mål. <75m. vänster. vänster. P(vänster) = 1, P(vår) = 0, P(höger) = 0. NA. vår. P(vänster) = 0, P(vår) = 1, P(höger) = 0. höger. höger. P(vänster) = 0, P(vår) = 0, P(höger) = 1. ... <75m ... >75m. D.v.s. att om avståndet till målet är mindre än 75 m, och Fil, sammanslagen inte har värdet NA så kommer de tre hypoteshändelserna i noden Filinfo, mål anta samma värden som de från Fil, sammanslagen. Annars är det värdena från Fil, radar som ges.. 3.3.2. Implementation av nätverket. Nätverket ritades först upp och testades initialt med få hypoteshändelser i GeNIe. När funktionaliteten liknade den som önskades byggdes det i MATLAB m.h.a. Bayes Net Toolbox för vidare utvärdering. För att kunna göra detta utvärderas dataloggar med CAN- data från verkliga situationer, loggade i programmet CANape från Vector. Data läses in och det första målet följs m.h.a. tracknumret (för beskrivning av detta, se kap 3.2.1). Resultatet av utvärderingen visas i en graf med vilken l radarn säger att målet benner sig i samt vilken l nätverket säger, samt eventuellt med en pålagd kurva från en egen utvärdering av hur situationen egentligen sett ut.. 3.3.3. Bevis för normalfördelning. För att veriera att placeringen av fordon i en l är normalfördelad används data från mätningar gjorda med ett fordon med LDW-kamera. Här nns infor-. 23.

(34) mation om lens bredd och fordonets placering i densamma. Placeringen räknas ut genom att subtrahera avstånd till höger lmarkering från lbredden. Genom att använda en normalfördelningsplot så som i gur 3.10 så visas det att antagandet om normalfördelning är rimligt, detta eftersom att värdena är linjära.. σ och µ från en mätning daterad 2006-11-14 är redovisade. De avvikande värdena från. Karaktäristiken för normalfördelningen ses i tabellen 3.10 där de 10 första. mätningar 03 och 04 beror med största sannolikhet på att kameran inte sett linjerna p.g.a starkt solljus och våt vägbana, och därför rapporterat lbredden och avståndet till lmarkeringen som NA värden. Figur 3.11 visar fördelningen för alla mätningar, 29 stycken, från mättillfället.. Tabell 3.10:. σ. och. µ. för normalfördelningsbevis. Mätning. σ. µ. 00. 0,19. -0,48. 01. 0,12. -0,32. 02. 0,15. -0,37. 03. 37,66. -5,13. 04. 141,97. -85,22. 05. 0,17. -0,28. 06. 0,16. -0,36. 07. 0,15. -0,39. 08. 0,33. -0,53. 09. 0,17. -0,30. En begränsning är dock att kameran sitter i en lastbil som eventuellt inte har samma rörelsemönster som andra fordon på vägen. Därför kommer. σ. och. µ. i. sannolikhetsfördelningen inte vara baserat på dessa värden. Dock kommer resultatet att placeringen faktiskt är normalfördelad användas.. 24.

(35) Figur 3.10: Normalfördelningsplot från mätning 20061114_12. Figur 3.11: Fördelningskurvor från mätning 20061114. 25.

(36) 3.4. Fusion av två radarenheter. Den andra fusionsförsöket är mellan två likadana radarenheter. Den nya enheten monterades på provbilens högra sida på motsvarande plats som den första radarn. Det nns tre skäl till att använda två likadana sensorer. Det första är för att få prova på att fusionera data från två sensorer som ser samma sak. Det andra är att man med en radar på höger sida borde kunna se mål som byter l till den egna från höger l tidigare. Det sista är att användandet av två radarenheter eventuellt skulle kunna ge bättre resultat än bara en radar för problemet att ange mitten på målfordonet (se kapitel 5). Det här nätverket kan sen kombineras med det tidigare för att utnyttja den information om len som kameran tillför.. 3.4.1. Nätverket. Även här används ett bayesiskt nätverk för att utföra fusionen. Nätverket ses i gur 3.12.. Indata till nätverket är avstånd till mål, vinkel till mål, hastighet hos mål samt vilket CAN-meddelande som data kommer ifrån för respektive radar.. Utdata från nätverket är i form av sannolikheter att de två radarnas mål är detsamma, ja (Y), nej(N) alternativt NA.. Figur 3.12: Fusionsnätverk 2. 26.

(37) Noderna Nedan följer en beskrivning av de ingående nodernas karaktäristik.. R_Avstånd, L_Avstånd Observerade noder som anger avstånd till höger (R) respektive vänster (L) radarenhets mål. Avstånden är från 0 till 100 m.. R_Vinkel, L_Vinkel Nästa observerade nodpar anger målvinkel, från. −6 ◦. till. 6 ◦.. R_Hastighet, L_Hastighet Det här nodparet anger den relativa hastigheten hos respektive radars mål. Hastigheten anges i km/h och kan ha värden mellan -40 och +40 km/h.. R_RT, L_RT I de här noderna bestäms sannolikheterna utifrån vilket radarmålnummer (RTx_R respektive RTx_L när två radarenheter är monterade på samma bil) som målet har.. R_Xpos, L_Xpos De här noderna nns med i nätverket för att ge en mer lättolkad enhet på placering beroende på vinkel till målet. De antar ett värde mellan -7 och 7 m alternativt NA på samma sätt som noden Målets oset enligt radar i kapitel 3.3.1.. Samma mål, Avstånd Den här noden har hypoteshändelserna Y, N, NA vars sannolikhet bestäms av avståndsskillnaden som ges av. |L_Avstånd. - R_Avstånd|. Om avståndsskill-. naden är större än tre meter så är sannolikheten 1. Värdet tre meter är uppskattat från mätningar genom att jämföra data från mål som visuellt (genom CANape-lm) verierats tillhöra samma mål.. Samma mål, Xpos Om avståndsskillnaden |L_Xpos - R_Xpos| är mindre än en meter anses vinklarna kunna härstamma från samma mål.. Samma mål, Placering I den här noden kombineras avgörandena om datat härstammar från samma mål baserat på information om avstånd och vinkel enligt tabell 3.11. Resultatet blir sannolikheten att de båda radarenheterna ser samma mål med hypoteshändelserna Y, N och NA.. Tabell 3.11: Sannolikhetstabell för noden Samma mål, placering. Samma mål, Avstånd. Samma mål, Xpos. Samma mål, placering. Y. Y. P(Y) = 1, P(N) = 0, P(NA) = 0. N. N. P(Y) = 0, P(N) = 1, P(NA) = 0. N. Y. P(Y) = 0,3, P(N) = 0,7 , P(NA) = 0. Y. N. P(Y) = 0,7, P(N) = 0,3, P(NA) = 0. NA. -. P(Y) = 0, P(N) = 0, P(NA) = 1. -. NA. P(Y) = 0, P(N) = 0, P(NA) = 1. 27.

(38) Samma mål, Hastighet Hastighetsnoden har samma hypoteshändelser som övriga mål- noder och har en sannolikhetsfunktion som säger att om skillnaden i hastighet är mindre än 0,1 km/h så är det samma mål de båda enheterna ser. Toleransen för hastigheterna är litet eftersom att radarn är bra på att ange korrekta hastigheter.. Tabell 3.12: Sannolikhetstabell för noden Samma mål, RT. R_RT. L_RT. Samma mål, RT. 1. 1. P(Y) = 0,8, P(N) = 0,2. 1. 2. P(Y) = 0,3, P(N) = 0,7. 1. 3. P(Y) = 0,3, P(N) = 0,7. 1. 4. P(Y) = 0,7, P(N) = 0,3. .... Samma mål, RT Hypoteshändelserna Y och N antar värden enligt sannolikhetstabell 3.12. Samma mål Noden samma mål har de tre hypoteshändelserna Y, N samt NA och antar dessa enligt följande sannolikhetstabell 3.13.. Tabell 3.13: sannolikhetstabell för noden Samma mål. Samma mål. RT. Placering. Hastighet. Samma mål. Y. Y. Y. P(Y) = 1, P(N) = 0, P(NA) = 0. N. N. N. P(Y) = 0, P(N) = 1, P(NA) = 0. -. N. N. P(Y) = 0,2, P(N) = 0,8, P(NA) = 0. N. -. N. P(Y) = 0,3, P(N) = 0,7, P(NA) = 0. N. N. -. P(Y) = 0,3, P(N) = 0,7, P(NA) = 0. -. Y. Y. P(Y) = 0,8, P(N) = 0,2, P(NA) = 0. Y. -. Y. P(Y) = 0,7, P(N) = 0,3, P(NA) = 0. Y. Y. -. P(Y) = 0,7, P(N) = 0,3, P(NA) = 0. en av tre Y. ... ... P(Y) = 0,7, P(N) = 0,3, P(NA) = 0. NA. -. -. P(Y) = 0, P(N) = 0, P(NA) = 1. -. NA. -. P(Y) = 0, P(N) = 0, P(NA) = 1. -. -. NA. P(Y) = 0, P(N) = 0, P(NA) = 1. 3.4.2. Implementation av nätverket. Det här Bayesiska nätverket implementerades, på samma sätt som det tidigare, först i GeNIe och sedan i Matlab. Alla mål från vänster radar kollas mot alla mål från höger radar och en matchmatris, med information om vilka mål som anses vara samma, skapas. Då RT1_R målet är samma som RT3_L och RT4_R är samma som RT4_L ser den ut som i tabell 3.14 Utifrån matchmatrisen skapas sen en lista över de mål som nns hos radarparet. I listan anges data enligt tabell 3.15. Första och andra kolumnen visar vilket tracknummer målet har. Om målet är matchat med ett av den andra. 28.

(39) Tabell 3.14: Matchmatris. RT1_R. RT2_R. RT3_R. RT4_R. RT1_L. 0. 0. 0. 0. RT2_L. 0. 0. 0. 0. RT3_L. 1. 0. 0. 0. RT4_L. 0. 0. 0. 1. radarns mål anges även detta. Annars visas noll. I nästa kolumn anges med vilken säkerhet det kan sägas att målen faktiskt är matchade. För tillfället ges 1 om samma två tracknummer varit matchade i mer än 10 sampels, annars 0. De anses då matchade tills dess något av dom två försvinner, och kommer inte köras igenom nätverket igen. Informationen om l ges som en sira 1 (vänster om värdfordonet), 2 (samma l) eller 3 (till höger) och är, om inte datat också är kört genom nätverket för fusionen radar och LDW-kamera, baserat på vilket RT meddelande som anses mest riktigt. Sannolikheten att målet ligger i just den len är inte av intresse om inte första fusionsnätverket är inblandat. Målavstånd och målvinkel är data taget från en av radarenheterna. Vilken radar som datan kommer ifrån är noterat i kolumnen Data RT enligt radarmålnumret. Ett minustecken representerar data från vänster radar. Till sist visas information om vilket RT_R respektive RT_L meddelande respektive track kommer ifrån (radarmålnummer). I tabell 3.15 visas tre ktiva mål.. Tabell 3.15: Mållista. Track R. Track L. Sann. samma mål. Matchade Fil samples. Sann. l. MålMålavstånd vinkel. Data RT. RT_R RT_L nr nr. 1. 1. 0. 7. 2. -. 43. 0,1. 1. 1. 3. 2. 5. 1. 54. 2. -. 68. 0. 4. 4. 4. 3. 0. 0. 0. 1. -. 25. -2. 3. 3. 0. Dessa tre mål kommer sen utvärderas beroende på l och avstånd för att avgöra vilka som är mål 1 (RT1) respektive mål 2 (RT2). I det här fallet kommer rad 1 och rad 2 blir mål 1 respektive mål 2.. 29.

(40) Kapitel 4. Resultat och analys Ett testfordon, utrustat med de sensorer som presenterats tidigare, har vid ett antal tillfällen körts för att samla in data. Från de mätningar som gjorts har några valts ut och använts vid utvärderingen som följer i detta kapitel.. 4.1. Resultat. Utvärderingens första del består i att presentera ett antal mätningar. Mätningarna är gjorda med CANape och är sedan importerade till MATLAB.. 4.1.1. Mätning 20061201_7, fusionsnätverk 1. Den första mätningen består av en sekvens på 1 minut och 1 sekund som är loggad 2006-12-01. Här följer värdfordonet en annan lastbil och de kör till en början i vänster l. Två gånger byter målet l till höger och tillbaka, den sista gången det byter l stannar målet kvar i höger l. I slutet av mätningen byter även värdfordonet till höger l. I guren 4.1, som är en skärmdump från CANape och visar en situation från mätningen, ses till vänster en schematisk bild av vägen framför värdfordonet. Den röda fyrkanten representerar det som radarn anser är mål 1 och de vitaktiga strecken är lmarkeringarna enligt data från LDW-kameran. Samma fyrkant (men nu inte ifylld) och linjer visas pålagda på en videobild till höger.. Tabell 4.1: Filnumrering för mätningarna 0. Inget mål. 1. Fil till vänster. 2. Samma l. 3. Fil till höger. I gur 4.2 ses en graf som på x-axeln visar vilken l (relativt värdfordonet) som målet benner sig (se tabell 4.1). Data enligt radar visar vilken l radarn. 30.

(41) Figur 4.1: Filmruta från 061201_7, tid 51 sekunder. anser att målet benner sig i medan data enligt fusion visar det i texten ovan presenterade förslagets lbedömning (den l som har högst sannolikhet från nod linfo, mål). Data enligt bedömning visar de tidpunkter då målets mitt passerat lmarkeringen vilka har tagits fram genom att titta på lmen från mätningarna. Dessa tidpunkter är inte alltid lätta att avgöra och representerar därför inte något exakt mått. Y-axeln visar tid i sekunder. I gur 4.3 visas en förstorad del av gur 4.2 (ses även i gur 4.1. Vad som observeras i gur 4.3 är att radarn inte alls uppmärksammar det lbyte som sker vid tiden 50 sekunder. I gur 4.1 ses också tydligt att målet är placerat i len till höger om värdfordonet, i l 3. Fusionsalgoritmen reagerar på lbytet, dock inte förrän drygt två sekunder senare, då tiden är 52,44 sekunder. Liknande observationer kan göras för alla fall av lbyten i gur 4.2. I dessa uppmärksammar radarn målets ytt, men fusionsalgoritmen är oftast aningen snabbare. Vid det första lbytet uppträder fusionsalgoritmen skakigt, det kommenteras mer i kapitel 4.2.. 31.

(42) Figur 4.2: Mätning 061201_7, fusionsnätverk 1. Figur 4.3: Förstorad bild av mätning 061201_7. 4.1.2. Mätning 20070115_8, fusionsnätverk 1 och 2. Under 18 sekunder följer värdfordonet ett mål som byter till vänsterlen och tillbaka. För att visa hur fusionsnätverk 2 fungerar tillsammans med fusionsnätverk 1 så har data från logglen körts genom de båda. I gur 4.4 visas resultatet från det första nätverket på samma sätt som i gur 4.2, med enda skillnaden att utvärderingen gjorts för data från båda radarenheterna. Tiderna då respektive kurva markerar körfältsbyte presenteras i tabell 4.2. Markeringen som syns vid tiden 2 sekunder förklaras i kapitel 4.2 och kan för tillfället bortses från.. 32.

(43) Fusionsnätverk 2 på egen hand ger upphov till graferna i gur 4.5. I guren visas vilket radarmål som anses vara mål 1. Mål 1 är det som ligger närmast värdfordonet i dess l och om det nns något fordon framför det benämns detta mål 2. I den här mätningen nns det inget mål 2, annars hade motsvarande data för detta redovisats på samma sätt. De intressantaste punkterna i gur 4.5 är de där radarmålnummret avviker från värdet 1. Vid 5 sekunder, då målfordonet gör sitt första körfältsbyte, byter vänster radar radarmålnummer till 3. Detta för att vänster radar tidigare registrerar bytet. Däremot bedömer fusionsnätverket att data från höger radar ska användas och målet registreras som om det befann sig i samma l som det mål från höger radar det matchats med. I det ursprungliga systemet används bara en radar, den vänstra och det är dess uppgifter som representerar utgångsläget. Genom att se på den kurvan inses att radarns och nätverkets uppförande är nästan identiskt (inget mål visas av radarn som 255 och av fusionsnätverket som 0) och ingen förbättring kan påvisas. Det beror på att höger och vänster radar registrerar lbytet samtidigt och följdaktligen har samma information om vilken l målet är placerat i. Fusionsnätverk 2 i sammarbete med fusionsnätverk 1 presenteras med likadana grafer. Med hänsyn taget till linformationen i gur 4.4 blir resultatet dock lite annorlunda vilket ses i gur 4.6. Nu släpper systemet mål 1 tidigare (vid 4 sekunder istället för vid 5 sekunder). Det lite sent uppmärksammade körfältsbytet tillbaka till värdfordonets l (vid tiden 15 sekunder) försämrar reaktionstiden med ungefär 0,4 sekunder.. Figur 4.4: Mätning 20070115_8, fusionsnätverk 1. 33.

(44) Tabell 4.2: Tid för körfältsbyte, mätning 20070115_8. Vänster radar. Höger radar. Bedömning. Körfältsbyte 1. 3,048 s. 3,048 s. Fusionsnätverk 1. 4,008 s. 4,26 s. Radarenhet. 5,088 s. 5,06 s. Bedömning. 14,33 s. 14,33 s. Fusionsnätverk 1. 15,21 s. 14,9 s. Radarenhet. 15,57 s. 15,38 s. Körfältsbyte 2. Figur 4.5: Mätning 20070115_8, fusionsnätverk 2. Figur 4.6: Mätning 20070115_8, fusionsnätverk 1 och 2. 4.1.3. Mätning 20061215, fusionsnätverk 1 och 2. En sista demonstration av fusionsnätverk 2 ges m.h.a. en sekvens ur mätningen 20061215 som är 5 sekunder lång och visar ett fordon som från en påfartsramp kommer in i värdfordonets l. Händelseförloppet visas i gur 4.7 genom l enligt bedömning. Höger radar ser målet lite mer än 266 sekunder in i mätningen,. 34.

References

Outline

Related documents

- förståelse för de förutsättningar som skolmiljön innebär för undervisning och lärande i matematik,.. - förståelse för kommunikationens roll för undervisning och lärande

- förskolans uppdrag att erbjuda alla barn likvärdiga möjligheter till utveckling och lärande, - dokumentation, uppföljning och analys av lärande, i ett historiskt och

- kunna redogöra för det växande barnets utveckling utifrån ett humanbiologiskt perspektiv - kunna redogöra för lekens betydelse för barns utveckling och lärande.. - kunna

Ok om wij än skrifwa eller tala därom är dock sådant alt stympwärck. Om icke däd bästa rådet wore, at skiuta oss i Gudz hand, göra wårt bästaP giöra det bästa , ok låta

Inom temat behandlas frågor om betydelsen av pedagogiskt ledarskap för ungas lärande och sociala utveckling samt etiska aspekter av lärares yrkesutövande.. Inom delkursen

Inom temat behandlas grundlärares arbete med att leda pedagogisk verksamhet med särskilt avseende på kommunikation och sociala relationer som förutsättningar för lärande i skolan..

Inom temat behandlas frågor om betydelsen av pedagogiskt ledarskap för barns/elevers lärande och sociala utveckling samt etiska aspekter av grundlärares yrkesutövande.. Inom

Inom temat behandlas frågor om betydelsen av pedagogiskt ledarskap för ungas lärande och sociala utveckling samt etiska aspekter av lärares yrkesutövande.. Inom delkursen