• No results found

Efter unders¨okningen s˚a uppt¨acktes att RCWL-0516 har en bra r¨ackvidd, ¨ar billig och har en bra genomtr¨angning, men den misslyckas med att identifiera m¨anniskor med objekt som g¨or den oanv¨andbar. D¨arf¨or fick andra sensorer, termiskkamera eller LIDAR, unders¨okas f¨or att se om de kan uppfylla kraven som st¨alldes. Om man vill ha h¨ogre precision ¨ar bildanalys en dyrare men en b¨attre l¨osning. Sensorerna ska j¨amf¨oras med varandra f¨or att v¨alja vilken som ¨

ar l¨ampligast f¨or uppfylla kravet p˚a att ¨overvaka en arbetsplats.

F¨or att g¨ora det s˚a skapade man ett betygssystem som baserar sig p˚a behovet av de olika funktioner per modul. Graderingen r¨aknades med hj¨alp av denna funktionen Sensorbetyg= n X i=1 xiai d¨ar x ¨ar vikten och a ¨ar betyget.

Funktionerna som ska betygs¨attas f¨or sensorn ¨ar:

• R¨ackvidden p˚a sensorn ¨ar hur l˚angt detektionsavst˚andet ¨ar.

• Dynamisk R¨ackvidd ¨ar ifall det g˚ar att ¨andra detektionsavst˚andet i realtid.

• Genomtr¨angning ¨ar hur bra sensorn kan detektera genom olika material. • Urskilja F¨orem˚al ¨ar hur bra sensorn kan urskilja mellan m¨anniskor och

objekt.

• Kostnad ¨ar hur billig sensorn ¨ar (H¨ogre v¨arde = Billigare).

• Precision ¨ar hur l¨att sensorsignalen kan p˚averkas av omgivningen (H¨ogre v¨arde = H¨ogre Precision).

Tabell 1: Resultat p˚a Utv¨arderingsmatris:

Som vi ser i tabell 1 s˚a ¨ar b˚ade LIDAR och en Optiskkamera med bildanalys bra kandidater f¨or l¨osa problemet med att uppt¨acka en person i en farlig zon. Vikten g˚ar att ¨andra fritt beroende p˚a vilken funktion man vill prioritera mest.

5

Slutsats

Efter unders¨okningar av olika metoder och experimentering med RCWL-0516 modulen och VMA314 PIR sensor drogs det slutsatsen att det inte g˚ar att l¨osa ¨

overvakningsproblemet med endast enkla sensorer. ¨

Aven om man kunde reglerar avst˚andet dynamiskt p˚a RCWL-0516 modulen, avsnitt 4.1, l¨ampar den sig inte som en givare p˚a en s˚adan plats d¨ar det kan f¨orekomma andra r¨orliga objekt men skulle kunna vara ett alternativ om det ¨ar s˚a om det endast r¨or sig personer vid ett omr˚ade och man kan filtrera de vib- rationer som st¨or modulen. I f¨ors¨oken att ut¨oka detektionsl¨angden med hj¨alp av metall, i form av aluminiumburk och en parabol gjord av aluminiumfolie, s˚a drogs slutsatsen att distansen ¨okade n˚agot men inte avsev¨art, vilket g˚ar att utl¨asa fr˚an figur 15. Fr˚an resultaten i figur 16 var slutsatsen att detek- tionsf¨orm˚agan begr¨ansades n˚agot men ej avsev¨art av plast men ganska mycket av tr¨a. Eftersom RCWL-0516 modulen utesl¨ots fr˚an valen av anv¨andbara sen- sorer f¨or m¨anniskoigenk¨anning, s˚a utf¨ordes det inga frekvensst¨orningstester p˚a den. RCWL-0516 har inget CE-certifikat, d¨arf¨or kan det vara sv˚art att f˚a ett system godk¨ant d˚a man ej vet om n¨asta batch av modulen klarar ett nytt CE- test. VMA314 PIR sensor gav samma resultat som RCWL-0516 modulen men med mindre k¨anslighet mot objekt under en viss temperatur, och med bara ett 120◦synf¨alt.

F¨or att uppt¨acka m¨anniskor p˚a ett p˚alitligt s¨att s˚a ¨ar en kombination av en CMOS kamera med n˚agon form av bildanalys rekommenderad enligt 4.5. Med anv¨andning av objektidentifierings-metoden YOLO s˚a kan man med h¨og pre- cision identifiera en m¨anniska i ett f¨orbest¨amt omr˚ade. YOLO ¨ar en prestanda kr¨avande metod och det ¨ar d¨af¨or en kombination med bakgrund-subtraktion eller en termisk-kamera ett bra val. Metodernas uppgift ¨ar att identifiera r¨orelse i omr˚adet, och skicka en signal till YOLO att b¨orja k¨ora, det vill s¨aga att YOLO k¨ors bara n¨ar man beh¨over att identifiera typen av r¨orelsen. Bilderna som tas av CMOS kameran kommer inte lagras, datan i bilden kommer endast anv¨andas under identifieringsprocessen och sedan tas bort fr˚an minnet.

6

Diskussion

Vidare i ¨amnet beh¨ovs det unders¨okas hur man skulle kombinera olika sensorer f¨or att t¨acka alla de farliga zonerna p˚a ett p˚alitligt s¨att. Kameror med bildanalys ¨

ar ett bra s¨att men det finns risker att ¨overvakningen kan bli blockerad av olika objekt eller st¨ord av v¨ader och kan d¨arf¨or beh¨ova kompletteras. Om systemet skall anv¨andas i milj¨oer med begr¨ansat ljus s˚a kan problem uppst˚a med vanlig kamera och d˚a skulle en termisk kamera med bildanalys passat b¨attre. Som [30] och [31] visar g˚ar det utm¨arkt att identifiera en person ur en bild fr˚an en termisk kamera med hj¨alp av Haar-Cascade metoden. I ett arbete fr˚an 2005 [32] s˚a redovisas dock ett system som kan, i svagt ljus, uppt¨acka personer i en best¨amd zon med vanlig optisk kamera. Detta g¨ors med backgroundsubtraction och sedan kan personer uppt¨ackas med hj¨alp av klassifiering. Det kan ocks˚a diskuteras om i fall bildanalys anv¨ands som metod om andra objekt ocks˚a ska detekteras, som till exempel gaffeltruckar med f¨orare d¨ar m¨anniskor ocks˚a s¨atts i fara om de befinner sig i det riskfyllda omr˚adet under lastning. I detta arbetet drog slutsatsen att radarmodulen RCWL-0516 inte var s¨arskilt l¨ampad f¨or problemet med detektion av m¨anniskor i ett farligt omr˚ade. Detta betyder n¨odv¨andigt vis inte att radar b¨or slopas helt som metod f¨or det finns andra sorters radar som skulle passa b¨attre, t.ex en Ultra Wideband(UWB) som f¨orfattarna till [33] testat och med framg˚ang f˚att att identifiera en person och position utifr˚an radarsignaler. ¨Aven radar av typen LiDAR i system f¨or bilar ¨ar k¨ant f¨or att effektivt detektera m¨anniskor [10].

Referenser

[1] Arbetsmilj¨overket, “Statistik om d¨odsolyckor i arbetet.” https://www.av.se/arbetsmiljoarbete-och-inspektioner/

arbetsmiljostatistik-officiell-arbetsskadestatstik/ statistik-om-dodsolyckor-i-arbetet/. Accessed: 2019-03-09.

[2] J. Desbonnet, “Rcwl-0516 information.” https://github.com/ jdesbonnet/RCWL-0516. Accessed: 2019-03-09.

[3] R. Clark, “Rcwl-0516 analysis.” https://www.rogerclark.net/ investigating-a-rcwl-9196-rcwl-0516-radar-motion-detector-modules/. Accessed: 2019-03-09.

[4] V. Davis, J.W. & Sharma, “Robust detection of people in thermal image- ry.,” Proceedings of the 17th International Conference on Pattern Recogni- tion, vol. 4, pp. 713–716 Vol.4, Aug 2004.

[5] Y. H. Jiang Dong *, Dafang Zhuang and J. Fu, “Advances in multi-sensor data fusion: Algorithms and applications,” Sensors, vol. 9, pp. 7771–7784, 2009.

[6] Nationalencyklopedin, “Dopplereffekten.” Nationalencyklopedin, dopplereffekten./uppslagsverk/encyklopedi/enkel/

dopplereffekten. Accessed: 2019-03-09.

[7] Brilliant, “Doppler effect.” https://brilliant.org/wiki/ doppler-effect/?fbclid=IwAR2fiT1yuqqX2I7O4C4UI9OVUlbiPL7rp_ -Kdu0Yq0n4L5PRAzQDF3Iit30. Accessed: 2019-07-18.

[8] K. Academy, “Doppler effect: reflection off a mo- ving object.” https://www.khanacademy.org/science/ physics/mechanical-waves-and-sound/doppler-effect/v/

doppler-effect-reflection-off-a-moving-object. Accessed: 2019- 07-18.

[9] LibreTexts, “The doppler effect.” https://phys.libretexts.org/ Bookshelves/University_Physics/Book%3A_University_Physics_ (OpenStax)/Map%3A_University_Physics_I_-_Mechanics%2C_Sound% 2C_Oscillations%2C_and_Waves_(OpenStax)/17%3A_Sound/17.7%3A_ The_Doppler_Effect. Accessed: 2019-07-18.

[10] A. W. T. N. Kiyosumi Kidono, Takeo Miyasaka and J. Miura, “Pedestri- an recognition using high-definition lidar,” 2011 IEEE Intelligent Vehicles Symposium (IV), pp. 405–410, June 2011.

[11] B. Lohani, S. Chacko, S. Ghosh, and S. Sasidharan, “Surveillance system based on flash lidar,” Indian Cartographer, vol. 32, pp. 77–81, Dec 2013.

[12] Jianchao Zeng, A. Sayedelahl, M. F. Chouikha, E. T. Gilmore, and P. D. Frazier, “Human detection in non-urban environment using infrared ima- ges,” in 2007 6th International Conference on Information, Communica- tions Signal Processing, pp. 1–4, Dec 2007.

[13] M. Piccardi, “Background subtraction techniques: a review,” Computer Vi- sion Group, Faculty of Information Technology University of Technology, vol. 4, pp. 3099–3104, Oct 2004.

[14] A. K. R. Alexander Mordvintsev, “Background subraction - opencv.” https://opencv-python-tutroals.readthedocs.io/en/latest/py_ tutorials/py_video/py_bg_subtraction/py_bg_subtraction.html. Accessed: 2019-06-08.

[15] I. S. Satbir Kaur, “Comparison between edge detection techniques,” In- ternational Journal of Computer Applications, vol. 145, pp. 15–18, June 2016.

[16] W. Kong, A. Hussain, M. H. M. Saad, and N. M. Tahir, “Hand detection from silhouette for video surveillance application,” in 2012 IEEE 8th Inter- national Colloquium on Signal Processing and its Applications, pp. 514–518, March 2012.

[17] M. Li, Z. Zhang, K. Huang, and T. Tan, “Rapid and robust human de- tection and tracking based on omega-shape features,” 2009 16th IEEE In- ternational Conference on Image Processing (ICIP), pp. 2545–2548, Nov 2009.

[18] R. Gandhi, “Object detection methods ex-

plained.” https://towardsdatascience.com/

r-cnn-fast-r-cnn-faster-r-cnn-yolo-object-detection-algorithms-36d53571365e. Accessed: 2019-09-17.

[19] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You only look once: Unified, real-time object detection,” 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 779–788, June 2016.

[20] M. Buri´c, M. Pobar, and M. Ivaˇsi´c-Kos, “Object detection in sports vi- deos,” 2018 41st International Convention on Information and Communi- cation Technology, Electronics and Microelectronics (MIPRO), pp. 1034– 1039, May 2018.

[21] C. Cai, B. Wang, and X. Liang, “A new family monitoring alarm system based on improved yolo network,” 2018 Chinese Control And Decision Con- ference (CCDC), pp. 4269–4274, June 2018.

[22] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Conference On Computer Vision And Pattern Recog- nition, vol. 1, pp. 511–518, Dec 2001.

[23] openCV, “Motion analysis.” https://docs.opencv.org/master/de/de1/ group__video__motion.html#ga2beb2dee7a073809ccec60f145b6b29c. Accessed: 2019-09-16.

[24] openCV, “Image filtering.” https://docs.opencv. org/master/d4/d86/group__imgproc__filter.html#

gac342a1bb6eabf6f55c803b09268e36dc. Accessed: 2019-09-16.

[25] openCV, “Morphological transformations.” https://docs.opencv.org/ trunk/d9/d61/tutorial_py_morphological_ops.html. Accessed: 2019- 09-16.

[26] J. Redmon, “Yolo config.” https://raw.githubusercontent.com/ pjreddie/darknet/master/cfg/yolov3.cfg. Accessed: 2019-06-08. [27] J. Redmon, “Yolo weights.” https://pjreddie.com/media/files/

yolov3.weights. Accessed: 2019-06-08.

[28] P. Ren, W. Fang, and S. Djahel, “A novel yolo-based real-time people counting approach,” 2017 International Smart Cities Conference (ISC2), pp. 1–2, Sep. 2017.

[29] S. Hameed, “Haar cascade classifiers.” https://github.com/opencv/ opencv/tree/master/data/haarcascades. Accessed: 2019-04-26.

[30] F. Christian Herdianto Setjo, Balza Achmad, “Thermal image human de- tection using haar-cascade classifier,” Proceedings of the 17th International Conference on Pattern Recognition, pp. 1–6, Aug 2017.

[31] W. Wang, J. Zhang, and C. Shen, “Improved human detection and classifi- cation in thermal images,” 2010 IEEE International Conference on Image Processing, pp. 2313–2316, Sep. 2010.

[32] Jianpeng Zhou and Jack Hoang, “Real time robust human detection and tracking system,” 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05) - Workshops, pp. 149–149, Sep. 2005.

[33] A. G. Yarovoy, J. Matuzas, B. Levitas, and L. P. Ligthart, “Uwb radar for human being detection,” European Radar Conference, 2005. EURAD 2005., pp. 85–88, Oct 2005.

7

Bilaga

Avsnitt 3.3.1

7.2

Koden till Haar Cascade och Edge Detection

Related documents