Wystarczy Ci rozdzielczość aparatu/kamery i szybkość robienia zdjęć.
Nasza metoda wykorzystuje odwzorowanie każdego piksela kamery. Odwzorowanie to tablica o rozmiarze robionych zdjęć (w tym przypadku niespełna 800x600).
Elementy tej tablicy są określane na podstawie znajomego obiektu (obiektu wzorcowego), którym w naszym przypadku była prostokątna cienka pionowa tektura o wymiarze 120x60mm. Tekturkę stawialiśmy na skraju platformy obrotowej, oświetlaliśmy ją linijką laserową i robiliśmy zdjęcia przy włączonym obrocie platformy. Jako, że stała przy skraju platformy to odległość od środka talerza wynosi zawsze r - promień platformy (na dwóch zdjęciach, najbliżej i najdalej kamery, odległość od środka talerza jest ta sama - stąd odwzorowanie odległości). Wyszło nam, że odwzorowanie odległości od środka talerza dobrze przybliżane jest funkcją kwadratową. Natomiast wysokość tektury na dwóch zdjęciach kamery (gdy tekturka była bliżej kamery i dalej kamery) dała info o liniach stałej wysokości na obrazie kamery - stąd odwzorowanie linii stałej wysokości. Wyszło nam, że odwzorowanie wysokości dobrze przybliżane jest przez funkcję liniową.
Podam Ci spis literatury, z której korzystałem przy opracowaniu tego projektu.
1. J.A. Beraldin, F. Blais, P. Boulanger, and M. Rioux. Range imaging sensors
development at NRC laboratories. Proc. IEEE Workshop Interpretation 3D Scenes, pages 154–160, 1989.
2. P.J. Besl and N.D. McKay. A Method for Registration of 3-D Shapes. IEEE Trans.
Pattern Analysis and Machine Intelligence, 14(2):239–256, luty 1992.
3. F. Blais. Review of 20 Years of Range Sensor Development. Journal of Electronic
Imaging, styczen 2004. National Research Council Canada, Ottawa, Ontario.
4. M. Bubicz. Raport: szybkie prototypowanie cz. II Skanery 3D. Rodzaje, sposób
działania, przeglad dostepnych rozwiazan. Projektowanie i Konstrukcje Inzynierskie, 6(09):12–21, czerwiec 2008.
5. S. Chaudhuri and A. Rajagopalan. Depth from defocus: a real aperture imaging
approach. Springer Verlag, 1999.
6. D. Sciebura. Uzyskiwanie obrazu 3D obiektów za pomoca wizyjnego systemu, zrobotyzowanego
stanowiska spawalniczego. Master’s thesis, Politechnika Gdanska, 2008.
7. N. D’Apuzzo. Overview of 3D surface digitization technologies in Europe. Three-
Dimensional Image Capture and Applications VI, 2006. Proc. of SPIE-IS&T Electronic
Imaging, SPIE Vol. 6056, San Jose (CA), USA.
8. G. Gruener, J.W. Weingarten, and R. Siegwart. Inspection of surface by the
Moire method. Measurement Science Review, 1(1):29 – 32, 2001. Slovak Institute
of Metrology, Bratislava.
9. G. Gruener, J.W. Weingarten, and R. Siegwart. A State-of-the-Art 3D Sensor
for Robot Navigation. Intelligent Robots and Systems, 3:2155 – 2160, wrzesien/
pazdziernik 2004. Three-Dimensional Image Capture and Applications VII.
10. S. Kumar, M.L. Smith, and L.N. Smith. An Overview of Passive and Active Vision
Techniques for Hand-Held 3D Data Acquisition. Proceedings of SPIE, 4877:16–27, 2003. Opto-Ireland: Optical Metrology, Imaging and Machine Vision.
11. T. Masuda, K. Sakaue, and N. Yokoya. Registration and Integration of Multiple
Range Images for 3-D Model Construction. Proceedings of ICPR, 1996. Nara
Institute of Science and Technology, Ikoma, Nara 630-01, Japan.
12. R.J. Woodham. Photometric method for determining surface orientation from
multiple images. Optical Engineerings, 19(1):139–144, styczen/luty 1980.