KR20230137814A - 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템 - Google Patents

컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템 Download PDF

Info

Publication number
KR20230137814A
KR20230137814A KR1020220178036A KR20220178036A KR20230137814A KR 20230137814 A KR20230137814 A KR 20230137814A KR 1020220178036 A KR1020220178036 A KR 1020220178036A KR 20220178036 A KR20220178036 A KR 20220178036A KR 20230137814 A KR20230137814 A KR 20230137814A
Authority
KR
South Korea
Prior art keywords
image
character
neural network
objects
data
Prior art date
Application number
KR1020220178036A
Other languages
English (en)
Inventor
이충열
Original Assignee
이충열
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220035465A external-priority patent/KR102480238B1/ko
Application filed by 이충열 filed Critical 이충열
Priority to KR1020220178036A priority Critical patent/KR20230137814A/ko
Priority to PCT/KR2023/002098 priority patent/WO2023182658A1/ko
Priority to EP23761742.8A priority patent/EP4290478A1/en
Priority to PCT/KR2023/009345 priority patent/WO2023224456A1/ko
Publication of KR20230137814A publication Critical patent/KR20230137814A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1448Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on markings or identifiers characterising the document or the area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 몇몇 실시예에 따른 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 영상을 처리하는 방법으로서, 상기 방법은: 영상을 획득하는 단계; 객체 분석 모델을 이용하여, 상기 영상으로부터, 상기 영상에 포함된 객체에 대응되는 분석 정보를 획득하는 단계; 및 OCR 모델을 이용하여, 상기 객체에 대응되는 분석 정보로부터, 상기 객체에 포함된 문자를 획득하는 단계;를 포함할 수 있다.

Description

컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템{METHOD FOR PROCESSING IMAGES OBTAINED FROM SHOOTING DEVICE OPERATIVELY CONNECTED TO COMPUTING APPARATUS AND SYSTEM USING THE SAME}
본 개시서에는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템이 개시된다. 구체적으로, 본 개시서의 방법에 의하면, 컴퓨팅 장치에 일체화되거나 상기 컴퓨팅 장치와 연동하는 촬영 장치로부터 그 컴퓨팅 장치가 전체 영상을 획득하며, 상기 전체 영상에 나타난 하나 이상의 객체를 검출하고, 검출된 상기 객체 각각의 카테고리를 산출하는 분류를 수행하며, 상기 객체 각각에 대한 분석 결과로서 상기 객체의 특성 및 상태를 포함하는 상세 분류 정보를 생성한다.
휴대 가능 컴퓨팅 장치(portable computing apparatus)는 일반적으로 프로세서, 디스플레이, 마이크로폰 및 스피커를 장착하고 있는 장치를 일컫는바, 그 중의 일부는 통신기기의 일종인 휴대 단말로 이용될 수 있다. 휴대 단말은 종래에 키패드, 터치 디스플레이 등 사용자의 접촉이 요구되는 입력 장치를 통하여 사용자의 명령을 입력받았으나, 음성 인식 기술 및 컴퓨터 비전(computer vision) 기술의 발달에 따라 마이크로폰 및 카메라 등의 입력 장치를 통하여 사용자의 명령을 원거리에서 수신하여 그 명령에 따라 상호작용할 수 있다.
그런데 휴대 가능 컴퓨팅 장치는 자체적인 이동력을 갖추지 못하고 있기 때문에 그 물리적 위치에 따라 입출력의 범위가 제한된다.
휴대 가능 컴퓨팅 장치에 탑재된 입력 장치의 물리적 제한의 일 예시로서, 비접촉 입력 장치인 카메라는 휴대폰의 전면 또는 후면에 장착되어 있고 제한된 화각(field of view)을 가지고 있어, 원하는 영상을 카메라에 담기 위하여 사용자가 손으로 파지한 후에 직접 구도(화각 또는 시야 범위, field of view; FOV)를 변경해야만 한다. 그러한 물리적 제한의 다른 예시로서, 휴대 가능 컴퓨팅 장치에 장착된 마이크로폰은 음원의 방향에 따라 수신 감도가 저하된다.
입력뿐만 아니라 출력도 물리적 위치에 따라 제한되는데, 그 일 예시로서, 출력 장치인 터치 디스플레이는 일반적으로 평면에 가까운 형상을 가진 채 휴대 단말의 6면 중 일부 면에 부착되어 있어, 사용자는 휴대폰을 파지한 후에 그 휴대 단말의 터치 디스플레이가 자신의 얼굴 방향을 향하도록 하여 그 휴대폰을 사용한다. 또 다른 예시로서, 3차원 형상의 획득을 위한 적외선 프로젝터는 그 적외선 광선의 조사 방향 및 각도가 휴대 단말의 일 방향 범위로 제한되어 마찬가지로 사용자가 휴대 단말을 파지한 후 안내에 따라 그 조사 방향을 조절하여야 한다. 또한, 이와 관련하여 대한민국 공개특허공보 제10-2011-0032244호, 제10-2019-0085464호, 제10-2019-0074011호, 제10-2019-0098091호, 제10-2019-0106943호, 제10-2018-0109499호가 안출되어 있다. 그리고, 이와 관련하여 (비특허문헌 1)Y. Zhou et al., "Learning to Reconstruct 3D Manhattan Wireframes From a Single Image," 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019, pp. 7697-7706, doi: 10.1109/ICCV.2019.00779., (비특허문헌 2)Shin, D., & Kim, I. (2018). Deep Image Understanding Using Multilayered Contexts. Mathematical Problems in Engineering, 2018, 1-11. https://doi.org/10.1155/2018/5847460, (비특허문헌 3) Mo, K., Zhu, S., Chang, A. X., Yi, L., Tripathi, S., Guibas, L. J., & Su, H. (2019). PartNet: A Large-Scale Benchmark for Fine-Grained and Hierarchical Part-Level 3D Object Understanding. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2019.00100, (비특허문헌 4) Babaee, M., Li, L., & Rigoll, G. (2019). Person identification from partial gait cycle using fully convolutional neural networks. Neurocomputing, 338, 116-125., (비특허문헌 5) Muhammad, U. R., Svanera, M., Leonardi, R., & Benini, S. (2018). Hair detection, segmentation, and hairstyle classification in the wild. Image and Vision Computing, 71, 25-37. https://doi.org/10.1016/j.imavis.2018.02.001, (비특허문헌 6) Mougeot, G., Li, D., & Jia, S. (2019). A Deep Learning Approach for Dog Face Verification and Recognition. In PRICAI 2019: Trends in Artificial Intelligence (pp. 418-430). Springer International Publishing. https://doi.org/10.1007/978-3-030-29894-4_34, (비특허문헌 7) Raduly, Z., Sulyok, C., Vadaszi, Z., & Zolde, A. (2018). Dog Breed Identification Using Deep Learning. In 2018 IEEE 16th International Symposium on Intelligent Systems and Informatics (SISY). IEEE. https://doi.org/10.1109/sisy.2018.8524715, (비특허문헌 8) Wu, Z., Yao, T., Fu, Y., & Jiang, Y.-G. (2017). Deep learning for video classification and captioning. In Frontiers of Multimedia Research (pp. 3-29). ACM. https://doi.org/10.1145/3122865.3122867, (비특허문헌 9) Wu, C.-Y., Girshick, R., He, K., Feichtenhofer, C., & Krahenbuhl, P. (2020). A Multigrid Method for Efficiently Training Video Models. In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr42600.2020.00023, (비특허문헌 10) Ullah, A., Ahmad, J., Muhammad, K., Sajjad, M., & Baik, S. W. (2018). Action Recognition in Video Sequences using Deep Bi-Directional LSTM With CNN Features. IEEE Access, 6, 1155-1166. https://doi.org/10.1109/access.2017.2778011이 안출되어 있다.
본 개시내용은 전술한 종래 기술의 휴대 가능 컴퓨팅 장치가 가진 한계점 가운데 영상의 입력에 관한 제한을 극복할 수 있는 일 방안을 제시하고자 하는 목적으로, 휴대 가능 컴퓨팅 장치와 연동하는 카메라 등의 영상 촬영 장치에 짐벌을 결합하고 그 컴퓨팅 장치가 그 짐벌을 제어하여 영상 촬영 장치를 1축 이상으로 회전하게 함으로써 보다 동적으로 영상을 입력받고 이를 처리할 수 있게 하는 기술적 방안을 제시하고자 한다.
본 개시서는 종래 기술의 문제점을 해결하여, 휴대 가능 컴퓨팅 장치에 있어서 카메라 등에 의한 촬영 영상에서 객체를 인식 및 추적하고, 그 객체 및 환경의 정보를 능동적으로 획득할 수 있으며, 특히, 영상을 기초로 본 개시서의 시스템을 중심으로 하는 좌표계에서의 객체의 상대적 위치 정보 및 공간의 정보를 파악하여 공간 내 객체의 위치를 확인하는 등 영상을 통한 원거리 입력이 가능하게 되는 영상 처리 방법을 제시하는 것을 그 목적으로 한다.
전술한 과제를 해결하기 위한, 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 영상을 처리하는 방법으로서, 상기 방법은: 영상을 획득하는 단계; 객체 분석 모델을 이용하여, 상기 영상으로부터, 상기 영상에 포함된 객체에 대응되는 분석 정보를 획득하는 단계; 및 OCR 모델을 이용하여, 상기 객체에 대응되는 분석 정보로부터, 상기 객체에 포함된 문자를 획득하는 단계;를 포함할 수 있다.
대안적으로, 상기 OCR 모델은, 상기 객체의 표면에 문자가 표시되었는지 여부를 판별하는 단계; 및 상기 객체의 표면에 상기 문자가 표시된 것으로 판별된 경우, 상기 문자에 OCR을 수행하는 단계;를 수행할 수 있다.
대안적으로, 제2항에 있어서, 상기 문자에 상기 OCR을 수행하는 단계는, 상기 문자가 표시된 객체로부터 적어도 하나의 영상 샘플을 추출하는 단계; 상기 적어도 하나의 영상 샘플로부터 문자가 표시된 구역의 경계선을 결정하는 단계; 상기 적어도 하나의 영상 샘플 중에서 상기 경계선 또는 상기 경계선에 속한 점인 경계점 중 적어도 하나에 기초하여, 문자 표시 영상을 생성하는 단계; 및 상기 문자 표시 영상에 OCR을 수행하는 단계;를 포함할 수 있다.
대안적으로, 상기 영상 샘플은 상기 경계선 또는 상기 경계점 중 적어도 하나의 위치에 존재하는 영상 패턴이고, 그리고 상기 영상 패턴은 일부 문자, 상기 문자의 경계부, 상기 문자의 일부분 또는 배경 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 적어도 하나의 영상 샘플 중에서 상기 경계선 또는 상기 경계선에 속한 점인 상기 경계점 중 적어도 하나에 기초하여, 상기 문자 표시 영상을 생성하는 단계는, 상기 적어도 하나의 영상 샘플 중에서 상기 경계선 또는 상기 경계점 중 적어도 하나에 위치한 영상 패턴들을 경계 마커로서 획득하는 단계; 및 상기 문자가 표시된 객체의 영상에 포함된 부분 영상으로서, 상기 경계 마커를 포함하는 영상인 상기 문자 표시 영상을 생성하는 단계;를 포함할 수 있다.
대안적으로, 상기 경계 마커는, 상기 문자의 시작 문자에 대응하는 영상 패턴인 시작 마커; 또는 상기 문자의 종료 문자에 대응하는 영상 패턴인 종료 마커;중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 적어도 하나의 영상 샘플 중에서 상기 경계선 또는 상기 경계점 중 적어도 하나에 위치한 영상 패턴들을 상기 경계 마커로서 획득하는 단계는, 추적 컨트롤러를 이용하여, 상기 시작 마커를 포함하고 그리고 문자 인식률이 문턱값 이상인 문자 영상을 획득하는 단계; 및 상기 문자 영상에 상기 종료 마커가 포함되어 있는지 여부를 판별하는 단계;를 포함할 수 있다.
대안적으로, 상기 문자 영상에 상기 종료 마커가 포함된 경우, 상기 문자 표시 영상으로서, 상기 문자 영상을 결정하는 단계;를 더 포함할 수 있다.
대안적으로, 상기 문자 영상에 상기 종료 마커가 포함되지 않은 경우, 상기 추적 컨트롤러를 이용하여, 상기 문자 영상에 포함된 상기 경계 마커 중에서 마지막 마커의 다음 마커를 포함하고 그리고 상기 문자 인식률이 상기 문턱값 이상인 추가 문자 영상을 획득하는 단계; 상기 추가 문자 영상을 상기 문자 영상에 병합하여 병합 문자 영상을 생성하는 단계; 및 상기 병합 문자 영상에 상기 종료 마커가 포함된 경우, 상기 문자 표시 영상으로서, 상기 병합 문자 영상을 결정하는 단계;를 더 포함할 수 있다.
대안적으로, 상기 문자에 상기 OCR을 수행하는 단계는, 추적 컨트롤러를 이용하여, 상기 문자의 시작 지점을 포함하고 그리고 문자 인식률이 문턱값 이상인 상기 객체의 영상을 획득하는 단계; 상기 객체의 영상의 최초 문장 구역에 대한 상기 OCR을 수행하는 단계; 및 상기 OCR의 1차적 결과인 제 1 텍스트에 대한 자연어 이해(NLU; natural language understanding)를 수행하여, 의미 가치의 수치인 제 1 의미 가치값을 산출하는 단계;를 포함할 수 있다.
대안적으로, 상기 제 1 의미 가치값이 상기 문턱값 이상인 경우, 상기 제 1 텍스트를 상기 OCR의 결과인 결과 텍스트로 결정하는 단계;를 더 포함할 수 있다.
대안적으로, 상기 제 1 의미 가치값이 상기 문턱값 미만인 경우, 상기 최초 문장 구역의 다음 문장 구역에 대한 상기 OCR을 수행하는 단계; 상기 OCR의 1차적 결과인 제 2 텍스트에 대한 자연어 이해를 수행하여, 의미 가치의 수치인 제 2 의미 가치값을 산출하는 단계; 및 상기 제 2 의미 가치값이 상기 문턱값 이상인 경우, 상기 제 2 텍스트를 상기 OCR의 결과인 결과 텍스트로 결정하는 단계;를 더 포함할 수 있다.
대안적으로, 상기 컴퓨팅 장치는 촬영 장치 및 짐벌과 연동되고, 상기 영상을 획득하는 단계는, 추적 컨트롤러를 이용하여, 상기 짐벌의 하나 이상의 회전 축을 작동시켜 상기 촬영 장치의 방향을 제어하는 단계; 및 상기 추적 컨트롤러를 이용하여, 상기 촬영 장치의 줌인(zoom-in) 또는 줌아웃(zoom-out)을 통해 상기 영상을 획득하는 단계;를 포함할 수 있다.
전술한 과제를 해결하기 위한, 컴퓨터 프로그램을 포함하는 비일시적 컴퓨터 판독 가능 매체로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치로 하여금 영상을 처리하기 위한 방법을 수행하도록 하며, 상기 방법은: 영상을 획득하는 단계; 객체 분석 모델을 이용하여, 상기 영상으로부터, 상기 영상에 포함된 객체에 대응되는 분석 정보를 획득하는 단계; 및 OCR 모델을 이용하여, 상기 객체에 대응되는 분석 정보로부터, 상기 객체에 포함된 문자를 획득하는 단계;를 포함할 수 있다.
전술한 과제를 해결하기 위한, 컴퓨팅 장치에 있어서, 프로세서; 및 통신부;를 포함하고, 상기 프로세서는, 영상을 획득하고, 객체 분석 모델을 이용하여, 상기 영상으로부터, 상기 영상에 포함된 객체에 대응되는 분석 정보를 획득하고, 그리고 OCR 모델을 이용하여, 상기 객체에 대응되는 분석 정보로부터, 상기 객체에 포함된 문자를 획득할 수 있다.
본 개시서의 예시적인 실시 예에 따르면, 영상을 이용하여 하나 이상의 객체를 인식 및 추적할 수 있고, 객체 및 환경의 정보를 능동적으로 획득할 수 있으며, 특히, 객체의 상태 정보를 원거리에서 영상으로 획득할 수 있고, 객체가 상호작용하는 객체를 영상으로 판별하고, 객체 일부분에 대한 더 높은 해상도의 상세 영상을 원거리에서 획득할 수 있으며, 객체에 인쇄되어 있거나 디스플레이 등의 타 수단을 이용하여 출력하는 문자를 원거리에서 파악할 수 있어 휴대 가능 컴퓨팅 장치의, 영상을 이용한 원거리 입력이 가능해지는 효과가 있다.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라 함)에게 있어서는 발명에 이르는 노력 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 개시서의 일 실시 예에 따라 컴퓨팅 장치에 의하여 영상을 처리하는 방법(이하 "영상 처리 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 개시서의 일 실시 예에 따른 영상 처리 방법을 수행하는 시스템으로서, 컴퓨팅 장치, 촬영 장치 및 짐벌을 포함하는 전체 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3은 본 개시서의 일 실시 예에 따른 영상 처리 방법을 예시적으로 나타낸 흐름도이며, 도 4는 본 개시서의 일 실시 예에 따른 영상 처리 방법의 각 단계를 수행하는 모듈들을 예시적으로 도시한 블록도이다.
도 5는 본 개시서의 일 실시 예에 따른 영상 처리 방법을 위한 모듈들에서 이용되는 기계 학습 모델들을 예시적으로 도시한 블록도이다.
도 6a 내지 도 6d는 본 개시서의 영상 처리 방법에서 객체의 바닥 평면을 검출하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 7a은 본 개시서의 일 실시 예에 따른 영상 처리 방법에 의하여 획득되는 객체 세그먼테이션을 예시적으로 나타낸 도면이다.
도 7b는 본 개시서의 일 실시 예에 따른 영상 처리 방법에 있어서 2개 이상의 바닥 평면을 검출하는 단계들을 설명하기 위한 예시적 도면이다.
도 7c는 본 개시서의 일 실시 예에 다른 영상 처리 방법에 있어서 기준 평면원 및 계측 평면원을 생성하여 이용하는 방식을 설명하기 위한 개념도이다.
도 8a 내지 도 8c는 본 개시서의 영상 처리 방법에서 목표 위치를 결정하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 9a 및 도 9b는 본 개시서의 영상 처리 방법에서 촬영 장치의 배향을 제어하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 10a 내지 도 10c는 본 개시서의 영상 처리 방법에서의 OCR을 수행하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 11a 내지 도 11d는 본 개시서의 영상 처리 방법에서 OCR을 수행하는 방식들을 설명하기 위하여 예시된 도면들이다.
본 개시서에서 인용된 모든 선행문헌들은 마치 본 개시서에 다 제시된 것처럼 그 전체가 참조로써 통합된다. 달리 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
실시 예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시 예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
"제1" 또는 "제2" 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 하는바, 어떠한 순서도 시사하고 있지 않기 때문이다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한 어떤 대상의 "부분" 또는 "일부분"은 그 대상의 전체가 아닌 일부만을 의미하는 것일 수도 있지만, 그 문맥에서 달리 명시되지 않는 한 그 대상의 전체도 포함하는 것으로 이해되어야 한다. 어떤 집합의 부분집합은 그 집합 자체를 포함하는 개념인 것과 마찬가지이다.
본 개시서에서 '모듈'은 본 개시서에서 설명되는 각 명칭에 따른 기능 및 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능 및 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능 및 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 기록 매체를 의미할 수도 있다. 달리 말하자면, 모듈은 본 개시서의 기술적 사상을 수행하기 위한 하드웨어 및/또는 그 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.
엄밀하게, '모델'은 기계 학습(machine learning)에 의하여 훈련된 대로 입력 데이터로부터 출력 데이터를 산출하도록 구성된 함수를 지칭한다. 그러한 '모델'은 일종의 자료 구조 또는 함수로서 전술한 '모듈'에 의하여 이용될 수 있다.
다만, 인공지능이 적용되는 분야에 속한 통상의 기술자들 중 일부에게서 '모듈'과 '모델'을 서로 혼용하는 습관이 발견되는바, 이에 따라 본 개시서에서도 '모듈'과 '모델'이 서로 교환 가능하도록 혼용될 수 있는데, 이는 이들이 서로 간의 개념 혼동 없이 통상의 기술자에게 쉽게 이해될 수 있기 때문이다.
본 개시서에서 '훈련(training)', '학습(learning)'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다. 통계학 분야에서 일반적으로 이용되는 의미와 같이 '기계 학습'이라는 용어는 입력 변수들(X)을 출력 변수(Y)에 잘 사상(mapping)시키는 표적 함수(target function)(f)를 만드는 일련의 과정을 지칭하는 데 흔히 이용된다. 표적 함수에 의하여 입력 변수들로부터 출력 변수를 산출하는 것을 '예측(predict)'이라고 지칭하는바, '잘 사상시킨다'는 것은 참값과 예측값의 차이를 합리적으로 줄였다는 의미이다. 단지 그 차이를 최소화하는 것이 아니라 합리적으로 줄이는 이유는 최적화는 이른바 과적합(overfitting) 문제, 즉, 훈련 데이터에서 벗어난 실제 데이터를 적용할 때 예측이 잘 안 맞는 문제를 야기할 우려가 있어 이를 해소하기 위한 적절한 경험적 수단이 강구되기 때문이다.
또한, 본 개시서에서 '추론(inference)'은 기계 학습된 모델에 의하여 입력 데이터로부터 출력 데이터를 산출하는 과정을 일컫는 용어인바, 특히 인간의 정신적 작용을 기계적으로 흉내낸 것을 지칭하는 데 이용된다. 마찬가지로, 본 개시서에서 기계에 의한 '해석(analysis)'은 추론과 마찬가지로 인간의 정신적 작용을 기계적으로 흉내낸 것을 지칭하는 데 이용된다.
본 개시서에서 '맨하탄 공간'은 비특허문헌인 논문 Y. Zhou et al., "Learning to Reconstruct 3D Manhattan Wireframes From a Single Image," 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019, pp. 7697-7706, doi: 10.1109/ICCV.2019.00779.에 개시된 것과 동일한 것을 지칭하는 데 이용된다.
더욱이 본 발명은 본 개시서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 개시서의 일 실시 예에 따른 영상 처리 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 개시서의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터; 프로세서, 메모리, 스토리지(storage), 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다. 상기 스토리지는 하드 디스크, USB(Universal Serial Bus) 메모리와 같은 기억 장치뿐만 아니라 클라우드 서버와 같은 네트워크 연결 기반의 저장 장치의 형태를 포함할 수 있다. 여기에서, 메모리는 DDR2, DDR3, DDR4, SDP, DDP, QDP, 자기 하드 디스크, 플래시 메모리 등일 수 있으나 이에 한정되지 않는다.
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치, 예컨대 휴대 단말 등과의 사이에서 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(Transmission Control Protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는 바, 예컨대 UDP(User Datagram Protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다.
구체적으로, 통신부(110)는 통신 인터페이스를 포함하는 통신 모듈의 형태로 구현될 수 있다. 이를테면, 통신 인터페이스는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMax(World interoperability for Microwave access), HSDPA(High Speed Downlink Packet Access), 4G, 5G 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(Radio Frequency IDentification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-WideBand), ZigBee, NFC(Near Field Communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.
예를 들어, 통신부(110)는 이와 같이 적합한 통신 인터페이스를 통해 타 컴퓨팅 장치로부터 데이터를 송수신할 수 있다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 터치 센서, 터치 스크린의 입력부, 마이크로폰, 비디오 카메라, 또는 LIDAR, 레이더, 스위치, 버튼, 조이스틱 등의 외부 입력 장치, 사운드 카드, 그래픽 카드, 인쇄 장치, 디스플레이, 예컨대, 터치 스크린의 디스플레이부 등의 외부 출력 장치를 포함하거나 이들과 연동될 수 있다. 컴퓨팅 장치, 예컨대 휴대 단말의 사용자에게 적절한 사용자 인터페이스를 표시하여 제공함으로써 사용자와의 상호작용을 가능하게 하기 위하여, 컴퓨팅 장치(100)는 디스플레이 장치를 내장하거나 상기 통신부(110)를 통하여 외부의 디스플레이 장치와 연동될 수 있음이 알려져 있다. 예컨대, 그러한 디스플레이 장치는 터치 입력이 가능한 터치스크린일 수 있다. 터치스크린은 용량성으로나 유도성으로 또는 광학적으로 디스플레이에 접촉 또는 근접하는 손가락, 스타일러스 펜과 같은 물체를 검출할 수 있고, 그 검출된 디스플레이 상의 위치를 결정할 수 있다.
상기 입력 장치에는 마이크로폰이 포함될 수도 있다. 마이크로폰의 종류에는 다이나믹 마이크, 콘덴서 마이크 등이 포함될 수 있고, 전지향성, 단일 지향성, 초지향성 등의 특성을 가진 마이크가 이용될 수 있다. 빔포밍 마이크로폰, 마이크로폰 어레이도 이용될 수 있으나 이에 한정되지 않는다. 마이크로폰 어레이는 음원의 방향을 검출하기 위하여 이용되는 2개 이상의 마이크로폰들을 지칭한다.
상기 출력 장치에는 스피커가 포함될 수도 있다. 스피커의 종류에는 무지향성 스피커, 지향성 스피커, 초음파를 이용한 초지향성 스피커 등이 이용될 수 있으나 이에 한정되지 않는다.
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit), NPU(neural processing unit), ASIC, CISC, RISC, FPGA, SOC 칩 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 본 개시의 일 실시예에 따라 프로세서(120)는 다양한 모델들의 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(120)는 딥러닝(DL: deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(110)의 CPU, 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 또는/및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
본 개시의 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 개시의 또 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 개시의 또 다른 일 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.
본 개시의 일 실시예에 따라 데이터 구조를 저장한 컴퓨터 판독가능 매체가 개시된다.
데이터 구조는 데이터에 효율적인 접근 및 수정을 가능하게 하는 데이터의 조직, 관리, 저장을 의미할 수 있다. 데이터 구조는 특정 문제(예를 들어, 최단 시간으로 데이터 검색, 데이터 저장, 데이터 수정) 해결을 위한 데이터의 조직을 의미할 수 있다. 데이터 구조는 특정한 데이터 처리 기능을 지원하도록 설계된, 데이터 요소들 간의 물리적이거나 논리적인 관계로 정의될 수도 있다. 데이터 요소들 간의 논리적인 관계는 사용자 정의 데이터 요소들 간의 연결관계를 포함할 수 있다. 데이터 요소들 간의 물리적인 관계는 컴퓨터 판독가능 저장매체(예를 들어, 영구 저장 장치)에 물리적으로 저장되어 있는 데이터 요소들 간의 실제 관계를 포함할 수 있다. 데이터 구조는 구체적으로 데이터의 집합, 데이터 간의 관계, 데이터에 적용할 수 있는 함수 또는 명령어를 포함할 수 있다. 효과적으로 설계된 데이터 구조를 통해 컴퓨팅 장치는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산을 수행할 수 있다. 구체적으로 컴퓨팅 장치는 효과적으로 설계된 데이터 구조를 통해 연산, 읽기, 삽입, 삭제, 비교, 교환, 검색의 효율성을 높일 수 있다.
데이터 구조는 데이터 구조의 형태에 따라 선형 데이터 구조와 비선형 데이터 구조로 구분될 수 있다. 선형 데이터 구조는 하나의 데이터 뒤에 하나의 데이터만이 연결되는 구조일 수 있다. 선형 데이터 구조는 리스트(List), 스택(Stack), 큐(Queue), 데크(Deque)를 포함할 수 있다. 리스트는 내부적으로 순서가 존재하는 일련의 데이터 집합을 의미할 수 있다. 리스트는 연결 리스트(Linked List)를 포함할 수 있다. 연결 리스트는 각각의 데이터가 포인터를 가지고 한 줄로 연결되어 있는 방식으로 데이터가 연결된 데이터 구조일 수 있다. 연결 리스트에서 포인터는 다음이나 이전 데이터와의 연결 정보를 포함할 수 있다. 연결 리스트는 형태에 따라 단일 연결 리스트, 이중 연결 리스트, 원형 연결 리스트로 표현될 수 있다. 스택은 제한적으로 데이터에 접근할 수 있는 데이터 나열 구조일 수 있다. 스택은 데이터 구조의 한 쪽 끝에서만 데이터를 처리(예를 들어, 삽입 또는 삭제)할 수 있는 선형 데이터 구조일 수 있다. 스택에 저장된 데이터는 늦게 들어갈수록 빨리 나오는 데이터 구조(LIFO-Last in First Out)일 수 있다. 큐는 제한적으로 데이터에 접근할 수 있는 데이터 나열 구조로서, 스택과 달리 늦게 저장된 데이터일수록 늦게 나오는 데이터 구조(FIFO-First in First Out)일 수 있다. 데크는 데이터 구조의 양 쪽 끝에서 데이터를 처리할 수 있는 데이터 구조일 수 있다.
비선형 데이터 구조는 하나의 데이터 뒤에 복수개의 데이터가 연결되는 구조일 수 있다. 비선형 데이터 구조는 그래프(Graph) 데이터 구조를 포함할 수 있다. 그래프 데이터 구조는 정점(Vertex)과 간선(Edge)으로 정의될 수 있으며 간선은 서로 다른 두개의 정점을 연결하는 선을 포함할 수 있다. 그래프 데이터 구조 트리(Tree) 데이터 구조를 포함할 수 있다. 트리 데이터 구조는 트리에 포함된 복수개의 정점 중에서 서로 다른 두개의 정점을 연결시키는 경로가 하나인 데이터 구조일 수 있다. 즉 그래프 데이터 구조에서 루프(loop)를 형성하지 않는 데이터 구조일 수 있다.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 이하에서는 신경망으로 통일하여 기술한다. 데이터 구조는 신경망을 포함할 수 있다. 그리고 신경망을 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망을 포함한 데이터 구조는 또한 신경망에 의한 처리를 위하여 전처리된 데이터, 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수 등을 포함할 수 있다. 신경망을 포함한 데이터 구조는 상기 개시된 구성들 중 임의의 구성 요소들을 포함할 수 있다. 즉 신경망을 포함한 데이터 구조는 신경망에 의한 처리를 위하여 전처리된 데이터, 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수 등 전부 또는 이들의 임의의 조합을 포함하여 구성될 수 있다. 전술한 구성들 이외에도, 신경망을 포함한 데이터 구조는 신경망의 특성을 결정하는 임의의 다른 정보를 포함할 수 있다. 또한, 데이터 구조는 신경망의 연산 과정에 사용되거나 발생되는 모든 형태의 데이터를 포함할 수 있으며 전술한 사항에 제한되는 것은 아니다. 컴퓨터 판독가능 매체는 컴퓨터 판독가능 기록 매체 및/또는 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다.
데이터 구조는 신경망에 입력되는 데이터를 포함할 수 있다. 신경망에 입력되는 데이터를 포함하는 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망에 입력되는 데이터는 신경망 학습 과정에서 입력되는 학습 데이터 및/또는 학습이 완료된 신경망에 입력되는 입력 데이터를 포함할 수 있다. 신경망에 입력되는 데이터는 전처리(pre-processing)를 거친 데이터 및/또는 전처리 대상이 되는 데이터를 포함할 수 있다. 전처리는 데이터를 신경망에 입력시키기 위한 데이터 처리 과정을 포함할 수 있다. 따라서 데이터 구조는 전처리 대상이 되는 데이터 및 전처리로 발생되는 데이터를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
데이터 구조는 신경망의 가중치를 포함할 수 있다. (본 명세서에서 가중치, 파라미터는 동일한 의미로 사용될 수 있다.) 그리고 신경망의 가중치를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망은 복수개의 가중치를 포함할 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드에서 출력되는 데이터 값을 결정할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
제한이 아닌 예로서, 가중치는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함할 수 있다. 신경망 학습 과정에서 가변되는 가중치는 학습 사이클이 시작되는 시점의 가중치 및/또는 학습 사이클 동안 가변되는 가중치를 포함할 수 있다. 신경망 학습이 완료된 가중치는 학습 사이클이 완료된 가중치를 포함할 수 있다. 따라서 신경망의 가중치를 포함한 데이터 구조는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함한 데이터 구조를 포함할 수 있다. 그러므로 상술한 가중치 및/또는 각 가중치의 조합은 신경망의 가중치를 포함한 데이터 구조에 포함되는 것으로 한다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
신경망의 가중치를 포함한 데이터 구조는 직렬화(serialization) 과정을 거친 후 컴퓨터 판독가능 저장 매체(예를 들어, 메모리, 하드 디스크)에 저장될 수 있다. 직렬화는 데이터 구조를 동일하거나 다른 컴퓨팅 장치에 저장하고 나중에 다시 재구성하여 사용할 수 있는 형태로 변환하는 과정일 수 있다. 컴퓨팅 장치는 데이터 구조를 직렬화하여 네트워크를 통해 데이터를 송수신할 수 있다. 직렬화된 신경망의 가중치를 포함한 데이터 구조는 역직렬화(deserialization)를 통해 동일한 컴퓨팅 장치 또는 다른 컴퓨팅 장치에서 재구성될 수 있다. 신경망의 가중치를 포함한 데이터 구조는 직렬화에 한정되는 것은 아니다. 나아가 신경망의 가중치를 포함한 데이터 구조는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산의 효율을 높이기 위한 데이터 구조(예를 들어, 비선형 데이터 구조에서 B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree)를 포함할 수 있다. 전술한 사항은 예시일 뿐 본 개시는 이에 제한되지 않는다.
데이터 구조는 신경망의 하이퍼 파라미터(Hyper-parameter)를 포함할 수 있다. 그리고 신경망의 하이퍼 파라미터를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 하이퍼 파라미터는 사용자에 의해 가변되는 변수일 수 있다. 하이퍼 파라미터는 예를 들어, 학습률(learning rate), 비용 함수(cost function), 학습 사이클 반복 횟수, 가중치 초기화(Weight initialization)(예를 들어, 가중치 초기화 대상이 되는 가중치 값의 범위 설정), Hidden Unit 개수(예를 들어, 히든 레이어의 개수, 히든 레이어의 노드 수)를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.
도 2는 본 개시서의 일 실시 예에 따른 영상 처리 방법을 수행하는 시스템으로서, 컴퓨팅 장치, 촬영 장치 및 짐벌을 포함하는 전체 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 개관하면, 컴퓨팅 장치(100)는 촬영 장치(200)를 포함할 수도 있고, 무선 또는 유선으로 외부의 촬영 장치(200)와 연동할 수 있으며, 컴퓨팅 장치(100)는 촬영 장치(200)의 자세를 제어하는 기능을 수행하는 짐벌(gimbal; 300)과 무선 또는 유선으로 연동하거나 이를 포함할 수 있다. 촬영 장치(200)의 자세를 제어하기 위하여 짐벌(300)은 촬영 장치(200)를 포함하거나 촬영 장치(200)를 고정할 수 있는 소정의 메커니즘(예컨대 흡착판 등)을 구비할 수 있다.
그 자세의 제어를 위하여 짐벌(300)은 하나 이상의 회전 축을 가질 수 있는바, 공개특허공보 제10-2019-0036323호에서 그 예시를 찾을 수 있다. 짐벌(300)은 자세 제어를 통하여 촬영 장치(200)의 입력 범위를 능동적으로 개선할 수 있다.
짐벌(300)이 하나의 회전 축을 가질 때, 그 회전 축은 요(yaw) 축(Y)일 수 있다. 요 축은 촬영 장치(200)로 하여금 최소한의 회전만으로 공간 내에 있는 객체와의 상호작용이 가능해지도록 한다.
짐벌(300)이 두 개의 회전 축을 가질 때, 그 회전 축은 요(yaw) 축 및 피치(pitch) 축(P)일 수 있다. 또한, 짐벌(300)이 세 개의 회전 축을 가질 때, 그 회전 축은 요 축, 피치 축, 및 롤(roll) 축(R)일 수 있다.
짐벌(300)은 그 하드웨어의 구성요소로서 전력 공급 유닛(310)을 포함할 수 있다. 전력 공급 유닛(310)은 유선 또는 무선으로, 그리고 직류 또는 교류 전류로 외부 전력을 공급받을 수 있다. 전력 공급 유닛(310)에 공급된 전력은 짐벌(300) 또는 컴퓨팅 장치(100)에 이용될 수 있다. 덧붙여, 전력 공급 유닛(310)은 짐벌(300)에 내장된 배터리 또는 컴퓨팅 장치에 내장된 배터리를 충전하는 데 이용될 수 있다.
또한, 짐벌(300)은 그 하드웨어의 구성요소로서 적어도 하나의 짐벌 모터(330; 미도시)를 포함할 수 있다. 짐벌 모터(330) 각각은 전술한 회전 축에 따라 촬영 장치(200) 혹은 촬영 장치(200)가 내장된 컴퓨팅 장치(100)의 방향을 변경할 수 있도록 구성되는바, 짐벌 모터(330)는 DC 모터, 스텝 모터, 브러시리스 모터일 수 있으나 이에 한정되지 않는다. 짐벌(300)은 짐벌 모터(330)뿐만 아니라 모터의 토크를 변환하기 위한 기어를 더 포함할 수 있다.
짐벌(300)의 모터(330)는 짐벌에 부착된 촬영 장치(200) 또는 컴퓨팅 장치(100)로 하여금 특정 객체의 방향을 지향하기 위한 것인바, 그 각각의 회전 축은 촬영 장치(200) 또는 컴퓨팅 장치(100)의 요, 피치, 롤 축 등 각각의 축에 평행하도록 배치하는 것이 바람직할 것이나 이에 한정될 이유가 없음을 통상의 기술자는 쉽게 이해할 수 있을 것이다.
짐벌(300)은 그 하드웨어 구성요소로서 적어도 하나의 센서(340; 미도시)를 더 포함할 수 있다. 센서(340)는 짐벌(300)의 고정된 부분 또는 모터(330)에 대하여 위치, 각위치, 변위, 각변위, 속도, 각속도, 가속도, 각가속도 중 하나 이상을 검출하는 기능을 수행할 수 있는바, 그러한 센서(340)의 종류에는 가속도 센서, 자이로 센서, 지자기 센서 등의 마그네틱 센서, 홀 센서, 압력 센서, 적외선 센서, 근접 센서, 모션 센서, 감광 센서, 이미지(영상) 센서, GPS 센서, 온도 센서, 습도 센서, 기압 센서, LIDAR 센서 등이 있을 수 있되 이에 한정되지 않는다.
컴퓨팅 장치(100), 특히 휴대 가능 컴퓨팅 장치가 가질 수 있는 무게, 부피에 관한 제한으로 인하여 컴퓨팅 장치(100)에 탑재되지 못한 센서(340)는 짐벌(300)에 탑재될 수 있는바, 이는 짐벌(300) 주위의 정보를 획득하는 데 이용될 수 있다.
이제 도 2를 참조하여 개략적으로 설명된 개별 구성요소들에 의하여 달성될 수 있는 본 발명의 구체적인 기능 및 효과에 관하여 도 3 내지 도 11d를 참조하여 상세히 후술하기로 한다. 도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 개시서의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동되도록 구성될 수도 있다는 점이 이해될 것이다. 예를 들어, 짐벌(300)이 독립적인 컴퓨팅 장치인 것으로 구성되어 그 짐벌(300)과 컴퓨팅 장치(100), 예컨대, 휴대 단말과 같은 휴대 가능 컴퓨팅 장치가 서로 연동될 수도 있는바, 그 경우에 짐벌(300)이 휴대 단말(100)에 의하여 수행되는 적어도 일부의 기능을 대신 수행할 수도 있다. 즉, 통상의 기술자는 다양한 방식으로 복수개의 장치들이 서로 연동하여 본 개시서의 방법을 수행하도록 구성할 수 있을 것이다.
도 3은 본 개시서의 일 실시 예에 따른 영상 처리 방법을 예시적으로 나타낸 흐름도이며, 도 4는 본 개시서의 일 실시 예에 따른 영상 처리 방법의 각 단계를 수행하는 모듈들을 예시적으로 도시한 블록도이다. 또한, 도 5는 본 개시서의 일 실시 예에 따른 영상 처리 방법을 위한 모듈들에서 이용되는 기계 학습 모델들을 예시적으로 도시한 블록도이다.
도 3을 참조하면, 본 개시서에 따른 영상 처리 방법은, 먼저, 컴퓨팅 장치(100)에 의하여 구현되는 영상 입력 모듈(4100)이, 컴퓨팅 장치(100)에 포함되거나 컴퓨팅 장치(100)의 통신부(110)를 통하여 연동하는 촬영 장치(200)로부터 전체 영상을 획득하는 단계인 영상 획득 단계(S1000)를 포함한다.
여기에서 '전체 영상'은 후술하는 객체 영상 등과 같이 전체 영상의 일부에 해당하는 영상과 대비되는 영상을 지칭한다.
다음으로, 상기 영상 처리 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 객체 분석 모듈(4200)이, 상기 전체 영상에 나타난 하나 이상의 객체를 검출하고, 그 검출된 객체 각각의 카테고리를 산출하는 분류를 수행하는 단계인 카테고리 분류 단계(S2000)를 더 포함한다.
여기에서 객체의 카테고리란 객체를 사람, 나무, 강아지 등으로 분류한 결과를 지칭한다.
카테고리 분류 단계(S2000)에서는 상기 분류와 동시에 2차원 계측의 일부로서 상기 전체 영상에서 하나 이상의 객체 각각의 위치가 산출될 수 있다.
이 2차원 계측과 후술하는 3차원 계측은, 2차원 계측이 3차원 깊이 정보를 고려하지 않고 영상에 나타난 2차원 좌표계를 기준으로 하는 계측인 반면, 3차원 계측이 영상에서의 2차원 좌표뿐만 아니라 깊이 정보를 고려하는 계측이라는 점에서 상이하다.
구체적으로, 카테고리 분류 단계(S2000)는 상기 전체 영상을 상기 전체 영상의 원래 해상도보다 낮은 해상도로 크기를 재조정(resizing; 리사이징)하는 단계(S2100), 및 그 크기 재조정된 영상을 객체 분석 모델(M420)에 입력하여 상기 객체 각각의 카테고리, 위치, 및 중요도를 산출하는 단계(S2200)를 포함할 수 있다.
예를 들어, 컴퓨팅 장치(100)의 프로세서(120)는 객체 분석 모델(M420)을 이용하여, 영상으로부터, 영상에 포함된 객체에 대응되는 분석 정보를 획득할 수 있다. 분석 정보는 객체의 카테고리를 나타내는 분류 정보, 객체의 위치를 나타내는 위치 정보 또는/및 객체가 영상 내에서 가지는 우선순위를 나타내는 중요도 정보 중 적어도 하나를 포함할 수 있다.
객체 분석 모델(M420)은 영상에 포함된 객체에 대한 분석을 수행하기 위한 모델로, 객체 분류(classification) 모델, 지역화(localization) 모델, 객체 감지(object detection) 모델, 세그먼테이션(segmentation) 모델 등을 포함할 수 있다.
본 개시의 일 실시예에 따라, 프로세서(120)는 객체 분류를 하는 객체 분석 모델(M420)을 이용하여 입력으로 주어진 영상 안의 객체의 종류(class)를 구분할 수 있다. 예를 들어, 입력으로 주어진 영상 안에 사람이 있는 경우, 입력된 영상에 대해 프로세서(120)는 객체 분석 모델(M420)을 이용하여 “입력된 영상의 종류는 사람” 이라는 출력을 획득할 수 있다. 전술한 사항은 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따라, 프로세서(120)는 분류하고 지역화 하는 객체 분석 모델(M420)을 이용하여 영상 안의 객체에 영상 안의 어느 위치에 있는지는 나타내는 위치 정보도 출력할 수 있다. 예를 들어, 프로세서(120)는 분류하고 지역화 하는 객체 분석 모델(M420)을 이용하는 경우, 바운딩 박스(bounding box)를 사용하여 이미지 내의 객체를 인식하고 위치 정보를 출력할 수 있다. 바운딩 박스는 박스의 좌측, 우측, 상부, 하부 좌표를 출력하는 방식을 통해 객체의 위치 정보를 반환할 수 있다. 전술한 사항은 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따라, 프로세서(120)는 객체 감지를 하는 객체 분석 모델(M420)을 이용하여 적어도 하나의 객체를 감지할 수 있다. 프로세서(120)는 체 감지를 하는 객체 분석 모델(M420)을 이용하여 적어도 하나의 객체를 동시에 분류하고 지역화 하여, 복수개의 객체를 감지하고 위치 정보를 추출할 수 있다. 전술한 사항은 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따라, 프로세서(120)는 세그먼테이션을 하는 객체 분석 모델(M420)을 이용하여 픽셀(pixel)을 분류하여 이미지 내 객체의 경계선을 배경과 구분하여 객체를 감지할 수 있다. 전술한 사항은 예시일 뿐, 본 개시는 이에 제한되지 않는다.
단계(S2100)에서와 같은 크기 재조정은 객체 분석 모델(M420)에 의한 연산량을 절감하여 객체 분석 모듈(4200)의 처리 속도를 향상시키기 위한 것임이 통상의 기술자에게 잘 알려져 있다.
단계(S2200)의 결과인 중요도는 상기 객체의 우선순위를 결정하기 위한 척도로 이용될 수 있는바, 반대로 우선순위가 높은 객체에 높은 중요도가 부여되거나, 그리고/또는 우선순위가 낮은 객체에 낮은 중요도가 부여될 수 있다. 우선순위에 관하여는 상세히 후술하기로 한다.
상기 중요도가 소정의 경계치 이상인 객체에 대하여, 컴퓨팅 장치(100)는, 상기 객체의 영상인 객체 영상을 상기 전체 영상으로부터 추출 및 샘플링(sampling)할 수 있다{크롭 피드(crop feed) 단계; S2500}. 단계(S2200)에서 크기 재조정된 영상이 이용되어 전체 영상의 데이터 일부가 손실되므로, 크롭 피드 단계(S2500)는 중요도가 비교적 높은 객체에 대해 손실되기 전의 영상 정보를 이용할 수 있게 하려는 것이다.
계속해서 도 3을 참조하면, 본 개시서에 따른 영상 처리 방법은, 컴퓨팅 장치(100)에 의하여 구현되는 상세 분류 모듈(4300)이, 검출된 객체 각각에 대한 분석 결과로서 상기 객체의 특성 및 상태를 포함하는 상세 분류 정보를 생성하는 상세 분류 단계(S3000)를 더 포함한다.
여기에서, 객체는 그 전체 영상이 촬영된 '공간' 자체에 해당하는 객체인 공간 객체를 포함하는 개념인바, 그 공간 객체의 상세 분류 정보는 해당 공간에 대한 정보를 포함할 수 있다.
객체의 특성 및 상태
상기 객체의 특성(property)은 시간에 대해 대체로 불변인 객체의 성질을 지칭하는 반면, 상기 객체의 상태(state)는 시간에 따라 대체로 변화 가능한 객체의 성질을 지칭한다.
구체적으로, 상기 객체의 특성은, 상기 객체의 일부를 이루거나 상기 객체의 귀속된 구성요소인 부분 객체의 정보를 포함할 수 있다. 일 예시로서, 전체 영상에서 사람이 객체로서 검출된다면, 그 사람의 팔, 다리, 눈 등의 부분, 그 사람이 입고 있는 옷 및 신발은 그 객체의 부분 객체들이다.
이러한 부분 객체들의 검출을 위하여, 상세 분류 단계(S3000)는, 상기 객체의 일부를 이루거나 상기 객체의 귀속된 구성요소인 부분 객체의 검출을 시도하는 단계(S3920); 및 상기 부분 객체가 검출되면, 상기 상세 분류 정보의 일부로서, 상기 부분 객체에 대한 특성 및 상태의 분석 결과를 더 생성하는 단계(S3940)를 포함할 수 있다.
또한, 상기 객체의 특성은, 상기 객체의 주요 색상, 상기 객체의 상기 부분 객체를 지칭하는 정보인 종체, 상기 객체가 타 객체의 부분 객체인 경우에 상기 타 객체를 지칭하는 정보인 주체, 상기 객체의 크기, 상기 객체의 주요 재질을 포함하는 상기 객체의 하나 이상의 재질, 상기 객체의 투명도, 상기 객체의 표면에 나타난 텍스트 및 상기 객체의 자력 이동 가능 여부 중 적어도 하나를 포함할 수 있다.
여기에서 상기 객체의 크기는 2차원 계측 또는 3차원 계측으로 측정된 크기일 수 있다. 또한, 상기 객체의 투명도는 그 객체가 유리 창과 같이 투명한 부분을 가지는 물체일 경우에 가질 수 있는 성질로서, 예컨대, 불투명한 물체는 0의 값을, 유리와 같이 투명한 재질의 물체는 양의 값을 가질 수 있다.
한편, 상기 객체의 상태는, 상기 객체의 위치, 상기 객체의 자세, 상기 객체의 행동, 상기 객체의 방향, 상기 객체의 바닥 접촉 여부, 상기 객체의 속도 중 적어도 하나를 포함할 수 있다.
여기에서 상기 객체의 위치는 2차원 계측 또는 3차원 계측으로 측정된 위치일 수 있다. 상기 객체의 자세는 상기 객체의 부분 객체들의 위치 정보에 의하여 추론될 수 있고, 상기 객체의 행동은 시간적으로 연속된 상기 자세로부터 추론될 수 있다.
또한, 상기 객체의 방향은 상기 객체의 위치 정보 또는 상기 객체의 행동에 의하여 추론될 수 있다.
상기 객체의 바닥 접촉 여부는 상기 객체가 그 객체가 속한 공간 객체의 바닥 평면에 접촉하는 상태에 있는지 여부를 나타내며, 그 예시로서, 의자, 책상, 전봇대, 자동차의 타이어 등이 참인 값을 가진다.
상기 객체의 상세 분류 정보는 상기 특성 및 상태뿐만 아니라 그 객체의 시스템 입출력과 관련된 정보를 지칭하는 속성(attribute)을 더 포함할 수 있다. 상기 객체의 속성은 상기 객체의 원시 데이터(raw data)가 최초 입력된 시각을 포함하는 데이터 입력 시각, 및 상기 객체에게 부여된 본 개시서에 따른 시스템에 대한 조작 권한 중 적어도 하나를 포함할 수 있다.
이와 같은 상기 객체의 상세 분류 정보를 생성하기 위하여, 상세 분류 단계(S3000)는, 상기 중요도가 소정의 제2 수치 이상인 객체인 개별 객체에 대하여, 상기 개별 객체가 속한 개별 카테고리에 해당하는 객체 각각의 상기 특성 및 상기 상태를 획득하게끔 상기 개별 카테고리에 적합화되도록 미리 훈련된 적어도 하나의 모델로 구성된 모델의 집합인 상세 분류 모델(M430)을 선택하는 단계(S3200); 및 상기 개별 객체의 영상인 개별 객체 영상을 선택된 상기 상세 분류 모델(M430)에 입력하여 상기 개별 객체의 식별자, 및 상기 식별자를 통하여 상기 개별 객체에 귀속되는 객체 기록으로서, 상기 상세 분류 정보를 포함하는 객체 기록을 생성하는 단계(S3400)를 포함할 수 있다.
여기에서, 상세 분류 모델(M430)은 하나 이상의 객체들을 서로 구분하기 위한 것인바, 달리 말하자면, 상세 분류 모델(M430)에 의해서 생성되는 상세 분류 정보로써, 객체들 각각에 그 객체들 각각을 서로 구분할 수 있는 식별자가 부여될 수 있다.
또한, 여기에서 객체 기록이란 각 객체의 식별자에 귀속된 정보들을 포함하는 기록을 지칭한다. 각 객체의 식별자에 귀속된 정보의 예시로서, 그 객체가 사람이라면, 그 사람의 얼굴 형상, 키, 걸음걸이의 양상, 문신, 헤어 스타일 등을 포함할 수 있고, 그 객체가 개라면, 그 개의 머리 형상, 털의 형태 및 색상, 품종 등을 포함할 수 있다. 객체 기록에는 각 객체의 소유물인 타 객체의 정보가 포함될 수 있는바, 이는 그 타 객체의 식별자일 수 있다.
이 중에서, 특히, 사람의 걸음걸이의 양상이 인공지능 방법론에 의하여 분류될 수 있음은, 예컨대, 비특허문헌인 논문 Babaee, M., Li, L., & Rigoll, G. (2019). Person identification from partial gait cycle using fully convolutional neural networks. Neurocomputing, 338, 116-125.에 밝혀진 바와 같다.
또한, 사람의 헤어 스타일이 인공지능 방법론에 의하여 분류될 수 있음은, 예컨대, 비특허문헌인 논문 Muhammad, U. R., Svanera, M., Leonardi, R., & Benini, S. (2018). Hair detection, segmentation, and hairstyle classification in the wild. Image and Vision Computing, 71, 25-37. https://doi.org/10.1016/j.imavis.2018.02.001에 밝혀진 바와 같다.
다만, 통상의 기술자는 이와 같은 선행문헌들에 나타난 것 이외의 정보들도 인공지능 방법론에 의하여 획득될 수 있음을 이해할 수 있을 것이다.
개별 객체 각각에 대하여 상세 분류 모델(M430)을 선택하는 단계(S3200)는 컴퓨팅 장치(100)에 의하여 구현되는 분류 모델 선택 모듈(4320)에 의하여 수행될 수 있다. 분류 모델 선택 모듈(4320)은 객체의 카테고리가 획득된 후 그 카테고리에 적합한 상세 분류 모델을 그 상세 분류 모델에 적용되는 알고리즘과 함께 선택하는 기능을 수행한다.
예를 들어, 객체의 카테고리가 사람인 경우라면, 분류 모델 선택 모듈(4320)은 사람의 얼굴 형상, 키, 걸음걸이의 양상, 문신, 헤어 스타일 등 사람을 특정할 수 있는 상세 분류 정보를 생성하는 상세 분류 모델을 선택할 수 있고, 객체의 카테고리가 개인 경우라면, 개의 머리 형상, 털의 형태 및 색상, 품종 등 개를 특정할 수 있는 상세 분류 정보를 생성하는 상세 분류 모델을 선택할 수 있다.
사람의 얼굴 형상뿐만 아니라 개의 머리 형상이 인공지능 방법론에 의하여 분류될 수 있음은, 예컨대, 비특허문헌인 논문 Mougeot, G., Li, D., & Jia, S. (2019). A Deep Learning Approach for Dog Face Verification and Recognition. In PRICAI 2019: Trends in Artificial Intelligence (pp. 418-430). Springer International Publishing. https://doi.org/10.1007/978-3-030-29894-4_34에 밝혀진 바와 같다.
또한, 개의 품종을 분류하는 인공지능 방법론에 관하여는, 비특허문헌인 논문 Raduly, Z., Sulyok, C., Vadaszi, Z., & Zolde, A. (2018). Dog Breed Identification Using Deep Learning. In 2018 IEEE 16th International Symposium on Intelligent Systems and Informatics (SISY). IEEE. https://doi.org/10.1109/sisy.2018.8524715를 참조할 수 있다.
한편, 상세 분류 모델(M430)은 모델의 집합인바, 상기 객체에 대한 2차원 계측 및 3차원 계측 중 적어도 하나를 수행함으로써 상기 객체의 위치, 상기 객체의 바닥 접촉 여부, 상기 객체의 방향, 상기 객체의 속도, 상기 객체의 자세 및/또는 상기 객체의 크기 중 적어도 하나(하나 이상)를 산출하는 계측 모델(M431)을 포함할 수 있다. 여기에서 상기 객체의 크기는, 높이, 너비 및/또는 깊이 중 적어도 하나(하나 이상)을 포함하는 1차원 치수, 객체의 표면적을 포함하는 2차원 치수 및/또는 객체의 부피를 포함하는 3차원 치수 중 적어도 하나(하나 이상)를 포함할 수 있다.
예를 들어, 객체의 부피는 그 객체의 객체 세그먼테이션, 객체의 자세 및/또는 깊이 정보 중 적어도 하나(하나 이상)에 기초하여 산출될 수 있다.
계측 모델(M431)은 상기 객체가 공간 객체이면, 상기 공간 객체의 방위 및 좌표 중 적어도 하나의 원점이 되는 시스템 위치, 상기 공간 객체의 공간 내에 포함된 객체를 포함하는 부피 공간인 맨하탄 공간, 상기 공간에서 검출되는 바닥 평면, 상기 공간에 적용되는 중력의 벡터, 상기 공간에서 상기 공간에 포함된 객체를 제외한 비어 있는 부피 공간, 상기 공간 객체의 부분 객체, 및 상기 공간의 방향 중 적어도 하나를 산출할 수 있다. 상기 공간은 실내외 공간을 막론한다.
여기에서 공간 객체의 부분 객체라 함은, 그 공간 객체의 공간을 구성하는 부분 객체를 지칭하는바, 그 부분 객체는 그 공간에 고정되어 있다. 그러한 공간 객체의 부분 객체의 예시에는 유리 창, 문, 벽, 주방, 도로, 육교 등이 포함될 수 있다.
시스템 위치는 실내 또는 실외 공간 내에서 방위 또는 좌표의 원점의 역할을 하는 본 개시서에 따른 시스템의 위치를 지칭한다.
또한, 상기 공간의 방향이라 함은, 상기 공간 객체인 객체의 방향을 지칭하는바, 본 개시서의 시스템 또는 공간의 일부분을 기준으로 할 수 있다.
3차원 계측에서서의 깊이 정보는 상기 영상으로부터 깊이 정보를 도출하는 인공지능 방법론에 의하여 예측되거나 라이다, 레이더, 초음파 센서 등 기타 센서(340)로부터 상기 영상에 대해 보충적으로 제공될 수 있다.
구체적으로, 단계(S3400)에서 상기 3차원 계측은, 상기 객체 또는 상기 객체의 일부를 이루거나 상기 객체에 귀속된 구성요소인 부분 객체 중에서 적어도 일 부분의 길이의 편차가 소정의 기준보다 작은 조건을 만족하는 객체인 길이 기준 객체를 식별하고, 그 길이 기준 객체의 2차원 길이를 측정하는 프로세스(S3410), 및 상기 객체의 바닥 평면을 검출하는 프로세스(S3420)를 더 포함할 수 있다.
이 3차원 계측의 목적은, 하나 이상의 객체의 정보를 이용하여, 본 개시서의 시스템과 객체 간의 상대적 위치 또는/및 객체의 절대적 위치를 파악하는 것이다.
예를 들어, 길이 기준 객체의 일 예시인 성인 남자의 키는 문, 연필, 컵 등 다른 카테고리에 속하는 객체의 기준 길이로 활용될 수 있는바, 이는 거리 측정에도 이용될 수 있다.
또한, 길이 기준 객체의 다른 예시로서, 하나의 전체 영상 또는 공간(또는 공간 객체)에서 복수개의 문이 검출되면, 한 공간에서 동일한 디자인의 문은 유사한 높이를 가지므로 거리 판별을 위한 길이 기준 객체로 이용될 수 있다.
그리고 부분 객체 또한 그 부분 객체의 길이의 편차가 상대적으로 작은 객체인 경우에 길이 기준 객체로 이용될 수 있는바, 예컨대, 사람의 안구의 가로 길이는 표준 편차가 상대적으로 작으므로 길이 기준 객체로 이용될 수 있다.
프로세스(S3410)에서 길이 기준 객체의 2차원 길이를 측정함에 있어서 그 길이 기준 객체의 자세 정보가 있으면 길이 기준 객체의 자세로 인한 기울기를 반영하여 보정된 길이를 산출할 수 있다. 객체의 자세 및 그 산출에 관하여는 후술하기로 한다.
바닥 평면
프로세스(S3420)에서의 객체의 바닥 평면의 검출에는 여러 가지 방식이 있을 수 있는바, 예시적으로 상기 객체에 작용하는 중력의 벡터 방향으로 상기 객체에 닿은 바닥 평면을 검출하는 방식이 있을 수 있다.
또한, 객체의 바닥 평면의 검출에는, 맨하탄 공간 검출을 이용하는 방식, 상기 길이 기준 객체가 2개 이상 존재하는 경우 상기 길이 기준 객체 간의 바닥 평면을 생성하여 이를 확장하는 방식, 및 상기 길이 기준 객체가 이동한 경우 그 이동 전의 길이 기준 객체와 이동 후의 길이 이동 객체 사이에 바닥 평면을 생성하고 이를 확장하는 방식도 있을 수 있다.
도 6a 내지 도 6d는 본 개시서의 영상 처리 방법에서 객체의 바닥 평면을 검출하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 6a를 참조하면, 객체의 바닥 평면의 검출(S3420)의 구체적인 제1 실시 예는, 적어도 하나의 카테고리 중에서 어느 카테고리에 해당하는 객체 또는 그 객체의 부분 객체 중에서 적어도 일 부분의 크기의 편차가 소정의 기준보다 작은 조건을 만족하는 카테고리인 크기 유사 카테고리에 해당하는 적어도 하나의 크기 유사 객체를 검출하는 단계(S3422a)로 시작한다. 여기에서의 크기는 폭, 높이, 깊이 중 하나 이상일 수 있다.
예컨대, 크기의 편차가 소정의 기준보다 작은 조건을 만족하는 카테고리는 책상의 카테고리일 수 있다. 특정한 종류의 책상은 높이의 편차가 비교적 작다. 어떤 종류의 책상의 높이가 평균적으로 70 ~ 74 cm라고 가정하면, 그 크기 유사 객체의 표준 길이는 72 cm로 정할 수 있다.
임의선택적으로, 상기 크기 유사 객체는 동시에 바닥 기준 객체일 수도 있다. 바닥 기준 객체는 바닥 평면의 검출에 이용되는 객체로서, 그 객체 세그먼테이션의 적어도 일 부분이 일반적으로 바닥에 닿아 있는 객체를 지칭한다. 예를 들어, 책상 및 의자는 그러한 바닥 기준 객체에 해당한다.
단계(S3422a) 다음으로, 프로세스(S3420)의 제1 실시 예는, 상기 크기 유사 객체의 객체 세그먼테이션의 최하단에 대한 접점인 바닥 접촉점을 검출하는 단계(S3424a)를 포함한다.
도 7a은 본 개시서의 영상 처리 방법에 의하여 획득되는 객체 세그먼테이션을 예시적으로 나타낸 도면이다.
객체 세그먼테이션을 획득하는 방법은 통상의 기술자에게 알려져 있는데, 예를 들어, 비특허문헌인 논문 Mo, K., Zhu, S., Chang, A. X., Yi, L., Tripathi, S., Guibas, L. J., & Su, H. (2019). PartNet: A Large-Scale Benchmark for Fine-Grained and Hierarchical Part-Level 3D Object Understanding. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. 을 참고할 수 있다.
도 7a을 참조하면, 예시된 의자의 객체 세그먼테이션 중에서 의자 다리에 해당하는 영역(712, 714, 716, 718)의 최하단은 바닥에 접촉하는 것으로 간주할 수 있는바, 그 최하단에 대한 접점인 바닥 접촉점(720)을 검출할 수 있다. 다른 예시로서, 문의 객체 세그먼테이션의 최하단은 바닥에 접촉하는바, 이에 대한 접점인 바닥 접촉점을 검출할 수 있다.
단계(S3424a) 다음으로, 프로세스(S3420)의 제1 실시 예는, 상기 크기 유사 객체의 2차원 길이에 기초하여 상기 크기 유사 객체의 3차원 거리를 결정하는 단계(S3426a)를 포함한다. 예를 들어, 멀리 위치한 의자는 보다 가까이 위치한 의자에 비해 2차원 길이(높이), 폭 또는/및 깊이 중 적어도 하나(하나 이상)가 작게 측정되므로, 이를 이용하여 상기 3차원 거리를 결정할 수 있다.
단계(S3426a) 다음으로, 프로세스(S3420)의 제1 실시 예는, 상기 바닥 접촉점(720)을 서로 연결하여 3차원 기준 평면(730)을 생성하고, 상기 3차원 기준 평면을 확장하여 바닥 평면(740)을 생성하는 단계(S3428a)를 더 포함한다. 도 7a을 참조하면, 의자 다리의 최하단을 서로 연결하여 3차원 기준 평면이 생성될 수 있고, 이는 바닥 평면(740)으로 더 확장될 수 있다.
여기에서, 3차원 기준 평면으로부터의 확장은 중력 수평 객체의 모서리, 벽면의 시작점, 중력 수평 객체의 최하단 등의 경계까지 수행되는바, 그 결과가 바닥 평면이다. 여기에서 중력 수평 객체는 일반적으로 중력 방향에 나란하게 직립되도록 배치되는 객체를 지칭하는바, 예컨대, 유리창 및 벽면이 이에 해당한다. 구체적으로, 중력 수평 객체는 중력 벡터에 수평 방향으로 배치된 선 및/또는 면을 가진 객체(예를 들어, 문, 창문 등)일 수 있다. 중력 수평 객체는 바닥 평면에 하나 이상의 선 또는/및 면이 닿아 있는 객체(예를 들어, 문틀, 벽 등)일 수 있다. 중력 수평 객체는 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)이 1 이하일 수도 있다.
한편, 다수의 객체를 이용하는 바닥 평면의 검출(S3420)의 제2 실시 예는, 서로의 유사도가 소정의 값과 같거나 그보다 큰 다수의 유사 객체들을 검출하는 단계(S3422b)로 시작한다. 예컨대, 디자인이 일정한 문, 책상, 의자 등이 그러한 유사 객체일 수 있다.
본 개시서의 영상 처리 방법이 지속적, 반복적으로 수행될 수 있음을 고려하면, 상기 유사 객체가 존재하는 공간에 이미 상기 영상 처리 방법이 적용된 적이 있으면, 단계(S3422b)에서는 종래에 검출되었던 유사 객체의 위치 및 길이를 참조로 하여 상기 유사 객체들을 검출할 수 있다.
단계(S3422b) 다음으로, 프로세스(S3420)의 제2 실시 예는 상기 다수의 유사 객체들 중 최하단에 위치한 객체인 적어도 하나의 최하단 객체를 검출하는 단계(S3424b)를 더 포함한다. 도 7a의 예시에서와 마찬가지로, 의자의 다리, 문의 최하단은 바닥에 접촉하는바, 의자 및 문은 최하단 객체이다.
단계(S3424b) 다음으로, 프로세스(S3420)의 제2 실시 예는 상기 최하단 객체 각각의 객체 세그먼테이션의 최하단에 대한 접점인 바닥 접촉점을 검출하는 단계(S3426b)를 더 포함하고, 단계(S3426b) 다음으로 상기 바닥 접촉점을 서로 연결하여 3차원 기준 평면을 생성하고, 그 3차원 기준 평면을 확장하여 바닥 평면을 생성하는 단계(S3428b)를 더 포함한다.
전술한 제2 실시 예의 변형례로서, 프로세스(S3420)는, 서로의 유사도가 소정의 값과 같거나 그보다 큰 다수의 유사 객체들을 검출하는 단계(S3422b'), 상기 다수의 유사 객체들 중 하나의 객체가 상기 다수의 유사 객체들 중 다른 객체의 완전 상단에 위치하는지 여부를 판정하는 단계(S3424b'), 상기 완전 상단에 위치하는지 여부에 기초하여 상기 다수의 유사 객체들 중 층바닥에 차이가 있는 객체들을 상이한 층바닥 집합들에 포함시키는 단계(S3426b'), 및 상기 상이한 층바닥 집합들 각각에 대하여, 상기 각각의 층바닥 집합에 속하는 객체인 층바닥 집합 객체의 객체 세그먼테이션의 최하단에 대한 접점인 바닥 접촉점을 서로 연결하여 3차원 기준 평면을 생성하고, 상기 3차원 기준 평면을 확장하여 층바닥 평면을 생성함으로서, 상기 층바닥 평면을 2개 이상의 바닥 평면으로서 생성하는 단계(S3428b')를 포함할 수 있다.
도 7b는 본 개시서의 일 실시 예에 따른 영상 처리 방법에 있어서 2개 이상의 바닥 평면을 검출하는 단계들을 설명하기 위한 예시적 도면이다.
단계(S3422b')는 단계(S3422b)와 같으므로, 도 7b를 참조하여 단계(S3424b') 및 단계(S3426b')의 '완전 상단'에 관하여 설명하면, 먼저, 유사도가 소정의 문턱값 이상인 객체는 그 높이 h가 오차 범위 내에서 동일하다고 가정할 수 있다.
전체 영상에 있어서 세로축(y축)으로 각각의 객체가 서로 떨어져 위치한다면 (i) 객체 간에 거리가 있거나 (ii) 객체를 지지하는 층바닥의 높이 차이가 있음을 검출할 수 있다. 전체 영상의 가장 왼쪽 하단을 좌표계의 원점으로 삼으면, 객체 간에 거리가 있는 경우에는, 다른 객체(700a)에 비해 낮은 y축 좌표값을 가지는 객체(700b)가 촬영 장치에 더 가까이 있으므로 높이(hb)가 더 크고, 상대적으로 더 높은 y축 좌표값을 가지는 객체(700a)의 높이(ha)는 높이(hb)에 비하여 일정 비율로 작아져야 한다.
즉, y축 좌표값에 따라 일정 비율로 높이가 달라지는 객체들(예컨대, 700b 및 700a), 및 가로축(x축) 좌표값에 차이가 있으나 y축 좌표값에 있어서는 일정 수준 이하의 차이만 있는 객체들(예컨대, 700b 및 700d)은 동일한 층바닥에 존재한다고 판정하여 이에 대응하는 상기 층바닥 집합을 생성할 수 있다.
만약, y축 좌표값이 다른 객체(700a)보다 크지만, 그 다른 객체(700a)의 높이(ha)로부터 일정 비율로 높이(hc)가 줄어들지 않거나 높이(hc)가 같거나 더 커지는 객체(700c)는 서로 다른 층바닥 위에 존재하는 것으로 판정할 수 있는바, 상이한 층바닥 집합을 생성할 수 있다.
이와 같은 추론 과정을 반복함으로써 상기 층바닥 집합들을 생성할 수 있다.
대안으로서, 각각의 객체의 높이 대신에 각 객체가 이루는 3차원 기준 평면의 높이 또는 면적이 이용될 수도 있다.
다른 한편, 바닥 평면의 검출(S3420)에 있어서 맨하탄 공간을 이용하는 제3 실시 예는, 적어도 하나의 카테고리 중에서 어느 카테고리에 해당하는 객체 또는 그 객체의 부분 객체 중에서 적어도 일 부분의 길이의 편차가 소정의 기준보다 작은 조건을 만족하는 카테고리인 길이 유사 카테고리에 해당하는 적어도 하나의 길이 유사 객체를 검출하는 단계(S3422c)로 시작한다.
그러한 길이 유사 객체에는 높이의 편차가 비교적 작은 책상이 포함될 수 있다.
단계(S3422c) 다음으로, 프로세스(S3420)의 제3 실시 예는, 상기 길이 유사 객체의 집합에 의하여 생성되는 맨하탄 공간을 검출하는 단계(S3424c), 상기 맨하탄 공간의 바닥을 검출하는 단계(S3426c), 및 상기 맨하탄 공간의 바닥을 수평 방향으로 확장하여 바닥 평면을 생성하는 단계(S3428c)를 더 포함한다.
더 구체적으로, 상기 맨하탄 공간의 검출(S3424c)은, 상기 객체 중 바닥을 이루는 객체인 바닥 객체를 검출하고 상기 바닥 객체의 경계를 생성하는 제1 단계(S3424c-1), 상기 바닥 객체의 상기 경계에 대해 수직을 이루는 객체인 벽체 객체를 검출하는 제2 단계(S3424c-2), 및 상기 바닥 객체 외의 객체로서, 상기 벽체 객체에 대해 수직을 이루는 객체인 천장 객체를 검출하는 제3 단계(S3424c-3)로 구성될 수 있다.
즉, 여기에서의 맨하탄 공간은 바닥 객체, 벽체 객체, 천장 객체에 의하여 둘러싸인 공간을 지칭한다. 바닥 객체와 수직을 이루는 벽체 객체의 예시에는 유리 창, 문 등이 있다.
전술한 실시 예들과 달리 바닥 평면의 검출(S3420)에 있어서 동일한 패턴을 가진 객체들을 이용하는 제4 실시 예는, 동일한 패턴을 가진 다수의 객체인 동일 패턴 객체들을 검출하는 단계(S3422d)로부터 시작한다.
단계(S3422d) 다음으로, 프로세스(S3420)의 제4 실시 예는, 상기 동일 패턴 객체들이 검출되면, 상기 동일 패턴 객체들의 하단을 검출하는 단계(S3424d), 및 상기 동일 패턴 객체들 간의 폐색 및 상기 동일 패턴 객체들 간 영상에서의 길이 차이 중 하나에 기초하여 상기 동일 패턴 객체들 간의 상대 거리를 측정하는 단계(S3426d)를 더 포함한다.
예를 들어, 단계(S3426d)에서 하나의 객체가 다른 객체의 객체 세그먼테이션을 가린다면, 그 하나의 객체는 다른 객체에 비해 시스템에 더 가까이 있는 것으로 검출될 수 있다. 또한, 패턴이 서로 동일한 객체들 중 하나의 객체가 다른 객체들보다 작다면 그 하나의 객체는 다른 객체들에 비해 시스템으로부터 더 멀리 있는 것으로 검출될 수 있다.
단계(S3426d) 다음으로, 프로세스(S3420)의 제4 실시 예는, 상기 동일 패턴 객체들 중 2 이상의 객체들의 바닥 접점으로부터, 또는 동일 패턴 객체들 중 하나의 객체에 포함된 3개 이상의 점으로부터 가상 평면을 생성하는 단계(S3428d)를 더 포함한다. 생성된 가상 평면이 여러 개인 경우에, 통상의 기술자는 길이, 상태 및 위치의 차이에 따라 그 여러 개의 가상 평면을 각 층으로 하는 층별 가상 평면을 생성할 수 있음을 쉽게 이해할 것이다.
단계(S3428d) 다음으로, 프로세스(S3420)의 제4 실시 예는, 상기 가상 평면을 확장하여 바닥 평면을 생성하는 단계(S3429d)를 더 포함한다.
이제, 다시 단계(S3400)에서의 상기 3차원 계측으로 돌아와 이에 관하여 계속 설명하면, 상기 3차원 계측은, 바닥 평면의 검출(S3420) 후, 검출된 바닥 평면 상에 가상의 길이 기준선을 설정하는 프로세스(S3430); 및 상기 공간 객체의 방위 및 좌표 중 적어도 하나의 원점이 되는 시스템 위치와 상기 객체 사이의 거리 또는 상기 시스템 위치를 기준으로 한 상기 객체의 위치를 측정하는 프로세스(S3440)를 더 포함할 수 있다.
한편, 단계(S3400)에서의 상기 2차원 계측은, 상기 객체의 부분 객체들 사이의 상대적 위치에 기초하여 상기 객체의 2차원 자세 및 2차원 방향을 산출하는 자세 및 방향 계측, 상기 객체의 2차원 넓이를 산출하는 넓이 계측 등을 포함할 수 있는바, 이는 상세 분류 모듈(4300)이 상세 분류 모델(M430)의 계측 모델(M431)을 이용하여 수행될 수 있다.
2차원 계측의 성격 상, 여기에서의 넓이는 깊이를 고려하지 않은 전체 영상 또는 객체 영상에서의 넓이를 의미한다. 이 2차원 넓이의 계측은 객체 세그먼테이션의 분류 및 계측에 의할 수 있다.
또한, 단계(S3400)에서 상기 객체의 특성을 생성하기 위하여, 상세 분류 모델(M430)은, 상기 객체의 일부를 이루거나 상기 객체에 귀속된 구성요소인 부분 객체의 정보, 상기 객체의 심화 분류 정보, 상기 객체의 주요 색상, 상기 객체의 종체, 상기 객체의 주체, 상기 객체의 하나 이상의 재질, 상기 객체의 투명도 및 상기 객체의 자력 이동 가능 여부 중 적어도 하나를 산출하기 위한 심화 특성 모델(M432)을 더 포함할 수 있다.
여기에서 상기 객체의 심화 분류 정보는 상기 객체의 카테고리를 심화 구분한 정보를 지칭하는바, 예컨대, 객체의 카테고리가 개라면, 그 심화 분류 정보는 그 개의 품종일 수 있다.
자세 및 행위
또한, 상세 분류 모델(M430)은, 계측 모델(M431) 및 심화 특성 모델(M432)의 처리 결과에 기초하여 상기 객체의 자세를 산출하는 자세 판별 모델(M433)을 더 포함할 수 있고, 자세 판별 모델(M433)로부터 산출된, 시간적으로 연속된 자세에 기초하여 상기 객체의 행위를 분류하는 행위 판별 모델(M434)을 더 포함할 수 있다.
예를 들어, 컴퓨팅 장치(100)의 프로세서(120)는 자세 판별 모델(M433)을 이용하여, 객체에 대응되는 분석 정보로부터, 객체에 대한 자세 정보를 획득할 수 있다.
또한, 컴퓨팅 장치(100)의 프로세서(120)는 행위 판별 모델(M434)을 이용하여, 객체에 대한 자세 정보로부터, 객체에 대한 행위 정보를 획득할 수 있다.
여기에서 행위(action)란, 맥락을 반영하지 않은 행동(behavior)과 맥락을 반영한 행위를 모두 포함하는 개념인바, 행동에 관하여는 후술하기로 한다.
객체의 카테고리에 따라 그 자세의 판별 방식이 상이할 수 있으므로 자세 판별 모델(M433)은 카테고리별로 상이한 카테고리별 자세 판별 모델일 수 있다. 예를 들어, 개가 앉아 있는 상태인 것으로 개의 자세를 산출하는 개의 자세 판별 모델과 사람이 앉아 있는 상태인 것으로 사람의 자세를 산출하는 사람의 자세 판별 모델은 상이할 수 있다. 따라서, 자세 판별 모델(M433)에서 객체에 대응되는 분석 정보에 기초하여, 복수의 자세 판별 방식들 중 객체에 적용될 자세 판별 방식이 결정될 수 있다. 자세 판별 모델(M433)은 객체의 카테고리를 나타내는 분류 정보에 따라서 자세의 판별 방식을 상이하게 적용할 수 있다.
마찬가지로, 객체의 카테고리에 따라 그 행위의 판별 방식이 상이할 수 있으므로 행위 판별 모델(M434)은 카테고리별로 상이한 카테고리별 행위 판별 모델일 수 있다. 행위 판별 모델(M434)은 객체의 카테고리를 나타내는 분류 정보에 따라서 행위의 판별 방식을 상이하게 적용할 수 있다.
자세 판별 모델(M433)은 분석 정보로부터, 객체에 대응되는 N차원(예를 들어, 1차원, 2차원, 3차원 등)의 자세에 대한 정보를 포함하는, 객체에 대한 자세 정보를 생성할 수 있다. 객체에 대한 자세 정보는 객체에 대해서 시간적으로 연속된 자세에 대한 정보를 포함할 수 있다.
행위 판별 모델(M434)은 객체에 대한 자세 정보로부터, 객체에 대응되는 N차원(예를 들어, 1차원, 2차원, 3차원 등)의 이동 벡터를 포함하는, 객체에 대한 행위 정보를 획득할 수 있다. 또한, 행위 판별 모델(M434)은 객체의 자세 정보로부터, 객체에 대응되는 N차원(예를 들어, 1차원, 2차원, 3차원 등)의 행위 분류를 포함하는, 객체의 맥락에 대한 객체의 행위 정보를 생성할 수 있다. 객체의 맥락은 객체의 상태 또는/및 행위의 목적 중 적어도 하나를 포함할 수 있다. 행위 분류는 객체에 포함된 부분 객체의 위치를 식별하고, 부분 객체의 위치에 기초하여, 객체의 자세를 결정하고, 그리고 객체의 자세에 기초하여, 객체의 행위 분류를 결정함으로써 산출될 수 있다. 부분 객체는 객체의 일부 도는 객체의 귀속된 구성요소 중 적어도 하나를 포함할 수 있다.
자세 및 행위의 판별은 2차원적으로도 수행될 수 있고, 3차원적으로도 수행될 수 있다. 따라서, 이동 벡터는 객체의 2차원 방향 또는/및 속도 중 적어도 하나를 포함하는 2차원 이동 벡터를 포함할 수 있다. 또한, 이동 벡터는 영상을 촬영한 촬영 장치의 위치, 속도 또는/및 가속도 중 적어도 하나에 기초하여 산출되는 객체의 3차원 이동 벡터를 포함할 수 있다.
자세 및 행위의 판별이 2차원적으로 수행되는 실시 예에서는, 단계(S3400)에서 상세 분류 모듈(4300)이 시간적으로 연속된 객체 영상들로부터 상기 객체의 2차원 이동 벡터 및 상기 객체의 2차원 행위 분류를 포함하는 상기 객체의 2차원 운동 정보를 산출할 수도 있는바, 상기 2차원 행위 분류는, 상기 객체에 포함된 부분 객체 각각의 위치를 식별하는 단계(S3450a), 자세 판별 모델(M433)을 이용하여 상기 부분 객체 각각의 상대적 위치에 기초하여 상기 객체의 2차원 자세를 결정하는 단계(S3460a), 및 행위 판별 모델(M434)을 이용하여 시간적으로 연속된 상기 객체의 2차원 자세에 기초하여 상기 객체의 2차원 행위 분류를 결정하는 단계(S3470a)를 수행함으로써 산출될 수 있다.
여기에서 2차원 이동 벡터는 상기 객체의 2차원적 방향 및 속도를 나타내며, 2차원 행위 분류는 객체의 2차원 자세로부터 판별된 행위의 종류를 나타낸다.
한편, 자세 및 행위의 판별이 3차원적으로 수행되는 실시 예에서, 단계(S3400)에서 상세 분류 모듈(4300)이 시간적으로 연속된 객체 영상들로부터 상기 객체의 3차원 이동 벡터 및 상기 객체의 3차원 행위 분류를 포함하는 상기 객체의 3차원 운동 정보를 산출할 수도 있는바, 상기 3차원 행위 분류는, 상기 객체에 포함된 부분 객체 각각의 위치를 식별하는 단계(S3450b), 자세 판별 모델(M433)을 이용하여 상기 부분 객체 각각의 상대적 위치에 기초하여 상기 객체의 3차원 자세를 결정하는 단계(S3460b), 및 행위 판별 모델(M434)을 이용하여 시간적으로 연속된 상기 객체의 3차원 자세에 기초하여 상기 객체의 3차원 행위 분류를 결정하는 단계(S3470b)를 수행함으로써 산출될 수 있다.
2차원 자세 및 행위의 판별과 달리, 3차원 자세의 행위 및 판별에 있어서는, 촬영 장치로부터의 깊이 방향의 움직임도 반영되어야 할 필요가 있으므로, 컴퓨팅 장치(100)는 연동하는 센서(340)를 이용하여 상기 촬영 장치의 위치, 속도 및/또는 가속도 중 적어도 하나(한 개 이상)를 산출 또는 추정하고, 이를 반영하여 상기 객체의 3차원 이동 벡터를 산출할 수 있다.
예를 들어, 본 개시서의 시스템이 짐벌 모터(330)를 구동하여 짐벌의 축을 회전시켜 그 시스템을 기준으로 우측 방향으로 달리고 있는 일 객체인 자전거를 추적하면서 그 자전거의 3차원 이동 벡터를 산출하는 때에는, 그 3차원 이동 벡터에는 모터(330)에 의한 이동 벡터와 영상 중의 이동 벡터가 모두 반영될 수 있다.
상기 객체의 3차원 위치 및 3차원 이동 벡터의 산출을 위하여 촬영 장치(200)의 표준 초점 거리, 및/또는 상기 전체 영상 또는 상기 객체 영상의 표준 초점 거리가 이용될 수 있다. 촬영 장치(200)와 객체 사이의 거리, 표준 초점 거리, 객체의 3차원 높이(실제 높이), 영상의 높이(즉, 영상의 세로 크기), 영상에서의 객체의 높이, 촬영 장치(200)의 높이 간의 관계는 다음 수학식 1과 같다.
수학식 1을 이용하여 촬영 장치(200)로부터 객체까지의 거리 또는 객체의 3차원 높이를 계산할 수 있다.
촬영 장치(200)로부터 객체까지의 거리를 측정하는 데 이용되는 기준 중 하나인 거리 기준선은, 예컨대, 서로 길이가 동일한 객체들이 2개 이상 검출될 때, 본 개시서의 시스템을 기준으로 하는 동심구를 이용하여 설정되는 거리 기준선일 수 있다. 이 선은 후술하는 기준 평면원 및 계측 평면원으로 구성된다. 이를 설정하는 각 단계는 다음과 같다.
도 7c는 본 개시서의 일 실시 예에 다른 영상 처리 방법에 있어서 기준 평면원 및 계측 평면원을 생성하여 이용하는 방식을 설명하기 위한 개념도이다.
도 7c를 참조하면, 먼저, 중력에 수직인 평면 방향으로 기준 평면원(750)을 생성하는데, 여기에서 중력에 수직임을 판단할 때, 가속도계, 자이로스코프 및/또는 상기 중력 수평 객체 중 적어도 하나(한 개 이상)가 이용될 수 있다.
여기에서 기준 평면원(750)은 상기 시스템, 즉, 촬영 장치(200)를 원점으로 하는 동심구(740)의 표면, 즉 동심구면을 xy 평면으로 자른 단면의 형상에 해당한다.
다음으로, 길이 유사 객체 중 서로 길이가 동일한 객체인 길이 동일 객체들을 검출한다.
도 7c의 동심구면 상의 z축으로부터 각도(θ)만큼 떨어진 점들의 집합은 계측 평면원이라고 지칭할 때, 상기 길이 동일 객체들이 각도(θ)별 계측 평면원들 사이에 개재함을 이용하여 상기 객체들 사이의 각도(θ) 좌표값의 차이를 측정한다.
그러면, 상기 각도 좌표값의 차이를 이용하여 상기 촬영장치(200)로부터 각각의 객체까지의 거리가 측정될 수 있는바, 이때, 표준 초점 거리, 기타 촬영 장치의 렌즈 및/또는 조리개 크기 중 적어도 하나(한 개 이상)의 광학적 특성이 보조적으로 활용될 수 있다.
한편, 행위 판별 모델(M434)을 포함하여 본 개시서에 열거된 모델들은 지도 학습 또는 강화 학습에 의하여 생성될 수 있다. 객체의 행위들 각각에 대응하는 해석값(텍스트 또는 분류 인덱스)과 동영상 정보를 지도 학습의 훈련 데이터로 이용할 수 있음이 알려져 있다. 또한, 사용자에게 행위 판별 모델(M434)에 의한 행위 정보를 출력하고, 사용자가 이를 보고서 긍정 또는 부정의 피드백을 주면 이를 이용하여 모델을 수정하는 방식의 강화학습이 이용될 수도 있다.
맥락(context)
집합으로서의 상세 분류 모델(M430)은 상기 전체 영상에서 맥락을 추론하는 맥락 모델(M435)을 더 포함할 수 있다. 맥락은 객체의 상태 및 행위의 목적을 기술한 것이다. 그 일 예시로서, 주방에서 칼로 오렌지 껍질을 벗기고 있는 사람의 영상을 입력받았다면 맥락 모델(M435)은 '주방에 있는 사람이 칼로 오렌지 껍질을 벗기고 있다.'라는 문장 또는 이에 상응하는 신호를 맥락으로 출력할 수 있다.
행동(behavior)은 맥락을 반영하지 않은 객체의 행위(action)를 지칭하는데, 예컨대, 농구장에서 달리는 사람과 런닝 머신 위에서 달리는 사람은 모두 '달리고 있다'라는 행동을 보인다. 이러한 행동(behavior)은 후술하는 맥락과 합성하여, 맥락이 고려된 행위(action)가 결정될 수 있다. 이에 따르면 전자는 '농구를 하는' 행위에 해당하고, 후자는 '런닝 머신을 이용하는' 행위에 해당한다.
구체적으로, 맥락은 상기 전체 영상에 나타난 개별 객체 각각의 행위(action) 및 상태(state) 중 적어도 하나, 및 상기 행위에 의하여 상기 개별 객체와 상호작용하는 것으로 검출되는 타 객체인 맥락 상호작용 객체를 포함하는 객체 맥락일 수 있다.
또한, 맥락은 상기 전체 영상에 나타난 공간 객체 및 상기 공간 객체 외의 개별 객체 각각으로부터 추론되는 상기 공간 객체의 종류인 장소, 상기 개별 객체 각각의 행위 및 상태 중 적어도 하나, 상기 행위의 주체에 해당하는 개별 객체인 행위자 및 상기 행위에 의하여 상기 개별 객체와 상호작용하는 것으로 검출되는 객체인 맥락 상호작용 객체를 포함하는 공간 맥락일 수 있다.
일 실시 예에서, 맥락이 고려된 행위를 결정하기 위한 행동과 맥락의 합성은 인공 신경망 모델을 이용한 지도 학습으로서 구현될 수 있다. 예를 들면, 연속된 영상, 즉, 동영상(video)의 한 장면을 입력 데이터로 삼고, 객체의 행동 및 공간 맥락을 포함하는 언어 해석(즉, 언어로 나타낸 데이터)을 정답인 출력 데이터로 레이블링한 훈련 데이터를 이용하여 인공 신경망 모델을 훈련시킬 수 있다.
이는, 비특허문헌인 논문 Wu, Z., Yao, T., Fu, Y., & Jiang, Y.-G. (2017). Deep learning for video classification and captioning. In Frontiers of Multimedia Research (pp. 3-29). ACM.에서 밝혀진 바와 같다.
한편, 각각의 객체마다 그 객체의 행위를 결정하는 더 구체적인 방법은, Wu, C.-Y., Girshick, R., He, K., Feichtenhofer, C., & Krahenbuhl, P. (2020). A Multigrid Method for Efficiently Training Video Models. In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr42600.2020.00023을 참조할 수 있다.
한편, 행동이 공간 맥락과 이질적인 경우가 있을 수 있는데, 이 경우에는 행위가 맥락에 맞지 않게 해석될 여지가 있다. 예컨대, 카페에서 달리기를 하고 있는 사람인 객체에 대해서는 '달리기를 하고 있다'라는 행위가 아닌 '급하게 움직이고 있다'라는 행위로 해석될 수 있다. 이러한 불일치는 행위가 맥락을 충분히 반영하고 있지 못하거나 맥락이 행위를 충분히 반영하고 있지 못하기 때문이다. 즉, 행위는 맥락으로부터 추론될 수 있고, 맥락 또한 행위로부터 추론될 수 있으므로, 행위로부터 맥락을 추론하고, 맥락으로부터 행위를 다시 추론하는 순환적인 처리가 요구될 수 있는데, 이는, 예컨대, 비특허문헌인 논문 Ullah, A., Ahmad, J., Muhammad, K., Sajjad, M., & Baik, S. W. (2018). Action Recognition in Video Sequences using Deep Bi-Directional LSTM With CNN Features. IEEE Access, 6, 1155-1166. https://doi.org/10.1109/access.2017.2778011에 개시된 바와 같은 순환 신경망(RNN) 또는 양방향 LSTM 등의 신경망 모델에 의하여 달성될 수 있다.
우선순위
이제, 전술한 객체의 중요도와 밀접하게 연관되는 객체의 우선순위에 관하여 상술한다. 여기에서 중요도는 우선순위를 부여하기 위하여 다뤄지는 값인바, 통상적으로 각 객체의 중요도를 산출한 후, 그 중요도에 기반하여 매긴 순서를 우선순위로 할 수 있다.
객체의 우선순위에는 상기 객체의 권한에 기초하여 상기 객체 각각에 대하여 지정되는 권한 기반 우선순위가 포함될 수 있다. 이는 분류된 객체 각각의 권한에 따라 우선순위를 지정하는 것인바, 예를 들어, 본 개시서의 시스템에 대해 특정 사용자인 객체가 최고 권한을 가지고 있다면, 그 특정 사용자에 대해 높은 우선순위를 부여할 수 있다.
상기 권한 기반 우선순위는 상세 분류 모델(M430)을 이용하여 분석된 상기 객체의 특성에 기초하여 상기 객체가 상기 컴퓨팅 장치를 취급할 수 있도록 미리 정해진 권한자인지 여부를 판별하는 단계, 및 상기 객체가 미리 정해진 권한자라면, 그 권한자에 대하여 미리 정해진 순위를 상기 객체의 상기 권한 기반 우선순위로 설정하는 단계를 수행함으로서 산출될 수 있다.
예컨대, 상기 권한자는 사람일 것으로 기대되므로, 먼저 사람인 객체를 검출하고, 그 검출된 사람인 객체에 대해서만 권한 기반 우선순위를 설정할 수 있다.
또한, 본 개시서의 컴퓨팅 장치는 전술한 심화 분류 정보를 이용하여 복수 명의 사람 중에서 개개인을 특정할 수 있는바, 그 개개인을 특정하기 위하여 객체의 색상 등 객체의 특성을 이용하거나 그 부분 객체의 특성, 또는 상기 객체의 객체 기록을 이용할 수 있다.
한편, 객체의 우선순위에는 객체의 특성들 중 적어도 상기 객체의 카테고리 또는 상기 객체의 심화 분류 정보를 포함하는 적어도 하나의 특성에 따라 구분된 객체 집합들 각각에 대하여 지정되는 분류 기반 우선순위가 있을 수 있다.
분류 기반 우선순위는, 사람, 동물, 기타 사물 등의 카테고리 또는 심화 분류 정보에 대하여 미리 설정된 대로 부여되는 우선순위일 수 있는바, 상기 시스템의 권한자는 이를 수동으로 설정할 수 있다. 다른 예시로서, 본 개시서의 컴퓨팅 장치는 상기 시스템의 권한자가 본 개시서의 시스템을 이용하는 패턴에 기초하여 카테고리 또는 심화 분류 정보별 우선순위를 가변적으로 자동 설정할 수도 있다.
다음으로, 객체의 우선순위에는 객체의 특성들 중 적어도 상기 객체의 크기를 포함하는 적어도 하나의 특성에 따라 구분되는 객체 집합들 각각에 대하여 지정되는 크기 기반 우선순위가 있을 수 있다.
상기 크기 기반 우선순위는 상세 분류 모듈(4300)이 상기 객체의 객체 세그먼테이션을 획득하는 단계, 상기 객체 중 상기 전체 영상에서 상기 객체 세그먼테이션의 크기가 차지하는 비율이 소정의 비율과 같거나 그보다 큰 객체를 선별하는 단계, 및 상기 선별된 객체의 상기 객체 세그먼테이션의 크기에 따라 상기 크기 기반 우선순위를 설정하는 단계를 수행함으로써 산출될 수 있다. 이는 객체가 클수록, 또는 본 개시서의 시스템과 객체 간의 거리가 가까울수록 상기 객체의 객체 세그먼테이션이 전체 영상을 차지하는 비율이 클 것이므로, 그 비율이 높을수록 더 중요한 것이라고 보고 높은 우선순위를 설정하는 방식이다.
또한, 객체의 우선순위에는 객체의 상태들 중 적어도 상기 객체의 행위를 포함하는 적어도 하나의 상태에 따라 구분된 객체 집합들 각각에 대하여 지정되는 행위 기반 우선순위가 있을 수 있다.
구체적으로, 상세 분류 모듈(4300)은 특정 행위를 하는 객체를 탐색하여 그 행위에 대응되는 우선순위를 부여할 수 있다.
예컨대, 사람이 쓰러지는 행위가 탐색되는 경우, 그 쓰러진 사람에 대해 가장 높은 우선순위를 설정할 수 있다. 또 다른 예시로서, 공중에 스와이프(swipe) 등 특정 제스처로 명령을 내리는 사람인 객체가 있다면, 그 명령하는 사람인 객체에 높은 우선순위를 부여할 수 있다.
마지막 예시로서, 객체의 우선순위에는 객체의 상태들 중 적어도 상기 객체의 맥락을 포함하는 적어도 하나의 상태에 따라 구분된 객체 집합들 각각에 대하여 지정되는 맥락 기반 우선순위가 있을 수 있다.
상기 맥락 기반 우선순위에 따르면, 상세 분류 모듈(4300)이 상기 전체 영상에 대한 상태 분석 또는 공간 분석을 수행함으로써 상기 전체 영상으로부터 객체 맥락 및 공간 맥락을 추론하고, 상기 객체가 그 추론된 객체 맥락 및 공간 맥락 중 적어도 하나에 의한 행위자 또는 상기 행위자의 행위에 의하여 상기 행위자와 상호작용하는 것으로 검출되는 객체인 맥락 상호작용 객체인지 여부에 기초하여 상기 행위자 또는 상기 맥락 상호작용 객체에 상대적으로 높은 우선순위를 설정할 수 있다.
예를 들어, 공간 맥락이 '아이인 연령대의 사람들이 운동장에서 야구를 하고 있다.'라는 맥락이라면 야구 배트를 들고 있는 것으로 검출되는 사람에 상대적으로 높은 우선순위가 부여될 수 있다.
본 개시서에서 설명되는 단계들 및 프로세스들은 논리적으로 모순되거나 맥락상 달리 명시되어 있지 않는 한 기재된 순서대로 수행되어야 함을 의미하는 것이 아니며, 각각의 단계들 및 프로세스들은 동시에 또는 이시(異時)에 수행될 수 있다는 점을 통상의 기술자는 이해할 수 있을 것이다.
또한, 전술한 단계들은 1회 수행될 여지도 있으나, 바람직하게는, 전술한 바와 같이 시간적으로 연속된 영상들을 획득하기 위하여 상기 단계들은 실시간(real-time)으로, 그리고/또는 반복적으로(iteratively) 수행될 수 있다.
즉, 본 개시서의 영상 처리 방법은, 새 전체 영상을 획득하기 위하여, 영상 획득 단계(S1000)로 되돌아가는 단계(S4000)를 더 포함할 수 있고, 이때 추적 컨트롤러(4400)에 의하여 가용 자원을 제어함으로써 영상 획득 단계(S1000)가 다시 수행될 수 있다.
여기에서 추적 컨트롤러(4400)는 영상 입력 모듈(4100), 객체 분석 모듈(4200) 및 상세 분류 모듈(4300)과 마찬가지로 모듈인바, 본 개시서의 시스템이 촬영 장치(200)로 하여금 목표 객체 또는 목표 공간을 지향할 수 있도록 그 촬영 장치의 움직임, 즉 추적을 구현하는 기능을 수행하는데, 여기에서 가용 자원이란 그러한 추적을 가능하게 하는 하드웨어 및/또는 소프트웨어를 지칭한다.
일 실시 예에서, 추적 컨트롤러(4400)는 촬영 장치(200)에 의하여 촬영될 구도에 대응하는 목표 위치 및 배율을 결정하는 목표 위치 결정 모듈(4420) 및 상기 목표 위치의 상기 전체 영상을 획득하도록 상기 가용 자원, 즉 하드웨어 및 소프트웨어 자원을 제어하는 추적 자원 컨트롤러(4440)를 포함할 수 있다.
목표 위치 결정 모듈
도 8a 내지 도 8c는 본 개시서의 영상 처리 방법에서 목표 위치를 결정하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 8a로써 예시된 일 실시 예에서, 목표 위치 결정 모듈(4420)은, 상기 전체 영상에 나타나는 적어도 하나의 후보 객체의 객체 우선순위를 획득하는 단계(S4110a), 상기 후보 객체의 객체 세그먼테이션을 획득하는 단계(S4120a), 상기 전체 영상에서 추론된 맥락에 따라 상기 후보 객체와 상호작용하는 것으로 검출되는 객체인 맥락 상호작용 객체를 식별하는 단계(S4130a), 소정의 순위 또는 그보다 높은 순위의 객체 우선순위를 가지는 후보 객체인 적어도 하나의 대상 객체 및 상기 대상 객체의 상기 맥락 상호작용 객체를 포함하도록 촬영 장치(200)에 의하여 촬영될 상기 구도를 결정하는 단계(S4140a), 및 상기 대상 객체의 방향에 따라 상기 구도를 확장함으로써 상기 목표 위치 및 배율을 결정하는 추가 구도 예측 단계(S4150a)를 수행할 수 있다.
맥락 상호작용 객체의 식별은 맥락 모델(M435)에 의하여 이루어질 수 있다. 이러한 맥락 모델(M435)이 지도 학습에 의하여 생성될 수 있음은 비특허문헌인 논문 Shin, D., & Kim, I. (2018). Deep Image Understanding Using Multilayered Contexts. Mathematical Problems in Engineering, 2018, 1-11.에 개시된 바와 같다.
더 구체적으로, 추가 구도 예측 단계(S4150a)는 상기 대상 객체의 방향을 획득하는 단계(S4152a) 및 상기 대상 객체의 속도를 획득하는 단계(S4154a)를 포함할 수 있다. 전술한 바와 같이 대상 객체의 방향은 그 대상 객체에 포함된 부분 객체들 간의 상대적 위치에 기초하여 획득될 수 있고, 대상 객체의 속도, 즉, 3차원 운동 벡터는 영상으로부터 획득되는 2차원 운동 벡터 및 센서(340)의 정보에 기초하여 산출될 수 있다.
그 다음으로, 추가 구도 예측 단계(S4150a)는 상기 대상 객체와의 상호작용이 가능한 범위인 상기 대상 객체의 영향 범위를 상기 대상 객체의 상기 방향 및 속도에 기초하여 산출하는 단계(S4156a), 및 상기 영향 범위를 반영하여 상기 구도를 확장함으로써 상기 목표 위치 및 배율을 결정하는 단계(S4158a)를 더 포함할 수 있다.
여기에서 영향 범위는 상기 대상 객체가 현재로부터 시작되는 소정 시간 범위에 걸쳐 적어도 일시적으로라도 점유할 가능성이 있거나, 상호작용을 할 가능성이 있는 상기 맥락 상호작용 객체가 점유할 가능성이 있는 공간의 범위, 즉, 상기 대상 객체의 물리적인 접촉이 가능한 공간의 범위, 예컨대, 사람의 신체 일부분이 물리적으로 접촉할 수 있는 범위, 또는 상기 대상 객체가 눈, 귀, 입 등을 통하여 신호를 수발신할 수 있는 맥락 상호작용 객체가 존재할 수 있는 범위, 예컨대, 상기 대상 객체와의 신호 수발신이 가능한 시야 범위(FOV)를 지칭한다.
일 예시로서, 단계(S4156a)에서는 눈(eye)의 영향 범위가 20 m. 손의 영향 범위는 1m일 수 있다. 이는 각 객체의 행위 정보(행위 분류)와 결합되어 구도를 조절하는 데 이용될 수 있다. 예컨대, '야구 타석에서 배트를 들고 서 있는 아이'가 대상 객체라면 단계(S4158a)에서는 아이의 시선의 방향 및 아이의 손에 쥐어진 배트 객체를 포함하도록 상기 구도가 조절될 수 있다.
한편, 도 8b로써 예시된 다른 실시 예에서, 목표 위치 결정 모듈(4420)은, 객체의 우선순위에 기반하여 상기 촬영될 구도를 결정할 수 있는바, 구체적으로, 목표 위치 결정 모듈(4420)은, 상기 전체 영상에 나타나는 적어도 하나의 후보 객체의 객체 우선순위를 획득하는 단계(S4120b), 소정의 순위 또는 그보다 높은 순위의 객체 우선순위를 가지는 후보 객체인 적어도 하나의 대상 객체를 결정하는 단계(S4140b), 및 상기 대상 객체를 포함하도록 촬영 장치(200)에 의하여 촬영될 상기 구도를 결정하는 단계(S4160b)를 수행할 수 있다.
도 8c를 참조하면, 객체의 우선순위를 반영하는 또 다른 실시 예에서, 목표 위치 결정 모듈(4420)은, 상기 전체 영상에 나타나는 적어도 하나의 후보 객체의 객체 우선순위를 획득하는 단계(S4120c), 상기 후보 객체의 객체 우선순위에 따라 상기 후보 객체를 포함하는 가상 세그먼테이션을 생성하는 단계로서, 상기 객체 우선순위가 높을수록 상기 가상 세그먼테이션의 면적이 크도록 상기 가상 세그먼테이션이 생성되는, 단계(S4140c), 소정의 증가 함수에 의하여 상기 가상 세그먼테이션의 면적에 따라 단조 증가하는 상기 가상 세그먼테이션 간의 인력, 소정의 제1 감소 함수에 따라 상기 후보 객체 간의 거리에 따라 단조 감소하는 상기 후보 객체 간의 제1 척력, 및 소정의 제2 감소 함수에 따라 상기 후보 객체와 상기 전체 영상의 프레임 경계선 간의 제2 척력을 산출하고, 상기 인력, 상기 제1 척력 및 상기 제2 척력의 평형 상태를 결정하는 단계(S4160c), 및 상기 평형 상태에서 상기 적어도 하나의 후보 객체의 중앙 지점인 목표 중앙을 산출함으로써, 상기 구도에 대응하는 목표 위치 및 배율을 결정하는 단계(S4180c)를 수행할 수 있다.
추적 자원 컨트롤러
추적 자원 컨트롤러(4440)는 짐벌(300) 및 촬영 장치(200)의 자세에 대한 제어 없이 촬영 장치(200)로부터 획득되는 영상으로부터 상기 새 영상을 획득하도록 제어하는 영상 전환 컨트롤러(4442), 및 촬영 장치(200)가 장착되어 그 촬영 장치(200)의 자세를 제어하는 하나 이상의 회전 축을 가진 짐벌(300)과 컴퓨팅 장치(100)가 연동하는 경우에 짐벌(300) 및 촬영 장치(200)에 대한 제어를 통하여 촬영 장치(200)로 하여금 상기 새 영상을 획득하도록 제어하는 프레임 전환 컨트롤러(4444)를 포함할 수 있다.
프레임 전환 컨트롤러(4444) 및 영상 전환 컨트롤러(4442)는 서로 보완하도록 작동할 수 있는바, 추적 자원 컨트롤러(4440)는 먼저 프레임 전환 컨트롤러(4444)로부터 원하는 해상도의 새 영상을 획득하고, 그 획득에 실패하는 경우에, 영상 전환 컨트롤러(4442)에 의한 영상 재구성을 통하여 새 영상을 획득하도록 제어할 수 있다.
구체적인 일 실시 예에서, 영상 전환 컨트롤러(4442)는, 영상 재구성을 수행할 수 있는 유휴 자원이 존재하는지 판단하는 단계(S4310), 상기 유휴 자원이 존재하면, 상기 기 획득된 전체 영상 또는 상기 전체 영상의 부분을 원본 영상으로서 메모리에 적재(load)하는 단계(S4320), 및 상기 목표 위치 및 배율에 따라 상기 원본 영상을 크롭(crop)하거나, 상기 원본 영상의 해상도가 미리 정해진 문턱값에 미달하면, 초해상(super-resolution)을 수행함으로써 상기 목표 위치 및 배율에 따른 상기 새 영상을 획득하는 단계(S4330)를 수행할 수 있다.
초해상이, 예컨대, 자기부호화기(autoencoder) 등의 신경망을 이용하여 수행될 수 있음은 통상의 기술자에게 알려져 있다.
한편, 프레임 전환 컨트롤러(4444)는, 상기 목표 위치를 달성하도록(즉, 상기 목표 위치에 도달하도록) 짐벌(300)의 상기 하나 이상의 회전 축을 작동시켜 촬영 장치(200)의 방향을 제어하는 짐벌 컨트롤러(4444a), 상기 배율을 달성하도록 촬영 장치(200)의 줌인(zoom-in) 및 줌아웃(zoom-out)을 제어하는 줌 컨트롤러(4444b), 및 상기 가용 자원 중 하드웨어의 작동을 저감하면서 환경을 촬영하도록 제어하는 전후면 촬영 장치 컨트롤러(4444c)를 포함할 수 있고, 이 중에서 적어도 짐벌 컨트롤러(4444a)를 포함한다.
촬영 장치(200)는 2개 이상으로 구성될 수도 있는바, 예컨대 휴대 단말(100)의 전면과 후면에 각각 탑재된 촬영 장치(200)일 수 있다. 전후면 촬영 장치 컨트롤러(4444c)는 전면의 촬영 장치(200a; 미도시) 및 후면의 촬영 장치(200b; 미도시)를 이용하여 시스템을 둘러싼 전체 공간, 즉, 주위 공간을 스캔하게 할 수 있고, 사용자의 편의에 따라 이용하는 촬영 장치(200)를 전면과 후면 촬영 장치 중에서 선택할 수 있다.
예를 들어, 전후면 촬영 장치 컨트롤러(4444c)는 사용자가 휴대 단말(100)의 디스플레이를 바라보고 있는 경우에 사용자의 영상을 획득하기 위하여 이용할 촬영 장치로서 전면 촬영 장치(200a)를 선택할 수 있다.
또 다른 예시로서, 전후면 촬영 장치 컨트롤러(4444c)는 전면 촬영 장치(200a)로써 객체를 인식한 후, 그 객체에 대해 전면 촬영 장치(200a)의 해상도보다 높은 해상도의 영상이 요구되는 때에는 더 높은 해상도를 지닌 후면 촬영 장치(200b)로써 그 객체를 인식하도록 제어할 수 있다.
또한, 전후면 촬영 장치 컨트롤러(4444c)는 전면 촬영 장치(200a) 및 후면 촬영 장치(200b)를 동시에 또는 순차적으로 이용하여 짐벌(300) 축의 회전을 최소화하면서 주위 공간의 영상을 획득하게 할 수 있다.
한편, 프레임 전환 컨트롤러(4444)는 적어도 하나의 특정 객체 또는 특정 부분 객체를 상기 구도가 모두 포함하도록 그 특정 객체 또는 그 특정 부분 객체에 포함된 부분 객체의 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)에 따라 촬영 장치(200)의 배향(orientation)을 세로 방향(portrait) 및 가로 방향(landscape) 중 어느 하나로 제어할 수 있다. 예컨대, 이는 짐벌(300)의 롤 축(R)의 회전에 의하여 달성될 수 있다. 가로와 세로의 비율에서 가로는 중력 벡터에 수직인 것을 의미할 수 있다. 가로와 세로의 비율에서 세로는 중력 벡터에 수평인 것을 의미할 수 있다. 따라서, 가로와 세로의 비율은 한 기준면의 일부를 가로 길이로 계산하는 가로와 세로의 비율일 수 있다. 해당 기준면은 중력 벡터에 수직한 면 또는/및 바닥에 접촉하는 면일 수 있다. 다만, 해당 기준면은 이에 한정되지 않고, 다양한 면이 기준면으로 설정될 수 있다. 가로와 세로의 비율은 객체의 방향에 따라 경향성(예를 들어, 1 이상 또는 1 이하)이 변화하지 않을 수 있다.
구체적으로, 프레임 전환 컨트롤러(4444)는 상기 적어도 하나의 특정 객체 또는 특정 부분 객체의 객체 세그먼테이션 또는 상기 적어도 하나의 특정 객체 또는 특정 부분 객체를 포함하는 객체 박스(object box)가 상기 전체 영상의 프레임 경계선에 접촉하지 않도록 상기 촬영 장치의 배향을 세로 방향 및 가로 방향 중 어느 하나로 제어할 수 있다.
도 9a 및 도 9b는 본 개시서의 영상 처리 방법에서 촬영 장치의 배향을 제어하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이다.
도 9a를 참조하여 상기 촬영 장치의 배향을 위한 프레임 전환 컨트롤러(4444)의 일 실시 예를 더 구체적으로 설명하면, 프레임 전환 컨트롤러(4444)는, 상기 적어도 하나의 특정 객체 또는 특정 부분 객체의 객체 세그먼테이션 또는 객체 박스가 상기 전체 영상의 프레임 경계선에 제1 접촉하면, 상기 객체 세그먼테이션 또는 상기 객체 박스의 중심점이 상기 구도 내에 존재하는 한도 내에서 상기 짐벌로 하여금 상기 제1 접촉된 위치의 반대 방향으로 이동하도록 제어함으로써 상기 제1 접촉을 해소하는 단계(S4210a), 및 상기 이동 후 상기 객체 세그먼테이션 또는 상기 객체 박스가 상기 제1 접촉된 위치의 반대 측에서 상기 프레임 경계선에 제2 접촉하면, (i) 상기 촬영 장치의 배향을 세로 방향(portrait) 및 가로 방향(landscape) 중 어느 하나에서 다른 하나로 전환하는 작동, 및 (ii) 상기 촬영 장치의 줌인(zoom-in) 및 줌아웃(zoom-out)을 제어하는 작동 중 적어도 하나를 통하여 상기 제2 접촉을 해소하는 단계(S4220a)를 수행할 수 있다.
도 9b를 참조하여 프레임 전환 컨트롤러(4444)의 다른 실시 예를 구체적으로 설명하면, 프레임 전환 컨트롤러(4444)는, 상기 적어도 하나의 특정 객체 또는 특정 부분 객체의 특성 중 비율 특성을 획득하는 단계로서, 상기 비율 특성은 상기 특정 객체 또는 상기 특정 부분 객체의, 카테고리별로 미리 정해져 있거나 상기 특정 객체 또는 상기 특정 부분 객체의 계측에 의하여 카테고리별로 산출된 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)인 카테고리별 비율 특성, 상기 특정 객체 또는 상기 특정 부분 객체의 상세 분류별로 미리 정해져 있거나 상기 특정 객체 또는 상기 특정 부분 객체의 계측에 의하여 상세 분류별로 산출된 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)인 상세 분류별 비율 특성, 및 상기 목표 위치 결정 모듈에 의하여 결정된 상기 구도의 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)를 포함하는, 단계(S4210b), 및 상기 비율 특성에 기초하여, 상기 촬영 장치의 배향을 세로 방향(portrait) 및 가로 방향(landscape) 중 어느 하나에서 다른 하나로 전환하는 작동인 롤 회전의 수행 여부를 결정하고, 상기 수행 여부에 따라 상기 촬영 장치의 배향을 조절하는 단계(S4220b)를 수행할 수 있다.
예를 들어, 텔레비전의 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)는 1보다 크므로 촬영 장치(200)의 배향은 가로 방향으로 조절될 수 있고, 서 있는 사람의 가로와 세로의 비율(가로 길이를 세로 길이로 나눈 값)는 1 이하이므로 세로 방향으로 촬영 장치(200)의 배향이 조절될 수 있다.
단계(S4220b) 다음으로, 이 실시 예의 프레임 전환 컨트롤러(4444)는, 상기 적어도 하나의 특정 객체 또는 특정 부분 객체의 객체 세그먼테이션 또는 객체 박스가 상기 전체 영상의 프레임 경계선에 접촉하면, (i) 상기 촬영 장치의 배향을 세로 방향(portrait) 및 가로 방향(landscape) 중 어느 하나에서 다른 하나로 전환하는 작동, 및 (ii) 상기 촬영 장치의 줌인(zoom-in) 및 줌아웃(zoom-out)을 제어하는 작동 중 적어도 하나를 통하여 상기 접촉을 해소함으로써 상기 적어도 하나의 특정 객체 또는 특정 부분 객체로 하여금 상기 구도 내에 포함되도록 하는 단계(S4230b)를 더 수행할 수 있다. 여기에서 상기 객체 세그먼테이션 또는 객체 박스가 상기 프레임 경계선에 접촉하지 않으면, 단계(S4220b)로 종료하고 단계(S4230b)는 수행되지 않는다.
OCR(광학 문자 인식)
이제, 다시 상세 분류 모델(M430)의 설명으로 돌아가 이에 의한 OCR을 설명하기로 한다. 상기 분류 모델(M430)은 상기 객체의 표면에 나타난 텍스트를 독출하는 OCR 모델(M436)을 더 포함할 수 있다. 따라서, 컴퓨팅 장치(100)의 프로세서(120)는 OCR 모델(M436)을 이용하여, 객체에 대응되는 분석 정보로부터 객체에 포함된 문자를 획득할 수 있다.
이에 상응하여, 전술한 단계(S3400)는, 상세 분류 모델(M430)의 OCR 모델(M436)을 이용하여 상세 분류 모듈(4300)이 OCR을 수행함으로써 객체의 특성의 일부로서 그 객체의 텍스트를 산출하는 단계(S3500)를 포함할 수 있다.
단계(S3500)를 구체적으로 설명하면, OCR 모델(M436)은, 먼저, 상기 객체의 표면에 문자가 표시되었는지 여부를 판별하는 단계(S3520)를 포함할 수 있다.
단계(S3520)에서는 딥 러닝 또는 종래의 OCR 기술을 이용하여 문자를 검출함으로써 문자가 표시되어 있는 객체를 판별할 수 있음이 알려져 있다.
단계(S3520)의 다음으로 OCR 모델(M436)은 상기 객체의 표면에 문자가 표시되었으면, 표시된 문자(예를 들어, 전체 문자 및/또는 문자 집합)에 OCR을 수행하고, 그 OCR의 결과인 결과 텍스트를 상기 객체의 특성으로서 입력(저장)하는 OCR 수행 단계(S3540)를 수행할 수 있다.
본 개시의 일 실시예에 따르면, OCR 모델(M436)은 객체의 표면에 문자가 표시되었는지 여부를 판별하는 단계 및 객체의 표면에 문자가 표시된 것으로 판별된 경우, 문자가 포함된 전체 문자에 OCR을 수행하는 단계를 수행할 수 있다.
본 개시의 다른 실시예에 따르면, OCR 모델(M436)은 객체의 표면에 문자가 표시되었는지 여부를 판별하는 단계 및 객체의 표면에 문자가 표시된 것으로 판별된 경우, 문자 집합별로 OCR을 수행하는 단계를 수행할 수 있다.
문자 집합의 구분 방법
프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 문자의 종류, 형태, 크기 또는 배치 중 적어도 하나에 기초하여 문자가 속한 문자 집합을 구분할 수 있다. 또한, 프로세서(120)는 한 문맥의 해석에 있어 밀접하게 관련될 확률이 높은 문자 집합을 구분할 수 있다.
문자가 속한 문자 집합 또는 문맥에 속한 문자 집합을 구분하는 방법은 다음과 같을 수 있다. 예를 들어, 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 문자 집합 특성에 기초하여 문자 집합을 구분할 수 있다.
문자 집합 특성은 문자의 언어 종류, 줄 간격, 자간, 장평(예를 들어, 가로 세로 비율), 크기, 두께, 색깔, 글꼴(폰트), 스타일, 문장의 시작 또는 마침 관련 문자, 빈칸(예를 들어, 다음 문장, 객체 또는 부분 객체 중 적어도 하나의 경계와의 공백) 또는 객체에서 문자가 표시된 위치 중 하나 이상을 포함할 수 있다. 따라서, 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 문자의 언어 종류, 줄 간격, 자간, 장평(예를 들어, 가로 세로 비율), 크기, 두께, 색깔, 글꼴(폰트), 스타일, 문장의 시작 또는 마침 관련 문자, 빈칸(예를 들어, 다음 문장, 객체 또는 부분 객체 중 적어도 하나의 경계와의 공백) 또는 객체에서 문자가 표시된 위치 중 하나 이상의 특징을 사용하여 문자 집합을 구분할 수 있다.
예를 들어, 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 문자가 속한 언어 종류에 따라 완결된 문장 또는 문맥을 구분할 수 있다. 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 제품 설명서의 표면과 같이 인식되는 문자가 다국어인 경우, 문자별로 속한 언어 종류에 따라 완결된 문장 또는 문맥을 구분할 수 있다.
다른 예를 들어, 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 같은 크기 및 글꼴의 문장인 경우에 줄 간격, 자간, 장평 또는 색깔 중 적어도 하나에 기초하여 단락을 구분할 수 있다.
또 다른 예를 들어, 프로세서(120) 또는 OCR 모델(M436) 중 적어도 하나는 한 문단의 상단 또는 시작 위치에 기초하여 문자 집합을 구분할 수 있다. 한 문단의 상단 또는 시작 위치에는 볼드 스타일 또는 다른 크기로 문단의 성격 또는 제목이 표시될 수도 있다.
문자 집합의 객체화
프로세서(120) 및/또는 OCR 모델(M436)은 상술한 '문자 집합의 구분 방법'에 기초하여 문자 집합을 구분할 수 있다. 프로세서(120) 및/또는 OCR 모델(M436)은 문자 집합에 기초하여 문자 집합 객체를 인식할 수 있다. 문자 집합 객체는 하나의 대상으로 설정된 문자 집합일 수 있다. 문자 집합 객체는 문자 이미지, 텍스트 정보 또는 문자 집합 특성 중 적어도 하나를 포함할 수 있다. 예를 들어, 문자 집합 객체는 OCR 또는 자연어 이해(처리) 이전에 문자 이미지를 포함할 수 있다. 다른 예를 들어, 문자 집합 객체는 OCR 또는 자연어 이해(처리) 이후에 텍스트 정보를 포함할 수 있다. 여기서, 문자 집합 객체는 OCR 또는 자연어 이해(처리) 이후에 복수의 문자 집합 객체로 분리될 수도 있다.
프로세서(120) 및/또는 OCR 모델(M436)은 객체 또는 부분 객체의 표면에 표시된 하나 이상의 문자 집합을 구분할 수 있다. 프로세서(120) 및/또는 OCR 모델(M436)은 문자 집합이 표시된 객체 또는 부분 객체의 특성 또는 상태 정보 중 적어도 하나에 기초하여 문맥 해석을 수행할 수도 있다. 객체 및/또는 부분 객체의 특성 및/또는 상태는 문자 집합 특성에 포함될 수 있다.
프로세서(120) 및/또는 OCR 모델(M436)은 문자 집합이 표시되어 있는 객체 또는 부분 객체의 종류 및/또는 위치를 자연어 이해(처리) 및/또는 문맥 해석의 추가 정보로 사용할 수 있다.
예를 들어, 프로세서(120) 및/또는 OCR 모델(M436)은 셔츠(객체 또는 부분 객체)에 표시된 문자와 자동차(객체 또는 부분 객체)에 표시된 문자가 동일한 경우, 셔츠 또는 자동차 중 하나에 표시된 문자(예를 들어, 브랜드 이름)를 추가 정보로 사용할 수 있다. 여기서, 프로세서(120) 및/또는 OCR 모델(M436)은 자동차에 표시된 문자가 객체의 특성 및/또는 전체 문맥의 특성을 반영할 것으로 판단하고(반영할 확률이 상대적으로 더 높을 것으로 판단하고), 그리고 자동차에 표시된 문자를 추가 정보로 사용할 수 있다.
프로세서(120) 및/또는 OCR 모델(M436)은 객체에 복수의 문자가 존재하는 경우, 복수의 문자가 표시된 위치에 기초하여 객체의 특성을 획득할 수 있다. 복수의 문자는 위치에 따라서 의미가 서로 다를 수 있다. 예를 들어, 프로세서(120) 및/또는 OCR 모델(M436)는 셔츠(객체 또는 부분 객체)의 전면에 표시된 문자와 셔츠의 레이블(예를 들어, 케어 레이블)에 표시된 문자가 동시에 존재하는 경우, 셔츠의 레이블에 표시된 문자가 객체의 특성을 반영할 것으로 판단하고(반영할 확률이 상대적으로 더 높을 것으로 판단하고), 그리고 셔츠의 레이블에 표시된 문자를 추가 정보로 사용할 수 있다.
프로세서(120) 및/또는 OCR 모델(M436)은 객체화 된 문자 집합을 각 문자 집합 객체 별로 OCR 및/또는 자연어 이해(처리)를 수행할 수 있다. 프로세서(120) 및/또는 OCR 모델(M436)는 하나 이상의 문자 집합 객체를 문자 집합 특성에 기초하여 OCR 및/또는 자연어 이해(처리)를 수행할 수 있다. 여기서, 프로세서(120) 및/또는 OCR 모델(M436)는 하나 이상의 문자 집합 객체를 문자 집합 특성에 기초하여 OCR 및/또는 자연어 이해(처리)를 순차적으로 또는 동시적으로 수행할 수도 있다.
OCR 및/또는 자연어 이해(처리)의 단위는 객체 또는 부분 객체의 표면의 전체 문자에 한정되지 않고, 상술한 문자 집합 특성으로 분류된 문자 또는 문자 집합을 최소 단위로 할 수 있다.
한편, OCR 수행 단계(S3540)는 다양한 방식으로 수행될 수 있다.
예를 들어, 컴퓨팅 장치(100)의 프로세서(120)에 의해 수행되는 문자(예를 들어, 전체 문자 및/또는 문자 집합)에 OCR를 수행하는 단계(S3540)는 문자가 표시된 객체로부터 적어도 하나의 영상 샘플을 추출하는 단계, 적어도 하나의 영상 샘플로부터 문자가 표시된 구역의 경계선을 결정하는 단계, 적어도 하나의 영상 샘플 중에서 경계선 또는 경계선에 속한 점인 경계점 중 적어도 하나에 기초하여, 문자 표시 영상(예를 들어, 전체 문자 표시 영상 및/또는 문자 집합 표시 영상)을 생성하는 단계 및 문자 표시 영상에 OCR을 수행하는 단계를 포함할 수 있다.
영상 샘플은 경계선 또는/및 경계점 중 적어도 하나의 위치에 존재하는 영상 패턴일 수 있다. 영상 패턴은 일부 문자, 문자의 경계부, 문자의 일부분 또는/및 배경 중 적어도 하나를 포함할 수 있다. 배경은 문자를 구성하지 않는 영상 패턴을 의미할 수 있다.
적어도 하나의 영상 샘플 중에서 경계선 또는 경계선에 속한 점인 경계점 중 적어도 하나에 기초하여, 문자 표시 영상을 생성하는 단계 및 문자 표시 영상에 OCR을 수행하는 단계는, 적어도 하나의 영상 샘플 중에서 경계선 또는 경계점 중 적어도 하나에 위치한 영상 패턴들을 경계 마커로서 획득하는 단계 및 문자가 표시된 객체의 영상에 포함된 부분 영상으로서, 경계 마커를 포함하는 영상인 문자 표시 영상을 생성하는 단계를 포함할 수 있다.경계 마커는 시작 마커 및/또는 종료 마커 중 적어도 하나를 포함할 수 있다. 시작 마커는 문자의 시작 문자에 대응하는 영상 패턴일 수 있다. 종료 마커는 문자의 종료 문자에 대응하는 영상 패턴일 수 있다.
적어도 하나의 영상 샘플 중에서 경계선 또는 경계점 중 적어도 하나에 위치한 영상 패턴들을 경계 마커로서 획득하는 단계는, 추적 컨트롤러(4400)를 이용하여, 시작 마커를 포함하고 그리고 문자 인식률이 문턱값 이상인 문자 영상을 획득하는 단계 및 문자 영상에 종료 마커가 포함되어 있는지 여부를 판별하는 단계를 포함할 수 있다.
그리고, 프로세서(120)는 문자 영상에 종료 마커가 포함된 경우, 문자 표시 영상으로서, 문자 영상을 결정할 수 있다.
프로세서(120)는 문자 영상에 종료 마커가 포함되지 않은 경우, 추적 컨트롤러(4400)를 이용하여, 문자 영상에 포함된 경계 마커 중에서 마지막 마커의 다음 마커를 포함하고 그리고 문자 인식률이 문턱값 이상인 추가 문자 영상을 획득할 수 있다. 프로세서(120)는 추가 문자 영상을 문자 영상에 병합하여 병합 문자 영상을 생성할 수 있다. 그리고, 프로세서(120)는 병합 문자 영상에 종료 마커가 포함된 경우, 문자 표시 영상으로서, 병합 문자 영상을 결정할 수 있다.
한편, 다른 예를 들어, 컴퓨팅 장치(100)의 프로세서(120)에 의해 수행되는 문자에 OCR를 수행하는 단계(S3540)는 추적 컨트롤러를 이용하여, 문자의 시작 지점을 포함하고 그리고 문자 인식률이 문턱값 이상인 객체의 영상을 획득하는 단계, 객체의 영상의 최초 문장 구역에 대한 OCR을 수행하는 단계 및 OCR의 1차적 결과인 제 1 텍스트에 대한 자연어 이해(NLU; natural language understanding)를 수행하여, 의미 가치의 수치인 제 1 의미 가치값을 산출하는 단계를 포함할 수 있다.
프로세서(120)는 제 1 의미 가치값이 문턱값 이상인 경우, 제 1 텍스트를 OCR의 결과인 결과 텍스트로 결정할 수 있다.
프로세서(120)는 제 1 의미 가치값이 문턱값 미만인 경우, 최초 문장 구역의 다음 문장 구역에 대한 OCR을 수행할 수 있다. 프로세서(120)는 OCR의 1차적 결과인 제 2 텍스트에 대한 자연어 이해를 수행하여, 의미 가치의 수치인 제 2 의미 가치값을 산출할 수 있다. 그리고, 프로세서(120)는 제 2 의미 가치값이 문턱값 이상인 경우, 제 2 텍스트를 OCR의 결과인 결과 텍스트로 결정할 수 있다.
최초 문장 구역은 문장에 사용된 언어에 따른 문자들의 배치 방식에서 가장 먼저 배치된 것으로 검출되는 문장이 차지하는 구역일 수 있다.
컴퓨팅 장치(100)는 촬영 장치(200) 및 짐벌(300)과 연동될 수 있다. 예를 들어, 컴퓨팅 장치(100)는 촬영 장치(200)를 포함하고, 그리고 촬영 장치(200)의 자세를 제어하는 짐벌(300)과 연동할 수 있다.
컴퓨팅 장치(100)의 프로세서(120)는 추적 컨트롤러(4400)를 이용하여, 짐벌(300)의 하나 이상의 회전 축을 작동시켜 촬영 장치(200)의 방향을 제어할 수 있다.
프로세서(120)는 추적 컨트롤러(4400)를 이용하여, 촬영 장치(200)의 줌인(zoom-in) 및/또는 줌아웃(zoom-out)을 통해 영상을 획득할 수 있다.
도 10a 내지 도 10c는 본 개시서의 영상 처리 방법에서의 OCR을 수행하는 데 이용될 수 있는 방식들을 예시적으로 나타낸 흐름도들이고, 도 11a 내지 도 11d는 본 개시서의 영상 처리 방법에서 OCR을 수행하는 방식들을 설명하기 위하여 예시된 도면들이다.
첫 번째, 도 10a 및 도 11a를 참조하면, 경계 마커를 이용하는 실시 예에서의 OCR 수행 단계(S3540a)는, 상기 문자가 표시된 객체(예컨대, 참조부호 1110의 종이 문서)로부터 영상 샘플들을 추출하는 단계(S3542a)로 시작하고, 단계(S3542a) 다음으로 상기 영상 샘플들로부터 문자가 표시된 구역(area)의 경계선(예컨대, 참조부호 1130의 폐곡선)을 획정하는 단계(S3544a)를 포함한다.
여기에서, 영상 샘플은 경계선 또는 경계점의 위치에 존재하는 영상 패턴으로서, 그 영상 패턴은 일부 문자, 문자의 경계부, 문자의 일부분 또는 배경으로 구성될 수 있다. 상기 경계선은 객체의 표면에 표시되어 있는 문자들의 군집의 경계선을 지칭하며, 경계점은 경계선을 구성할 수 있는 점들의 집합을 지칭한다. 여기에서 배경은 그 자체로 문자를 구성하지 않는 영상 패턴을 지칭한다.
이 실시 예의 OCR 수행 단계(S3540a)는, 단계(S3544a) 다음으로, 상기 영상 샘플들 중에서 상기 경계선 또는 상기 경계선에 속한 점인 경계점에 위치한 영상 패턴들을 경계 마커로서 획득하는 경계 마커 획득 단계(S3546a)를 더 포함하는데, 이 단계에서, 상기 경계 마커 중에서 전체 문자 중 시작 문자에 대응하는 영상 패턴은 시작 마커, 상기 경계 마커 중에서 상기 전체 문자 중 종료 문자에 대응하는 영상 패턴은 종료 마커로 지칭될 수 있다.
경계 마커는 객체 영상에서 상기 전체 문자에 속한 각각의 문자가 점유하고 있는 공간의 좌표 영역을 판별하기 위한 마커로서 기능한다.
경계 마커, 즉, 상기 경계선 또는 상기 경계선에 속한 점인 경계점에 위치한 영상 패턴의 하나로서 문자의 경계부가 이용될 수 있다. 문자의 경계부는, 어느 문장에서 그 문장의 가로 또는 세로를 따라 연장되는 문자의 일부분을 구성하는 영상의 일부를 지칭한다. 예를 들면, "가나다라마바시"라는 문장에서 가의 'ㄱ'과 시의 'ㅣ'는 문자의 일부으로서 문자의 경계부인 경계 마커라고 할 수 있다.
또한, 경계 마커의 하나로서 문자의 일부분(또는 전체)가 이용될 수 있다. 예를 들어, "ABCDEFG"라는 문장에 있어서 A와 G는 경계점 및/또는 경계선에 위치한 문자의 일부분인 경계 마커로서 이용될 수 있다.
시작 마커 또는 종료 마커의 획득은 전체 문자가 구성하는 문장의 언어에 따른 문자들의 배치 방식을 반영한다. 예를 들어, 한국어 및 영어로 된 책에 대한 OCR에 있어서는 도 11에 예시된 바와 같이 상기 문자가 표시된 구역의 왼쪽 상단의 영상 샘플(1132)이 시작 마커가 될 수 있으며, 그 구역의 오른쪽 하단의 영상 샘플(1134)이 종료 마커가 될 수 있다.
경계 마커 획득 단계(S3546a)는, 더 구체적으로, 상기 시작 마커를 포함하면서 문자 인식률이 소정의 문턱값 이상인 영상인 문자 영상을 획득하도록 추적 컨트롤러(4400)에 의하여 가용 자원을 제어하는 단계(S3546a-1)를 포함할 수 있다.
여기에서 문자 인식률은 문자 영상에서 특정 문자가 어떠한 텍스트로 인식되는 비율을 지칭한다. 예를 들어, 문자가 나타난 객체가 나타나는 원거리의 영상으로부터 어떤 문자가 있다는 것은 딥 러닝 등으로 추정이 가능할 수 있지만, 그 원거리의 영상이 작거나 해상도가 낮은 이유로 그 문자가 어떤 문자인지를 판별하기 어려울 수 있는바, 즉, OCR에 의한 문자 인식률이 낮을 수 있다.
달리 말하자면, 상기 문자 인식률이 소정의 문턱값 이상인 문자 영상은 OCR 가능 해상도의 것을 지칭한다. 이 단계(S3546a-1)의 수행에 있어서 충분히 높은 해상도의 확대된 문자 영상을 얻기 위하여 본 개시서의 시스템은 추적 컨트롤러(4400)를 통하여 촬영 장치(200)의 줌인, 줌아웃 및 회전을 제어할 수 있다. 예를 들어, 도 11a를 참조하면, 종이 문서(1110)와 사람(1120)이 모두 포함된 구도에서 종이 문서(1110)를 영상의 중앙에 오도록 하는 촬영 장치(200)의 회전 제어(1160) 및 줌인 제어(1170, 1180)가 예시되어 있다.
단계(S3546a-1) 다음으로 경계 마커 획득 단계(S3546a)의 이 실시 예는, 상기 획득된 문자 영상에 상기 종료 마커가 포함되어 있는지 판별하는 종료 마커 판별 단계(S3546a-2), 및 상기 획득된 문자 영상에 상기 종료 마커가 포함되었으면 상기 전체 문자 표시 영상으로서 상기 문자 영상을 취하고, 상기 획득된 문자 영상에 상기 종료 마커가 포함되지 않았으면 상기 문자 영상에 나타난 경계 마커 중 마지막 마커의 다음 마커를 탐색하여 상기 다음 마커를 포함하면서도 문자 인식률이 소정의 문턱값 이상인 영상인 추가 문자 영상을 획득하도록 추적 컨트롤러(4400)에 의하여 가용 자원을 제어하고, 상기 추가 문자 영상을 상기 문자 영상에 병합함으로써, 상기 종료 마커 판별 단계(S3546a-2)부터 다시 수행하는 단계(S3546a-3)를 포함한다.
단계(S3546a-3)에서의 가용 자원의 제어는 짐벌(300)에 대한 제어를 포함하는바, 예를 들어, 한국어 및 영어로 된 책에 대한 짐벌(300)의 제어는 촬영 장치(200)로 하여금 상기 문자가 표시된 구역의 왼쪽으로부터 오른쪽으로, 그리고 그 구역의 위로부터 아래로 스캔하도록 보조하는 제어(예컨대, 도 11b의 참조부호 1190의 회전 제어)일 수 있다.
또한, 단계(S3546a-3)에서의 문자 영상의 병합에는 여러 영상 바느질(image stitching) 기법이 이용될 수 있음을 통상의 기술자는 이해할 것이다. 도 11b를 참조하면, 시간적으로 또는 공간적으로 이격을 두고 촬영된 2개 이상의 영상 사이에서 서로 겹치는 영상 패턴들(1136a, 1136b)을 이용하여 영상 병합이 이루어질 수 있다.
이와 같은 경계 마커 획득 단계(S3546a)의 다음으로, 이 실시 예의 OCR 수행 단계(S3540a)는, 상기 문자가 표시된 객체의 영상이 포함된 부분 영상으로서, 상기 시작 마커 및 상기 종료 마커를 모두 포함하는 영상인 전체 문자 표시 영상에 대해 OCR을 수행함으로써 텍스트를 획득하는 단계(S3468a)를 포함할 수 있다.
한편, 도 10b 및 도 11c를 참조하면, OCR 수행 단계(S3540)의 제2 실시 예에서, OCR 수행 단계(S3540b)는, 상기 문자가 표시된 객체로부터 영상 샘플들을 추출하는 단계(S3542b)로 시작하고, 단계(S3542b) 다음으로 상기 영상 샘플들로부터 문자가 표시된 구역(area)의 경계선(1130)을 획정하는 단계(S3544b)를 포함한다.
그 다음, OCR 수행 단계(S3540b)는, 상기 영상 샘플들 중에서 상기 경계선에 위치하지 않은 적어도 하나의 영상 패턴(1142a, 1142b)을 분할 마커로서 획득하고 상기 분할 마커를 이용하여 문자 영상들을 병합함으로써 생성되는 영상인 전체 문자 표시 영상에 OCR을 수행하는 단계(S3546b)를 포함한다.
단계(S3546b)에서 분할 마커는 시간적으로 또는 공간적으로 이격을 두고 촬영된 2개 이상의 영상 사이에서 서로 겹치는 영상 패턴(1142a, 1142b)을 지칭한다. 서로 다른 영상에서 동일한 분할 마커를 포착함으로써 그 분할 마커를 이용한 영상 병합, 즉, 영상 바느질이 이루어질 수 있다.
마지막으로, 도 10c 및 도 11d를 참조하면, OCR 수행 단계(S3540)의 제3 실시 예에서, OCR 수행 단계(S3540c)는, 상기 전체 문자의 시작 지점을 포함하고 문자 인식률이 소정의 문턱값 이상인 상기 객체 영상을 획득하도록, 즉, 그 객체 영상이 OCR 가능한 소정의 해상도를 가지도록 추적 컨트롤러(4400)에 의하여 가용 자원을 제어하는 단계(S3542c)를 포함한다.
단계(S3542c)를 수행하는 추적 컨트롤러(4400)의 방침(policy)으로서, 상기 객체 영상이 OCR 가능한 소정의 해상도를 가질 조건뿐만 아니라 그러한 해상도에서 최대한 많은 개수의 문자들을 상기 객체 영상에 포함시킬 조건이 부여될 수 있다.
다음으로, OCR 수행 단계(S3540c)는, 획득된 상기 객체 영상의 최초 문장 구역(1152)에 대한 OCR을 수행하는 단계(S3544c)를 더 포함한다.
여기에서 최초 문장 구역은, 문장에 사용된 언어에 따른 문자들의 일반적인 배치 방식을 고려할 때, 가장 먼저 배치된 것으로 검출되는 문장이 차지하는 구역을 지칭한다.
예를 들어, 이 단계(S3544c)의 최초 실행 시에, 상기 최초 문장 구역은 ",", ".", "?"와 같이 한 문장의 완결 지점을 나타내는 문장 부호를 스캔하여 결정할 수 있다. 이러한 문장 부호가 스캔되면, 시작 문자로부터 그 문장 부호까지를 상기 최초 문장 구역(1152)으로 상정할 수 있다.
다른 예로서, 이 단계(S3544c)의 최초 실행 시에, 상기 최초 문장 구역(1152)은 시작 문자의 크기부터 다음 문자들의 크기를 순차적으로 비교할 때 그 문자의 크기가 소정의 문턱값 이상으로 변화하기 전까지 시작 문자로부터 연이어지는 문자들로 구성된 문장이 차지하는 구역으로 결정될 수도 있다.
또 다른 예로서, 이 단계(S3544c)의 최초 실행 시에, 상기 최초 문장 구역(1152)은 시작 문자와 그 다음 문자 사이의 자간의 크기부터 그 다음 자간들의 크기를 순차적으로 비교할 때 그 자간의 크기가 소정의 문턱값 이상으로 변화하기 전까지 시작 문자로부터 연이어지는 문자들로 구성된 문장이 차지하는 구역으로 결정될 수도 있다.
그 다음, OCR 수행 단계(S3540c)는, 단계(S3544c)에서의 OCR에 의한 1차적 결과인 제1 텍스트에 대한 자연어 이해(NLU; natural language understanding)를 수행함으로써, 그 제1 텍스트의 의미 가치의 수치인 의미 가치값을 산출하는 의미 가치값 산출 단계(S3546c)를 더 포함한다.
다음으로, OCR 수행 단계(S3540c)는, 단계(S3546c)에서의 의미 가치값이 소정의 문턱값 이상이면, 상기 제1 텍스트를 상기 결과 텍스트로 취함으로써 상기 OCR을 완료하고, 상기 의미 가치값이 상기 소정의 문턱값 미만이면, 상기 최초 문장 구역의 다음 문장 구역(1154)에 대한 OCR을 수행하고 의미 가치값 산출 단계(S3546c)부터 다시 수행하는 단계(S3548c)를 더 포함한다.
의미 가치값의 산출은 누적적으로 이루어질 수 있는바, 자연어 이해는 OCR이 이루어진 하나의 문장에만 적용되는 것이 아닌 방식으로, 즉, 이전에 OCR이 이루어졌던 문장을 새 문장과 결합하여 더 커진 문장 구역에 대하여 다시 적용되는 방식으로 이루어질 수 있기 때문이다.
이를 위하여, 단계(S3548c)는 상기 최초 문장 구역의 문장 부호 이후에 존재하는 다음 문장들을 포함하는 새로운 문장 구역들에 대하여 OCR을 순차적으로, 반복적으로 수행할 수 있다.
물론, 마지막 문장까지 OCR을 수행하여도 그 의미 가치값이 소정의 문턱값에 도달하지 못하는 경우, 상기 전체 문자에 의한 텍스트는 없는 것으로 검출될 수 있다.
이처럼 본 개시서의 전술한 단계들의 수행에 의하여 객체들을 촬영한 영상을 처리하는 컴퓨팅 장치가 그 영상에서 검출되는 객체들의 다양한 정보를 파악할 수 있다.
도면들에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치, 예컨대, 휴대 단말에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개의 장치들이 서로 연동된 것으로 구성될 수도 있다는 점이 이해될 것이다. 따라서 전술한 본 발명 방법의 각 단계는, 휴대 단말 외에도 통신부 및 프로세서를 내장한 짐벌(300)에 의하여 수행될 수 있는바, 이밖에도 하나의 컴퓨팅 장치가 직접 수행하거나 상기 하나의 컴퓨팅 장치가 상기 하나의 컴퓨팅 장치에 연동되는 타 컴퓨팅 장치로 하여금 수행하도록 지원(support)함으로써 수행될 수 있음이 자명하다.
지금까지 설명된 바와 같이 본 개시서의 방법 및 장치는 그 모든 실시 예 및 변형례에 걸쳐, 영상을 이용하여 하나 이상의 객체를 인식 및 추적할 수 있고, 객체 및 환경의 정보를 능동적으로 획득할 수 있으며, 특히, 객체의 상태 정보를 원거리에서 영상으로 획득할 수 있고, 객체가 상호작용하는 객체를 영상으로 판별하고, 객체 일부분에 대한 더 높은 해상도의 상세 영상을 원거리에서 획득할 수 있으며, 객체에 인쇄되어 있거나 디스플레이 등의 타 수단을 이용하여 출력하는 문자를 원거리에서 파악할 수 있어 휴대 가능 컴퓨팅 장치의, 영상을 이용한 원거리 입력이 가능해지는 장점이 있다.
이상, 본 개시서의 다양한 실시 예들에 관한 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 프로세서, 예컨대, 마이크로프로세서, 컨트롤러, 예컨대, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 마이크로컴퓨터, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 예컨대, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 예컨대, FPGA(field programmable gate array), PLU(programmable logic unit) 혹은 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 기타 인스트럭션(instruction)을 실행하고 응답할 수 있는 임의의 다른 장치, 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 인스트럭션(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치에 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 인스트럭션 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 기계 판독 가능 기록 매체에 저장될 수 있다.
더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 인스트럭션의 형태로 구현되어 기계 판독 가능 매체에 기록될 수 있다. 기계 판독 가능 매체는 프로그램 인스트럭션, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기계 판독 가능한 기록 매체에 기록되는 프로그램 인스트럭션은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD, Blu-ray와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 인스트럭션을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 인스트럭션의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 인스트럭션들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는 바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 인스트럭션을 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 인스트럭션들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 인스트럭션들을 전달받기 위한 키보드, 마우스, 기타 외부 입력 장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 본 개시서에 첨부된 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인 바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.

Claims (1)

  1. 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 영상을 처리하는 방법.
KR1020220178036A 2022-03-22 2022-12-19 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템 KR20230137814A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020220178036A KR20230137814A (ko) 2022-03-22 2022-12-19 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
PCT/KR2023/002098 WO2023182658A1 (ko) 2022-03-22 2023-02-14 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
EP23761742.8A EP4290478A1 (en) 2022-03-22 2023-02-14 Method for processing image acquired from imaging device linked with computing device, and system using same
PCT/KR2023/009345 WO2023224456A1 (ko) 2022-05-19 2023-07-03 데이터셋을 생성하기 위한 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220035465A KR102480238B1 (ko) 2022-03-22 2022-03-22 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
KR1020220178036A KR20230137814A (ko) 2022-03-22 2022-12-19 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220035465A Division KR102480238B1 (ko) 2022-03-22 2022-03-22 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템

Publications (1)

Publication Number Publication Date
KR20230137814A true KR20230137814A (ko) 2023-10-05

Family

ID=88101382

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220178036A KR20230137814A (ko) 2022-03-22 2022-12-19 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템

Country Status (3)

Country Link
EP (1) EP4290478A1 (ko)
KR (1) KR20230137814A (ko)
WO (1) WO2023182658A1 (ko)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080267504A1 (en) * 2007-04-24 2008-10-30 Nokia Corporation Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
KR101092820B1 (ko) 2009-09-22 2011-12-12 현대자동차주식회사 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템
KR102304701B1 (ko) 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
KR102007390B1 (ko) 2017-09-27 2019-10-08 이충열 짐벌
KR102420567B1 (ko) 2017-12-19 2022-07-13 삼성전자주식회사 음성 인식 장치 및 방법
CN110033481A (zh) 2018-01-10 2019-07-19 北京三星通信技术研究有限公司 用于进行图像处理的方法和设备
KR20190085719A (ko) * 2018-01-11 2019-07-19 이화여자대학교 산학협력단 영상에 포함된 객체 정보를 출력하는 점자 출력 시스템 및 장치
KR102298541B1 (ko) 2019-07-23 2021-09-07 엘지전자 주식회사 이미지 데이터에서 사용자를 인식하는 인공 지능 장치 및 그 방법
KR102305850B1 (ko) 2019-08-30 2021-09-28 엘지전자 주식회사 차량 내에서 인공 지능 기반의 음성 분리 방법 및 장치
KR102149051B1 (ko) * 2020-04-24 2020-08-28 주식회사 애자일소다 자기 신뢰도 정보를 이용한 ocr 기반 문서 분석 시스템 및 방법
KR20220006753A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR102211516B1 (ko) * 2020-08-21 2021-02-04 주식회사 애자일소다 가상 셀을 이용한 ocr 기반 문서 분석 시스템 및 방법
KR102480238B1 (ko) * 2022-03-22 2022-12-21 이충열 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템

Also Published As

Publication number Publication date
WO2023182658A1 (ko) 2023-09-28
EP4290478A1 (en) 2023-12-13

Similar Documents

Publication Publication Date Title
KR102222642B1 (ko) 이미지 내의 객체 검출을 위한 신경망
US11526713B2 (en) Embedding human labeler influences in machine learning interfaces in computing environments
Gong et al. Human pose estimation from monocular images: A comprehensive survey
US10083523B2 (en) Methods and apparatus for autonomous robotic control
US10572072B2 (en) Depth-based touch detection
Ding et al. Human posture recognition based on multiple features and rule learning
KR20230141688A (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
US20170046568A1 (en) Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis
Wan et al. 3D SMoSIFT: three-dimensional sparse motion scale invariant feature transform for activity recognition from RGB-D videos
CN105051755A (zh) 用于姿势识别的部位和状态检测
CN110069129B (zh) 确定系统和确定方法
US11816876B2 (en) Detection of moment of perception
KR20190130179A (ko) 미세한 표정변화 검출을 위한 2차원 랜드마크 기반 특징점 합성 및 표정 세기 검출 방법
Saif et al. A survey of the techniques for the identification and classification of human actions from visual data
Reyes et al. Face detection and recognition of the seven emotions via facial expression: Integration of machine learning algorithm into the nao robot
KR102480238B1 (ko) 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
KR20190096752A (ko) 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치
WO2022143314A1 (zh) 一种对象注册方法及装置
KR20230137814A (ko) 컴퓨팅 장치와 연동하는 촬영 장치로부터 획득되는 영상을 처리하는 방법 및 이를 이용한 시스템
CN113239915B (zh) 一种课堂行为的识别方法、装置、设备及存储介质
US11854308B1 (en) Hand initialization for machine learning based gesture recognition
KR102251076B1 (ko) 실내 이미지를 사용하여 설계도면을 추정하는 방법
Belattar et al. An embedded system-based hand-gesture recognition for human-drone interaction
CN113516665A (zh) 图像分割模型的训练方法、图像分割方法、装置、设备
EP4325481A1 (en) Method by which computing apparatus processes sound, method for processing image and sound, and systems using same