WO2020184890A1 - 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 - Google Patents

2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 Download PDF

Info

Publication number
WO2020184890A1
WO2020184890A1 PCT/KR2020/003063 KR2020003063W WO2020184890A1 WO 2020184890 A1 WO2020184890 A1 WO 2020184890A1 KR 2020003063 W KR2020003063 W KR 2020003063W WO 2020184890 A1 WO2020184890 A1 WO 2020184890A1
Authority
WO
WIPO (PCT)
Prior art keywords
target region
camera
user
dimensional
body part
Prior art date
Application number
PCT/KR2020/003063
Other languages
English (en)
French (fr)
Inventor
김석중
Original Assignee
주식회사 브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이터치 filed Critical 주식회사 브이터치
Priority to JP2021555246A priority Critical patent/JP7279975B2/ja
Priority to CN202080019997.9A priority patent/CN113557492B/zh
Publication of WO2020184890A1 publication Critical patent/WO2020184890A1/ko
Priority to US17/096,355 priority patent/US11294510B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • the present invention relates to a method, system, and non-transitory computer-readable recording medium for supporting object control using a 2D camera.
  • AR augmented reality
  • VR virtual reality
  • Korean Patent Application Publication No. 2012-126508 may be exemplified. According to this, it is composed of two or more image sensors disposed at different positions, and An image acquisition unit for photographing a user's body, a spatial coordinate calculation unit that calculates three-dimensional coordinate data of the user's body using an image received from the image acquisition unit, and a first spatial coordinate received from the spatial coordinate calculation unit And a touch position calculator for calculating contact coordinate data where a straight line connecting the first spatial coordinate and the second spatial coordinate meets the display surface using the second spatial coordinate and the contact coordinate received from the touch position calculating unit
  • a virtual touch device composed of a virtual touch processing unit that generates a command code for performing an operation set to correspond to the data and inputs it to the main control unit of the electronic device, (A) three-dimensional coordinate data (X1, Y1, Processing the three-dimensional coordinate data (X2, Y2, Z2) of Z1) and the center point of one eye to detect the display surface (C), the fingertip
  • the present inventor proposes a new and advanced technology that supports a user to efficiently and accurately select or control a target object for which he or she is intended by using only a conventional 2D camera without a 3D camera.
  • An object of the present invention is to solve all the problems of the prior art described above.
  • Another object of the present invention is to efficiently determine a control target area by using fewer resources.
  • a typical configuration of the present invention for achieving the above object is as follows.
  • a method of supporting object control using a two-dimensional camera comprising: acquiring a two-dimensional image of a user's body from a two-dimensional camera, and Determining a control target region with reference to a candidate target region specified based on two-dimensional relative coordinates corresponding to each of the 1 body part and the second body part, wherein the candidate target region and the control target region are the 2
  • a method of determining on a reference plane set based on the dimensional camera is provided.
  • a system supporting object control using a two-dimensional camera comprising: an image acquisition unit that obtains a two-dimensional image of a user's body from a two-dimensional camera, and the user in the two-dimensional image And a control target region determining unit configured to determine a control target region with reference to a candidate target region specified based on two-dimensional relative coordinates corresponding to each of the first body part and the second body part of, and the candidate target region and the control
  • a system is provided in which a target area is determined on a reference plane set based on the 2D camera.
  • the present invention it is possible to accurately determine a control target area conforming to the user's intention by using only information acquired through a 2D camera without using a precise sensing means such as a 3D camera.
  • FIG. 1 is a diagram showing in detail the internal configuration of an object control support system according to an embodiment of the present invention.
  • FIGS. 2 and 3 are diagrams exemplarily showing a configuration of determining a candidate target area using a 2D camera according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a configuration for determining a control target region according to the first embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a configuration for determining a control target region according to another embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a situation in which a control target area intended by a user is determined by using two or more 2D images each obtained from two or more 2D cameras according to another embodiment of the present invention.
  • control target area determination unit 120 control target area determination unit
  • control unit 140 control unit
  • the entire system may include a communication network, an object control support system 100, and a 2D camera.
  • a communication network may be configured regardless of a communication mode such as wired communication or wireless communication, and a local area network (LAN), a metropolitan area network (MAN), and a wide area communication network are used. It can be composed of various communication networks such as a wide area network (WAN).
  • the communication network referred to in this specification may be a publicly known Internet or World Wide Web (WWW).
  • WWW World Wide Web
  • the communication network is not necessarily limited thereto, and may include a known wired/wireless data communication network, a known telephone network, or a known wired/wireless television communication network in at least part thereof.
  • a communication network is a wireless data communication network, such as radio frequency (RF) communication, Wi-Fi communication, cellular (LTE, etc.) communication, Bluetooth communication (more specifically, Bluetooth Low Energy (BLE)). )), infrared communication, ultrasonic communication, and the like may be implemented in at least a portion thereof.
  • RF radio frequency
  • Wi-Fi Wi-Fi
  • cellular LTE, etc.
  • Bluetooth Bluetooth Low Energy
  • infrared communication ultrasonic communication
  • ultrasonic communication and the like may be implemented in at least a portion thereof.
  • the object control support system 100 may be a digital device equipped with a memory means and a microprocessor to have arithmetic capability.
  • the object control support system 100 may be a server system.
  • the object control support system 100 may be connected to each other through a 2D camera and a communication network or a predetermined processor (not shown), which will be described later.
  • a 2D image determines a control target area by referring to a candidate target area specified based on 2D relative coordinates corresponding to each of the user's first body part and the second body part in the 2D image, and
  • the candidate target region of and the control target region above may perform a function of being determined on a reference plane set based on the 2D camera.
  • the 2D relative coordinate may be a coordinate specified in a relative coordinate system associated with the 2D camera.
  • a two-dimensional coordinate system for example, the center of the lens is (0)
  • the above two-dimensional relative coordinate may be specified as the above relative coordinate system
  • the above two-dimensional relative coordinate may be a coordinate specified in the relative coordinate system.
  • the above body parts may include head, eyes, nose, mouth, hands, fingertips, fingers, feet, toes, toes, etc., and the body parts listed above It is not limited thereto, and may be changed to various body parts within a range capable of achieving the object of the present invention.
  • the above control target area may be determined on a reference plane set based on a 2D camera.
  • the reference plane set based on the above 2D camera is a plane of a predetermined size set around the 2D camera or at a position adjacent to (or within a predetermined distance) to the 2D camera. It may be a concept including a surface of a predetermined size, and the shape of the reference surface as above may be a flat surface or a curved surface, and may include a display screen, a printed paper, a wall, and the like.
  • the object control support system 100 has been described as above, but this description is illustrative, and at least some of the functions or components required for the object control support system 100 are external systems (not shown) as needed. It is obvious to those skilled in the art that it may be realized within or included in an external system.
  • the 2D camera may communicate with the object control support system 100 through a communication network or a predetermined processor, and performs a function of acquiring a 2D image of the user's body. can do.
  • various types of image sensors such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS) May be included.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • FIG. 1 is a diagram illustrating in detail the internal configuration of an object control support system 100 according to an embodiment of the present invention.
  • the object control support system 100 may include an image acquisition unit 110, a control target region determination unit 120, a communication unit 130, and a control unit 140.
  • the image acquisition unit 110, the control target region determination unit 120, the communication unit 130, and the control unit 140 may be program modules that communicate with an external system.
  • Such a program module may be included in the object control support system 100 in the form of an operating system, an application program module, or other program module, and may be physically stored in various known storage devices.
  • a program module may be stored in a remote storage device capable of communicating with the object control support system 100.
  • a program module includes routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present invention, but is not limited thereto.
  • the image acquisition unit 110 may perform a function of acquiring a 2D image of a user's body from a 2D camera.
  • the image acquisition unit 110 photographed a body including the user's eyes (eg, both eyes or main eyes) and fingers (eg, the tip of the index finger).
  • a dimensional image can be obtained.
  • control target region determining unit 120 is a candidate specified based on two-dimensional relative coordinates corresponding to each of the first body part and the second body part of the user in the two-dimensional image.
  • the control target area can be determined by referring to the target area.
  • the control target region determiner 120 may determine the candidate target region and the control target region above on a reference plane set based on the 2D camera.
  • the above candidate target area may be specified by a point at which the 2D camera is located and a virtual point on the virtual reference plane, and the 2D camera is located on the virtual reference plane.
  • the positional relationship between the point and the virtual point may be specified by the positional relationship between two-dimensional relative coordinates corresponding to each of the first body part and the second body part in the two-dimensional image.
  • FIGS. 2 and 3 are diagrams exemplarily showing a configuration of determining a candidate target area using a 2D camera according to an embodiment of the present invention.
  • the 2D camera according to the exemplary embodiment of the present invention may be included in an object display device, and may be disposed in a position adjacent to the object display device if necessary.
  • the display screen of the object display device according to an embodiment of the present invention may exist on the reference plane 300 set based on the 2D camera or may have a positional relationship matching each other.
  • objects of'a' to't' are displayed or printed on the display screen of the object display device.
  • objects displayed on the object display device according to the present invention may be displayed electronically, and may be displayed in various ways such as printing, engraving, embossing, etc., within the scope of achieving the object of the present invention. .
  • the object display device may be connected to the object control support system 100 through a communication network or a predetermined process, and the object to be controlled by the user It can perform the function of displaying.
  • the object display device includes a liquid crystal display (LCD), an ultra-thin liquid crystal display (TFT-LCD, Thin Film Transistor LCD), and a light emitting diode (LED). ), an organic light-emitting diode (OLED, Organic LED), an active organic light-emitting diode (AMOLED, Active Matrix OLED), a flexible display, a 3D display, and the like.
  • the control target area determination unit 120 is a relative coordinate of a user's eye 201 specified in a 2D image 200 obtained from a 2D camera.
  • the angle 205 between the straight line 203 connecting the two-dimensional relative coordinates of the user's fingertip 202 and the reference line 204 preset in the two-dimensional image may be specified.
  • the reference line 204 preset in the 2D image 200 is a horizontal line (or a vertical line) specified by the horizontal axis (or vertical axis) of the 2D image 200 , It may be a straight line parallel to a straight line connecting both eyes of the user in the 2D image 200.
  • the control target area determination unit 120 includes a point 301 at which a 2D camera is located on a reference plane 300 set based on a 2D camera.
  • the angle 305 formed by the virtual straight line 303 connecting the virtual point 302 and the predetermined reference line 304 is substantially the same as the angle 205 specified on the two-dimensional image 200 of FIG.
  • An area corresponding to the periphery of the virtual straight line 303 connecting the point 301 where the 2D camera is located and the virtual point 302 on the reference plane 300 306 can be specified as a candidate target area.
  • the predetermined reference line 304 specified on the reference plane 300 is a straight line parallel to the reference line 204 preset in the 2D image 200 or a 2D camera. It may be a straight line corresponding to the horizontal axis of the included object display device.
  • control target region determiner 120 may determine a control target region determined to meet the user's control intention by referring to the specified candidate target region.
  • the control target region determiner 120 may determine a region determined to be associated with a user's gesture among the above-specified candidate target regions as the control target region.
  • the user's gesture may include a gesture of moving the user's first body part or the second body part, for example, the user's finger being photographed by the 2D camera. It may include a gesture of moving the end according to the direction intended by the user.
  • FIG. 4 is a diagram illustrating a configuration for determining a control target region according to the first embodiment of the present invention.
  • a two-dimensional relative coordinate 202 corresponding to a user's second body part in a two-dimensional image is in a lower left direction
  • a partial region 307 located in a relatively lower right direction within the candidate target region 306 on the reference plane 300 may be determined as the control target region, and further , Among the two objects 308 and 309 located in the candidate target region 306, the object 309 located in the control target region 307 may be determined as an object to be controlled (or selected) by the user.
  • the object'i' 308 and the object't' 309 are included in the candidate target area 306 above, and the object't' is included in the control target area 307. Since only 309 is included, the object't' 309 can be determined as a control target object intended by the user.
  • control target area determination unit 120 may provide guide information that helps the user to recognize a candidate target area specified by the object control support system 100, and , After the above guide information is provided, an area determined to be associated with a user's gesture recognized may be determined as the control target area.
  • the control target region determination unit 120 when the reference plane is set in correspondence with the object display device, the control target region determination unit 120 according to an embodiment of the present invention highlights and displays the candidate target region itself on the object display device.
  • Guide information can be provided to a user by highlighting and displaying an object located in the area.
  • the control target region determining unit 120 recognizes a gesture performed by a user who is provided with the guide information to accurately specify the control target region to be controlled within the candidate target region.
  • a control target region may be determined.
  • the communication unit 130 may perform a function of enabling data transmission/reception from/to the image acquisition unit 110 and the control target region determination unit 120.
  • control unit 140 may perform a function of controlling the flow of data between the image acquisition unit 110, the control target region determining unit 120, and the communication unit 130. That is, the control unit 140 according to the present invention controls the data flow from/to the outside of the object control support system 100 or between each component of the object control support system 100, thereby controlling the image acquisition unit 110 ), the control target region determining unit 120 and the communication unit 130 may each perform a unique function.
  • the object control support system 100 is intended by the user based on information obtained from two or more two-dimensional images of the user's body each obtained from two or more two-dimensional cameras. It is also possible to determine the determined control target area.
  • the object control support system 100 acquires a first 2D image photographing a user's body from a first 2D camera, and obtains a user's body from the second 2D camera. It is possible to obtain a second 2D image photographed.
  • the object control support system 100 based on the two-dimensional relative coordinates corresponding to each of the user's first body part and the second body part in the first two-dimensional image.
  • the control target region by referring to both the first candidate target region to be set and the second candidate target region specified based on two-dimensional relative coordinates corresponding to each of the first body part and the second body part of the user in the second 2D image Can be determined.
  • the object control support system 100 may determine a region in which the first candidate target region and the second candidate target region are in common with each other as the control target region.
  • the control target region may be determined on a reference plane set based on the first 2D camera and the second 2D camera.
  • FIG. 5 is a diagram illustrating a configuration for determining a control target region according to another embodiment of the present invention.
  • the object control support system 100 is a user specified in the first 2D image 510 acquired from the first 2D camera.
  • the first angle between the straight line 513 connecting the relative coordinates of the eye 511 and the two-dimensional relative coordinates of the user's fingertip 512 and the reference line 514 preset in the first two-dimensional image 510 (515) can be specified.
  • the object control support system 100 is in the second 2D image 520 obtained from the second 2D camera.
  • a straight line 523 connecting the specified relative coordinates of the user's eye 521 and the two-dimensional relative coordinates of the user's fingertip 522 and a preset reference line 524 in the second two-dimensional image 520 The second angle 525 of can be specified.
  • the object control support system 100 includes a reference plane 530 set based on a first 2D camera and a second 2D camera.
  • the angle 533 formed by the first virtual straight line 532 connecting the point 531 where the first 2D camera is located and the first virtual point on the image and a predetermined first reference line is the first of FIG. 5A. 1
  • a first virtual point to be substantially equal to the first angle 515 specified on the 2D image 510 may be specified, and a point 531 at which the first 2D camera is positioned on the reference plane 530
  • An area 534 corresponding to the periphery of the first virtual straight line 532 connecting) and the first virtual point may be specified as the first candidate target area.
  • the first reference line specified on the reference plane 530 is a straight line parallel to the reference line 514 preset in the first two-dimensional image 510 or a horizontal axis of the object display device. It may be a straight line corresponding to.
  • the object control support system 100 includes a point 535 at which a second 2D camera is positioned on a reference plane 530 and a second virtual
  • the angle 537 formed by the second virtual straight line 536 connecting the point of and a predetermined second reference line is the second angle 525 specified on the second two-dimensional image 520 of FIG. 5B and A second virtual point to be substantially the same can be specified, and a second virtual straight line 536 connecting the point 535 where the second 2D camera is located on the reference plane 530 and the second virtual point
  • the area 538 corresponding to the periphery of may be specified as the second candidate target area.
  • the second reference line specified on the reference plane 530 is a straight line parallel to the reference line 524 preset in the second two-dimensional image 520 or a horizontal axis of the object display device. It may be a straight line corresponding to.
  • the object control support system 100 includes a first candidate target area 534 and a second candidate target area 538 on the reference plane 300.
  • a control target region Can be determined as a control target region, and further, an object to be controlled (or selected) by a user among objects displayed on the object display device in the control target region 539 Can be determined as
  • FIG. 6 is a diagram illustrating a situation in which a control target area intended by a user is determined by using two or more 2D images each obtained from two or more 2D cameras according to another embodiment of the present invention.
  • an object control support system 100 includes two or more two-dimensional cameras each obtained through two or more two-dimensional cameras 601 and 602 provided in the mobile device 600.
  • An arbitrary point 605 or the like outside the display screen of 600 may be determined as a control target area intended by the user.
  • the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded in the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of the program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

Abstract

본 발명의 일 태양에 따르면, 2차원 카메라를 이용하여 객체 제어를 지원하는 방법으로서, 2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 단계, 및 상기 2차원 이미지 내에서 상기 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하는 단계를 포함하고, 상기 후보 대상 영역 및 상기 제어 대상 영역은 상기 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는 방법이 제공된다.

Description

2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
본 발명은 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.
근래에 들어, 증강 현실(AR: Augmented Reality)이나 가상 현실(VR: Virtual Reality)에 관한 관심이 높아지고 관련 기술 분야의 연구 개발이 활발하게 진행됨에 따라, 사용자의 신체 부위를 이용하여 객체를 제어하는 다양한 기술들이 소개되고 있다.
이에 관한, 종래 기술의 일 예로서, 한국공개특허공보 제2012-126508호에 개시된 기술을 예로 들 수 있는데, 이에 따르면, 서로 다른 위치에 배치되는 2개 이상의 이미지 센서로 구성되며 상기 표시면 전방의 사용자 신체를 촬영하는 영상 획득부와, 상기 영상 획득부로부터 수신한 영상을 이용하여 상기 사용자 신체의 3차원 좌표 데이터를 산출하는 공간좌표 산출부와, 상기 공간 좌표 산출부로부터 수신한 제1 공간 좌표와 제2 공간 좌표를 이용하여 상기 제1 공간 좌표와 제2 공간 좌표를 연결하는 직선이 상기 표시면과 만나는 접점 좌표 데이터를 산출하는 터치 위치 산출부 및 상기 터치 위치 산출부로부터 수신된 상기 접점 좌표 데이터에 대응되도록 설정된 동작을 수행하는 명령 코드를 생성하여 상기 전자 기기의 주 제어부로 입력하는 가상 터치 처리부로 구성되는 가상 터치 장치를 통해, (A) 손가락 끝의 3차원 좌표 데이터(X1, Y1, Z1)와 한쪽 눈의 중심점의 3차원 좌표 데이터(X2, Y2, Z2)를 처리하여 디스플레이 표시면(C)과, 손가락 끝점(B)과, 한쪽 눈의 접점(A)을 각각 검출하는 단계와, (B) 상기 검출된 손가락 끝점의 깊이 변화, 궤적의 변화, 유지시간 및 변화의 속도 중 적어도 하나를 산출하는 단계와, (C) 산출된 손가락 끝점의 깊이 변화, 궤적의 변화, 유지 시간 및 변화의 속도 중 적어도 하나를 기반으로 전자 기기의 조작이 가능하고, 또한 터치 패널의 특정 부분을 터치하는 것과 같이 해당 영역을 선택하는 단계를 포함하는 것을 특징으로 하는 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법이 소개된 바 있다.
위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 객체를 선택하거나 제어하기 위해서는 3차원 카메라를 이용하여 사용자 신체 부위의 3차원 좌표를 획득하는 과정이 필수적으로 요구되었다. 하지만, 3차원 카메라는 그 자체 가격이 비쌀 뿐만 아니라 3차원 데이터 처리 과정에서 많은 지연이 발생하였고, 그 지연을 해결하기 위해서는 더 높은 성능의 연산 처리 장치(CPU) 등이 요구되어 전체적으로 가격이 더 높아지게 되었다.
이에 본 발명자는, 3차원 카메라 없이도 종래의 2차원 카메라만을 이용하여 사용자가 자신이 의도되는 대상 객체를 효율적이고 정확하게 선택 또는 제어할 수 있도록 지원하는 신규하고도 진보된 기술을 제안하는 바이다.
본 발명은, 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 3차원 카메라 등 정밀한 센싱 수단을 이용하지 않고 2차원 카메라를 통해 획득되는 정보만을 이용하여 사용자의 의도에 부합하는 제어 대상 영역을 정확하게 결정하는 것을 그 목적으로 한다.
또한, 본 발명은, 적은 리소스를 이용하여 제어 대상 영역을 효율적으로 결정하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 2차원 카메라를 이용하여 객체 제어를 지원하는 방법으로서, 2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 단계, 및 상기 2차원 이미지 내에서 상기 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하는 단계를 포함하고, 상기 후보 대상 영역 및 상기 제어 대상 영역은 상기 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 2차원 카메라를 이용하여 객체 제어를 지원하는 시스템으로서, 2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 이미지 획득부, 및 상기 2차원 이미지 내에서 상기 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하는 제어 대상 영역 결정부를 포함하고, 상기 후보 대상 영역 및 상기 제어 대상 영역은 상기 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 3차원 카메라 등 정밀한 센싱 수단을 이용하지 않고 2차원 카메라를 통해 획득되는 정보만을 이용하여 사용자의 의도에 부합하는 제어 대상 영역을 정확하게 결정할 수 있게 된다.
본 발명에 의하면, 적은 리소스를 이용하여 제어 대상 영역을 효율적으로 결정할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 객체 제어 지원 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 2 및 도 3은 본 발명의 일 실시예에 따라 2차원 카메라를 이용하여 후보 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 제1 실시예에 따라 제어 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따라 제어 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
도 6은 본 발명의 다른 실시예에 따라 둘 이상의 2차원 카메라로부터 각각 획득되는 둘 이상의 2차원 이미지를 이용하여 사용자에 의해 의도된 제어 대상 영역을 결정하는 상황을 예시적으로 나타내는 도면이다.
<부호의 설명>
100: 객체 제어 지원 시스템
110: 이미지 획득부
120: 제어 대상 영역 결정부
130: 통신부
140: 제어부
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
본 발명의 일 실시예에 따른 전체 시스템은 통신망, 객체 제어 지원 시스템(100) 및 2차원 카메라를 포함하여 구성될 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망은 무선 데이터 통신망으로서, 무선주파수(RF; Radio Frequency) 통신, 와이파이(WiFi) 통신, 셀룰러(LTE 등) 통신, 블루투스 통신(더 구체적으로는, 저전력 블루투스(BLE; Bluetooth Low Energy)), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 객체 제어 지원 시스템(100)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스일 수 있다. 이러한 객체 제어 지원 시스템(100)은 서버 시스템일 수 있다.
본 발명의 일 실시예에 따르면, 객체 제어 지원 시스템(100)은, 후술할 2차원 카메라와 통신망 또는 소정의 프로세서(미도시됨)를 통하여 서로 연결될 수 있으며, 2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하고, 2차원 이미지 내에서 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하고, 위의 후보 대상 영역 및 위의 제어 대상 영역은 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되도록 하는 기능을 수행할 수 있다.
여기서, 본 발명의 일 실시예에 따른 2차원 상대 좌표는, 2차원 카메라와 연관되는 상대 좌표계에서 특정되는 좌표일 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 2차원 카메라의 렌즈(또는 2차원 카메라에 의해 촬영된 2차원 이미지)를 중심으로 특정되는 2차원 좌표계(예를 들어, 렌즈의 중심이 (0,0))가 위의 상대 좌표계로 특정될 수 있고, 위의 2차원 상대 좌표는 그 상대 좌표계에서 특정되는 좌표일 수 있다.
또한, 본 발명의 일 실시예에 따르면, 위의 신체 부위에는, 머리, 눈, 코, 입, 손, 손 끝, 손가락, 발, 발 끝, 발가락 등이 포함될 수 있으며, 위의 열거된 신체 부위에만 한정되지 않고 본 발명의 목적을 달성할 수 있는 범위 내에서 다양한 신체 부위로 변경될 수 있다.
또한, 본 발명의 일 실시예에 따르면, 위의 제어 대상 영역은, 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정될 수 있다. 본 발명의 일 실시예에 따르면, 위의 2차원 카메라를 기준으로 하여 설정되는 기준면은 2차원 카메라를 중심으로 설정되는 소정 크기의 면 또는 2차원 카메라와 인접(또는 소정 거리 이내)한 위치에 존재하는 소정 크기의 면을 포함하는 개념일 수 있고, 위와 같은 기준면의 형상은 평면 또는 곡면일 수 있으며, 디스플레이 화면, 프린트된 종이, 벽 등을 포함할 수 있다.
본 발명에 따른 객체 제어 지원 시스템(100)의 구성과 기능에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 객체 제어 지원 시스템(100)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 객체 제어 지원 시스템(100)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 외부 시스템(미도시됨) 내에서 실현되거나 외부 시스템 내에 포함될 수도 있음은 당업자에게 자명하다.
다음으로, 본 발명의 일 실시예에 따른 2차원 카메라는 통신망 또는 소정의 프로세서에 의하여 객체 제어 지원 시스템(100)과 통신이 이루어질 수 있으며, 사용자의 신체에 관한 2차원 이미지를 획득하는 기능을 수행할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 위의 2차원 카메라에는 전하 결합 소자(CCD; Charge Coupled Device), 상보적 금속 산화막 반도체(CMOS; Complementary Metal-Oxide Semiconductor) 등의 다양한 유형의 이미지 센서가 포함될 수 있다.
객체 제어 지원 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 객체 제어 지원 시스템(100)의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 1은 본 발명의 일 실시예에 따른 객체 제어 지원 시스템(100)의 내부 구성을 상세하게 도시하는 도면이다.
도 1에 도시된 바와 같이, 객체 제어 지원 시스템(100)은, 이미지 획득부(110), 제어 대상 영역 결정부(120), 통신부(130) 및 제어부(140)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 이미지 획득부(110), 제어 대상 영역 결정부(120), 통신부(130) 및 제어부(140)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 객체 제어 지원 시스템(100)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 객체 제어 지원 시스템(100)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따른 이미지 획득부(110)는 2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 기능을 수행할 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 이미지 획득부(110)는 사용자의 눈(예를 들어, 양안 또는 주안) 및 손가락(예를 들어, 검지 손가락 끝)을 포함하는 신체를 촬영한 2차원 이미지를 획득할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는 2차원 이미지 내에서 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는 위의 후보 대상 영역 및 위의 제어 대상 영역을 2차원 카메라를 기준으로 하여 설정되는 기준면상에 결정할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 위의 후보 대상 영역은 가상의 기준면상에서 2차원 카메라가 위치하는 지점 및 가상의 지점에 의하여 특정될 수 있고, 가상의 기준면상에서 2차원 카메라가 위치하는 지점 및 가상의 지점 사이의 위치 관계는 2차원 이미지 내에서 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표 사이의 위치 관계에 의하여 특정될 수 있다.
도 2 및 도 3은 본 발명의 일 실시예에 따라 2차원 카메라를 이용하여 후보 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
도 2 및 도 3의 실시예에서, 본 발명의 일 실시예에 따른 2차원 카메라는 객체 표시 디바이스에 포함될 수 있고, 필요에 따라 그 객체 표시 디바이스와 인접한 위치에 배치될 수 있다. 이 경우에, 본 발명의 일 실시예에 따른 객체 표시 디바이스의 표시 화면은, 2차원 카메라를 기준으로 하여 설정되는 기준면(300)상에 존재하거나 서로 매칭되는 위치 관계를 가질 수 있다.
또한, 도 2 및 도 3의 실시예에서, 객체 표시 디바이스의 표시 화면상에는 'a' 내지 't'의 객체가 디스플레이 또는 프린트되는 상황을 가정해 볼 수 있다. 또한, 본 발명에 따른 객체 표시 디바이스상에 표시되는 객체는 전자적으로 디스플레이될 수 있을 뿐만 아니라 본 발명의 목적을 달성할 수 있는 범위 내에서 프린팅, 음각, 양각 등과 같은 다양한 방식으로도 표시될 수 있다.
또한, 도 2 및 도 3의 실시예에서, 본 발명의 일 실시예에 따른 객체 표시 디바이스는 객체 제어 지원 시스템(100)과 통신망 또는 소정의 프로세스를 통하여 연결될 수 있으며, 사용자에 의해 제어될 객체를 표시하는 기능을 수행할 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면 객체 표시 디바이스는 액정 표시 장치(LCD, Liquid Crystal Display), 초박막 액정 표시 장치(TFT-LCD, Thin Film Transistor LCD), 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic LED), 능동형 유기 발광 다이오드(AMOLED, Active Matrix OLED), 플렉시블 디스플레이(Flexible Display) 및 3차원 디스플레이 등으로 구성될 수 있다.
먼저, 도 2를 참조하면, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는 2차원 카메라로부터 획득되는 2차원 이미지(200) 내에서 특정되는 사용자의 눈(201)의 상대 좌표와 사용자의 손가락 끝(202)의 2차원 상대 좌표를 서로 잇는 직선(203)과 2차원 이미지 내에서 기설정되는 기준선(204) 사이의 각도(205)를 특정할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 2차원 이미지(200) 내에서 기설정되는 기준선(204)은, 2차원 이미지(200)의 가로축(또는 세로축)에 의해 특정되는 수평선(또는 수직선)이거나, 2차원 이미지(200) 내에서 사용자의 양안을 잇는 직선과 평행한 직선일 수 있다.
다음으로, 도 3을 참조하면, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는 2차원 카메라를 기준으로 하여 설정되는 기준면(300)상에서 2차원 카메라가 위치하는 지점(301)과 가상의 지점(302)을 잇는 가상의 직선(303)과 소정의 기준선(304)이 이루는 각도(305)가 도 2의 2차원 이미지(200)상에서 특정되는 각도(205)와 실질적으로 동일하게 되도록 하는 가상의 지점(302)을 특정할 수 있고, 기준면(300)상에서 2차원 카메라가 위치하는 지점(301)과 가상의 지점(302)을 잇는 가상의 직선(303)의 주변부에 해당하는 영역(306)을 후보 대상 영역으로서 특정할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 기준면(300)상에서 특정되는 소정의 기준선(304)은, 2차원 이미지(200) 내에서 기설정되는 기준선(204)과 평행한 직선이거나 2차원 카메라를 포함하는 객체 표시 디바이스의 가로축에 대응하는 직선일 수 있다.
또한, 본 발명의 일 실시예에 따르면, 제어 대상 영역 결정부(120)는 위의 특정되는 후보 대상 영역을 참조하여 사용자에 제어 의도에 부합하는 것으로 판단되는 제어 대상 영역을 결정할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 제어 대상 영역 결정부(120)는 위의 특정되는 후보 대상 영역 중 사용자의 제스처와 연관되는 것으로 판단되는 영역을 제어 대상 영역으로서 결정할 수 있다. 여기서, 본 발명의 일 실시예에 따르면, 사용자의 제스처는 사용자의 제1 신체 부위 또는 제2 신체 부위를 움직이는 제스처를 포함할 수 있으며, 예를 들면, 사용자가 2차원 카메라에 의해 촬영되고 있는 손가락 끝을 자신이 의도한 방향에 따라 이동시키는 제스처를 포함할 수 있다.
도 4는 본 발명의 제1 실시예에 따라 제어 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는, 2차원 이미지 내에서 사용자의 제2 신체 부위에 해당하는 2차원 상대 좌표(202)가 왼쪽 아래 방향(202')으로 이동하는 제스처가 감지되는 것에 대응하여, 기준면(300)상의 후보 대상 영역(306) 내에서 상대적으로 오른쪽 아래 방향에 위치하는 부분 영역(307)을 제어 대상 영역으로서 결정할 수 있고, 나아가, 후보 대상 영역(306)에 위치하는 두 객체(308, 309) 중 제어 대상 영역(307)에 위치하는 객체(309)를 사용자에 의해 제어(또는 선택)될 객체로서 결정할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 위의 후보 대상 영역(306)에는 객체 'i'(308) 및 객체 't'(309)가 포함되고, 제어 대상 영역(307)에는 객체 't'(309)만이 포함되므로, 객체 't'(309)가 사용자에 의해 의도되는 제어 대상 객체로서 결정될 수 있게 된다.
한편, 본 발명의 일 실시예에 따르면, 제어 대상 영역 결정부(120)는 사용자가 객체 제어 지원 시스템(100)에 의하여 특정되고 있는 후보 대상 영역을 인지할 수 있도록 돕는 가이드 정보를 제공할 수 있고, 위의 가이드 정보가 제공된 후에 인식되는 사용자의 제스처와 연관되는 것으로 판단되는 영역을 제어 대상 영역으로서 결정할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는, 객체 표시 디바이스에 대응하여 기준면이 설정되는 경우에, 객체 표시 디바이스 상에서 후보 대상 영역 자체를 강조하여 표시하거나 후보 대상 영역 내에 위치하고 있는 객체를 강조하여 표시함으로써 사용자에게 가이드 정보를 제공할 수 있다. 또한, 본 발명의 일 실시예에 따른 제어 대상 영역 결정부(120)는, 가이드 정보를 제공받은 사용자가 후보 대상 영역 내에서 자신이 제어하고자 하는 제어 대상 영역을 정확하게 특정하기 위하여 행하는 제스처를 인식함으로써, 후보 대상 영역 내에서 제어 대상 영역을 결정할 수 있다.
한편, 본 발명의 일 실시예에 따른 통신부(130)는 이미지 획득부(110) 및 제어 대상 영역 결정부(120) 로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(140)는 이미지 획득부(110), 제어 대상 영역 결정부(120) 및 통신부(130) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(140)는 객체 제어 지원 시스템(100)의 외부로부터의/로의 데이터 흐름 또는 객체 제어 지원 시스템(100)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 이미지 획득부(110), 제어 대상 영역 결정부(120) 및 통신부(130)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
한편, 본 발명의 다른 실시예에 따르면, 객체 제어 지원 시스템(100)은 둘 이상의 2차원 카메라로부터 각각 획득되는 사용자의 신체에 관한 둘 이상의 2차원 이미지로부터 얻어지는 정보에 기초하여 사용자에 의하여 의도된 것으로 판단되는 제어 대상 영역을 결정할 수도 있다.
구체적으로, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은, 제1 2차원 카메라로부터 사용자의 신체를 촬영한 제1 2차원 이미지를 획득하고, 제2 2차원 카메라로부터 사용자의 신체를 촬영한 제2 2차원 이미지를 획득할 수 있다.
다음으로, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은, 제1 2차원 이미지 내에서 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 제1 후보 대상 영역과 제2 2차원 이미지 내에서 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 제2 후보 대상 영역을 모두 참조하여 제어 대상 영역을 결정할 수 있다. 예를 들면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은, 제1 후보 대상 영역 및 제2 후보 대상 영역이 서로 공통되는 영역을 제어 대상 영역으로서 결정할 수 있다. 여기서, 본 발명의 다른 실시예에 따르면, 제어 대상 영역은 제1 2차원 카메라 및 제2 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정될 수 있다.
도 5는 본 발명의 다른 실시예에 따라 제어 대상 영역을 결정하는 구성을 예시적으로 나타내는 도면이다.
먼저, 도 5의 (a)를 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은 제1 2차원 카메라로부터 획득되는 제1 2차원 이미지(510) 내에서 특정되는 사용자의 눈(511)의 상대 좌표와 사용자의 손가락 끝(512)의 2차원 상대 좌표를 서로 잇는 직선(513)과 제1 2차원 이미지(510) 내에서 기설정되는 기준선(514) 사이의 제1 각도(515)를 특정할 수 있다.
다음으로, 계속하여, 도 5의 (b)를 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은 제2 2차원 카메라로부터 획득되는 제2 2차원 이미지(520) 내에서 특정되는 사용자의 눈(521)의 상대 좌표와 사용자의 손가락 끝(522)의 2차원 상대 좌표를 서로 잇는 직선(523)과 제2 2차원 이미지(520) 내에서 기설정되는 기준선(524) 사이의 제2 각도(525)를 특정할 수 있다.
다음으로, 도 5의 (c)를 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은 제1 2차원 카메라 및 제2 2차원 카메라를 기준으로 하여 설정되는 기준면(530)상에서 제1 2차원 카메라가 위치하는 지점(531)과 제1 가상의 지점을 잇는 제1 가상의 직선(532)과 소정의 제1 기준선이 이루는 각도(533)가 도 5의 (a)의 제1 2차원 이미지(510)상에서 특정되는 제1 각도(515)와 실질적으로 동일하게 되도록 하는 제1 가상의 지점을 특정할 수 있고, 기준면(530)상에서 제1 2차원 카메라가 위치하는 지점(531)과 제1 가상의 지점을 잇는 제1 가상의 직선(532)의 주변에 해당하는 영역(534)을 제1 후보 대상 영역으로서 특정할 수 있다. 여기서, 본 발명의 다른 실시예에 따르면, 기준면(530)상에서 특정되는 제1 기준선은, 제1 2차원 이미지(510) 내에서 기설정되는 기준선(514)과 평행한 직선 또는 객체 표시 디바이스의 가로축에 대응하는 직선일 수 있다.
계속하여, 도 5의 (c)를 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은 기준면(530)상에서 제2 2차원 카메라가 위치하는 지점(535)과 제2 가상의 지점을 잇는 제2 가상의 직선(536)과 소정의 제2 기준선이 이루는 각도(537)가 도 5의 (b)의 제2 2차원 이미지(520)상에서 특정되는 제2 각도(525)와 실질적으로 동일하게 되도록 하는 제2 가상의 지점을 특정할 수 있고, 기준면(530)상에서 제2 2차원 카메라가 위치하는 지점(535)과 제2 가상의 지점을 잇는 제2 가상의 직선(536)의 주변에 해당하는 영역(538)을 제2 후보 대상 영역으로서 특정할 수 있다. 여기서, 본 발명의 다른 실시예에 따르면, 기준면(530)상에서 특정되는 제2 기준선은, 제2 2차원 이미지(520) 내에서 기설정되는 기준선(524)과 평행한 직선 또는 객체 표시 디바이스의 가로축에 대응하는 직선일 수 있다.
계속하여, 도 5의 (c)를 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은 기준면(300)상에서 제1 후보 대상 영역(534)과 제2 후보 대상 영역(538)이 서로 공통되는 영역(539)을 제어 대상 영역으로서 결정할 수 있고, 나아가, 객체 표시 디바이스상에 표시되는 객체 중 제어 대상 영역(539)에 위치하는 객체를 사용자에 의해 제어(또는 선택)될 객체로서 결정할 수 있다.
즉, 본 발명의 다른 실시예에 따르면, 둘 이상의 2차원 카메라로부터 각각 획득되는 둘 이상의 2차원 이미지를 이용함으로써 사용자의 제어 의도를 보다 더 정확하고 정밀하게 인식할 수 있게 된다.
도 6은 본 발명의 다른 실시예에 따라 둘 이상의 2차원 카메라로부터 각각 획득되는 둘 이상의 2차원 이미지를 이용하여 사용자에 의해 의도된 제어 대상 영역을 결정하는 상황을 예시적으로 나타내는 도면이다.
도 6을 참조하면, 본 발명의 다른 실시예에 따른 객체 제어 지원 시스템(100)은, 모바일 디바이스(600)에 구비된 둘 이상의 2차원 카메라(601, 602)를 통해 각각 획득되는 둘 이상의 2차원 이미지로부터 얻어지는 정보를 이용하여, 모바일 디바이스(600)의 표시 화면상에 표시되고 있는 아이콘(603), 모바일 디바이스(600)의 표시 화면상에 표시되고 있는 전자 지도 내의 특정 지점(604), 모바일 디바이스(600)의 표시 화면 밖의 임의의 지점(605) 등을 사용자에 의해 의도되는 제어 대상 영역인 것으로 결정할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (11)

  1. 2차원 카메라를 이용하여 객체 제어를 지원하는 방법으로서,
    2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 단계, 및
    상기 2차원 이미지 내에서 상기 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하는 단계를 포함하고,
    상기 후보 대상 영역 및 상기 제어 대상 영역은 상기 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는
    방법.
  2. 제1항에 있어서,
    상기 2차원 상대 좌표는, 상기 2차원 카메라와 연관되는 상대 좌표계에서 특정되는
    방법.
  3. 제1항에 있어서,
    상기 결정 단계에서, 상기 후보 대상 영역은, 상기 기준면상에서 상기 2차원 카메라가 위치하는 지점 및 가상의 지점에 의하여 특정되고,
    상기 기준면상에서 상기 2차원 카메라가 위치하는 지점과 상기 가상의 지점 사이의 위치 관계는, 상기 2차원 이미지 내에서 상기 제1 신체 부위 및 상기 제2 신체 부위 각각에 대응하는 2차원 상대 좌표 사이의 위치 관계에 의하여 특정되는
    방법.
  4. 제1항에 있어서,
    상기 결정 단계에서, 상기 후보 대상 영역 중 상기 사용자의 제스처와 연관되는 것으로 판단되는 영역을 상기 제어 대상 영역으로서 결정하는
    방법.
  5. 제4항에 있어서,
    상기 제스처에는, 상기 사용자가 상기 제1 신체 부위 또는 상기 제2 신체 부위를 움직이는 제스처가 포함되는 방법.
  6. 제4항에 있어서,
    상기 결정 단계는,
    상기 사용자가 상기 후보 대상 영역을 인지할 수 있도록 돕는 가이드 정보를 제공하는 단계, 및
    상기 가이드 정보가 제공된 후에 인식되는 상기 사용자의 제스처와 연관되는 것으로 판단되는 영역을 상기 제어 대상 영역으로서 결정하는 단계를 포함하는
    방법.
  7. 제1항에 있어서,
    상기 획득 단계에서, 제1 2차원 카메라로부터 사용자의 신체에 관한 제1 2차원 이미지를 획득하고, 제2 2차원 카메라로부터 상기 사용자의 신체에 관한 제2 2차원 이미지를 획득하고,
    상기 결정 단계에서, 상기 제1 2차원 이미지 내에서 상기 사용자의 상기 제1 신체 부위 및 상기 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 제1 후보 대상 영역과 상기 제2 2차원 이미지 내에서 상기 사용자의 상기 제1 신체 부위 및 상기 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 제2 후보 대상 영역을 참조하여 제어 대상 영역을 결정하고,
    상기 제1 후보 대상 영역, 상기 제2 후보 대상 영역 및 상기 제어 대상 영역은 상기 제1 2차원 카메라 및 상기 제2 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는
    방법.
  8. 제1항에 있어서,
    상기 결정 단계에서, 상기 제1 후보 대상 영역 및 상기 제2 후보 대상 영역이 서로 공통되는 영역을 상기 제어 대상 영역으로서 결정하는
    방법.
  9. 제1항에 있어서,
    상기 결정 단계에서, 상기 제어 대상 영역에 포함되는 객체를 상기 사용자에 의해 제어될 객체로서 결정하는
    방법.
  10. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  11. 2차원 카메라를 이용하여 객체 제어를 지원하는 시스템으로서,
    2차원 카메라로부터 사용자의 신체에 관한 2차원 이미지를 획득하는 이미지 획득부, 및
    상기 2차원 이미지 내에서 상기 사용자의 제1 신체 부위 및 제2 신체 부위 각각에 대응하는 2차원 상대 좌표에 기초하여 특정되는 후보 대상 영역을 참조하여 제어 대상 영역을 결정하는 제어 대상 영역 결정부를 포함하고,
    상기 후보 대상 영역 및 상기 제어 대상 영역은 상기 2차원 카메라를 기준으로 하여 설정되는 기준면상에서 결정되는
    시스템.
PCT/KR2020/003063 2019-03-11 2020-03-04 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 WO2020184890A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021555246A JP7279975B2 (ja) 2019-03-11 2020-03-04 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
CN202080019997.9A CN113557492B (zh) 2019-03-11 2020-03-04 利用二维摄像头来辅助对象控制的方法、系统和非暂时性计算机可读记录介质
US17/096,355 US11294510B2 (en) 2019-03-11 2020-11-12 Method, system and non-transitory computer-readable recording medium for supporting object control by using a 2D camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0027623 2019-03-11
KR1020190027623A KR102191061B1 (ko) 2019-03-11 2019-03-11 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/096,355 Continuation US11294510B2 (en) 2019-03-11 2020-11-12 Method, system and non-transitory computer-readable recording medium for supporting object control by using a 2D camera

Publications (1)

Publication Number Publication Date
WO2020184890A1 true WO2020184890A1 (ko) 2020-09-17

Family

ID=72426713

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003063 WO2020184890A1 (ko) 2019-03-11 2020-03-04 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Country Status (5)

Country Link
US (1) US11294510B2 (ko)
JP (1) JP7279975B2 (ko)
KR (1) KR102191061B1 (ko)
CN (1) CN113557492B (ko)
WO (1) WO2020184890A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225342B1 (ko) * 2019-02-13 2021-03-09 주식회사 브이터치 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037053A (ko) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
KR20120095084A (ko) * 2011-02-18 2012-08-28 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR20130124816A (ko) * 2012-05-07 2013-11-15 엘지전자 주식회사 전자 장치 및 가상 터치스크린을 제공하는 방법
KR20140029864A (ko) * 2012-08-30 2014-03-11 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60133386T2 (de) 2000-05-17 2009-04-02 Koninklijke Philips Electronics N.V. Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
ITTV20100133A1 (it) * 2010-10-08 2012-04-09 Teleios Srl Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico
KR20120126508A (ko) 2011-05-12 2012-11-21 김석중 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
US9846486B2 (en) * 2013-06-27 2017-12-19 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
CN109448090B (zh) * 2018-11-01 2023-06-16 北京旷视科技有限公司 图像处理方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037053A (ko) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
KR20120095084A (ko) * 2011-02-18 2012-08-28 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR20130124816A (ko) * 2012-05-07 2013-11-15 엘지전자 주식회사 전자 장치 및 가상 터치스크린을 제공하는 방법
KR20140029864A (ko) * 2012-08-30 2014-03-11 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법

Also Published As

Publication number Publication date
US11294510B2 (en) 2022-04-05
JP2022525326A (ja) 2022-05-12
CN113557492B (zh) 2024-02-23
KR20200108660A (ko) 2020-09-21
CN113557492A (zh) 2021-10-26
JP7279975B2 (ja) 2023-05-23
KR102191061B1 (ko) 2020-12-15
US20210064160A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
WO2018151449A1 (en) Electronic device and methods for determining orientation of the device
WO2012111976A2 (ko) 표시면에 포인터를 사용하지 않는 가상 터치 장치
WO2013162236A1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
WO2013162235A1 (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
WO2013009040A2 (ko) 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
WO2013048054A1 (en) Method of operating gesture based communication channel and portable terminal system for supporting the same
WO2012111998A2 (ko) 포인터를 사용하지 않는 가상 터치 장치
WO2012154001A2 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
WO2012134069A2 (ko) 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
WO2013180446A1 (ko) 프로젝터를 통해 표시되는 정보를 이용하여 가상터치를 수행하는 원격 조작 장치 및 방법
WO2016064073A1 (ko) 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
WO2014178693A1 (ko) 복수의 디바이스를 매칭시키는 방법, 그리고 상기 매칭이 가능하게끔 하여 주는 디바이스 및 서버 시스템
WO2020060157A1 (ko) 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2020017890A1 (en) System and method for 3d association of detected objects
WO2013025011A1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
WO2020184890A1 (ko) 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2015199470A1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
WO2018076720A1 (zh) 单手操控方法及操控系统
WO2021244650A1 (zh) 控制方法、装置、终端及存储介质
WO2020166837A1 (ko) 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2015064991A2 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
KR20130085094A (ko) 유저 인터페이스 장치 및 유저 인터페이스 제공 방법
WO2018066902A1 (en) Consistent spherical photo and video orientation correction
WO2015152487A1 (ko) 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2021177674A1 (ko) 2차원 이미지로부터 사용자의 제스처를 추정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20771024

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021555246

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20771024

Country of ref document: EP

Kind code of ref document: A1