WO2017164584A1 - Hmd device capable of gesture-based user authentication and gesture-based user authentication method for hmd device - Google Patents

Hmd device capable of gesture-based user authentication and gesture-based user authentication method for hmd device Download PDF

Info

Publication number
WO2017164584A1
WO2017164584A1 PCT/KR2017/002930 KR2017002930W WO2017164584A1 WO 2017164584 A1 WO2017164584 A1 WO 2017164584A1 KR 2017002930 W KR2017002930 W KR 2017002930W WO 2017164584 A1 WO2017164584 A1 WO 2017164584A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
pattern recognition
hand
gesture pattern
Prior art date
Application number
PCT/KR2017/002930
Other languages
French (fr)
Korean (ko)
Inventor
박지만
예정민
Original Assignee
주식회사 다날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다날 filed Critical 주식회사 다날
Publication of WO2017164584A1 publication Critical patent/WO2017164584A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • the present invention relates to a technology that enables a user to easily perform user authentication in a head mounted display (HMD) device capable of implementing virtual reality (VR).
  • HMD head mounted display
  • VR virtual reality
  • a representative device capable of implementing VR is a head mounted display (HMD) device, which is a device that allows a user to see a game screen through a display in front of his eyes after wearing it on his head like glasses.
  • HMD head mounted display
  • the HMD device As the HMD device is widely spread, it is expected that in the near future, the user will develop various forms such as purchasing game items or performing online shopping while wearing the HMD device.
  • the HMD (Head Mounted Display) device capable of gesture-based user authentication and the gesture-based user authentication method of the HMD device according to the present invention store predetermined first figure information previously designated for user authentication and then store the information on the front of the HMD device.
  • the camera captures the movement of the user's hand and the external environment through the camera, and then performs object tracking on the movement of the user's hand from the captured image captured by the camera.
  • the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other so that both figure information is the same. If it is determined that the user can complete authentication, the HMD device does not have a separate input device. To support the user's authentication process easily.
  • Gesture-based user authentication capable HMD (Head Mounted Display) device is attached to the front of the HMD device, a camera capable of shooting in the external environment, n (n is a predetermined for the user authentication) If a user authentication command is applied under the control of an application installed in the HMD device and the figure information storage unit storing the number of natural figures), the camera is driven to obtain a captured image of the external environment. As the user moves his / her hand, when the external environment and the user's hand are photographed together through the camera, object tracking of the user's hand movement is performed from the photographed image captured by the camera.
  • HMD Head Mounted Display
  • a figure information generation unit for generating figure information corresponding to the movement trajectory of the user's hand and the teeth of the user's hand
  • n pieces of figure information corresponding to a locus are generated, when n figure information corresponding to the movement trajectory of the user's hand is compared with the n first figure information, it is determined that both figure information correspond to each other.
  • a gesture-based user authentication method of an HMD device having a camera attached to a front surface stores n-type first figure information in which n (n is a natural number) previously designated for user authentication is stored. If the user authentication command is applied by the control of the application installed in the HMD device, maintaining the wealth, the camera is driven to obtain a captured image of the external environment, and as the user moves his hand, When the external environment and the user's hand are photographed together, object tracking of the movement of the user's hand is performed from the captured image captured by the camera to generate figure information corresponding to the movement trajectory of the user's hand. And n pieces of figure information corresponding to the movement trajectory of the user's hand, are generated. When compared to the generated corresponding to the movement path of the hand of n shape information and said n number of first shape information determined to match, the amount of graphic information, and a step to complete the user authentication.
  • the HMD (Head Mounted Display) device capable of gesture-based user authentication and the gesture-based user authentication method of the HMD device according to the present invention store predetermined first figure information previously designated for user authentication and then store the information on the front of the HMD device.
  • the camera captures the movement of the user's hand and the external environment through the camera, and then performs object tracking on the movement of the user's hand from the captured image captured by the camera.
  • the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other so that both figure information is the same. If it is determined that the user can complete authentication, the HMD device does not have a separate input device. Can also assist the user in the authentication process.
  • HMD head mounted display
  • FIG 2 and 3 are views for explaining the operation of the HMD device capable of gesture-based user authentication according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a gesture-based user authentication method of an HMD device according to an embodiment of the present invention.
  • HMD head mounted display
  • the HMD device 110 capable of gesture-based user authentication may include a camera 111, a figure information storage unit 112, a figure information generation unit 113, and a user authentication. Part 114 is included.
  • the camera 111 is attached to the front of the HMD device 110, it is configured to allow the shooting of the external environment.
  • the figure information storage unit 112 stores n pieces of first figure information (n is a natural number) previously designated for user authentication.
  • the figure information generator 113 drives the camera 111 to obtain a captured image of the external environment, and the user makes a hand.
  • the user tracks the movement of the user's hand from the captured image captured by the camera 111 to perform the user's hand. Shape information corresponding to the movement trajectory of the hand is generated.
  • the user authentication unit 114 may generate n figure information and the n first figure information generated corresponding to the movement trajectory of the user's hand. In comparison, when it is determined that both figures of information match, the user authentication is completed.
  • the HMD device 110 capable of gesture-based user authentication may further include an image display control unit 115 and a gesture pattern recognition area display unit 116.
  • the image display controller 115 displays a captured image of the external environment captured by the camera 111 in real time on the display.
  • the gesture pattern recognition area display unit 116 displays a plurality of predetermined gesture pattern recognition areas at a predetermined point on the display.
  • the figure information generating unit 113 may include a figure information table holding unit 117, a gesture pattern recognition region extracting unit 118, and a figure information extracting unit 119.
  • the figure information table holding unit 117 stores and maintains a figure information table in which different figure information predetermined in advance with respect to combinations of a plurality of different gesture pattern recognition areas are recorded.
  • the gesture pattern recognition area extractor 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111 and photographs through the camera among the selected gesture pattern recognition areas. At least one gesture pattern recognition region overlapping the point where the user's hand is located is extracted from the captured image.
  • the figure information extracting unit 119 may combine the at least one gesture pattern recognition region and correspond to the combination of the at least one gesture pattern recognition region from the figure information table.
  • the recorded figure information is extracted to generate the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
  • different index values may be pre-assigned to the plurality of predetermined gesture pattern recognition regions.
  • the predetermined different figure information may be recorded in the figure information table corresponding to combinations of index values for a plurality of different gesture pattern recognition areas, and the figure information extracting unit 119 may be configured to include at least the figure.
  • the index value assigned to the at least one gesture pattern recognition region is checked, the identified index values are combined, and the combination of the identified index values is determined from the figure information table.
  • Correspondingly recorded figure information may be extracted to generate the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
  • the gesture pattern recognition region extractor 118 may include a hand region detector 120 and a hand region position tracker 121.
  • the hand region detector 120 checks color values of a plurality of pixels constituting each of the plurality of image frames with respect to the plurality of image frames constituting the captured image photographed by the camera 111, and thus, the plurality of pixels. Among them, a set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color is detected as the user's hand region.
  • the hand region position tracking unit 121 tracks a change in position of each of the plurality of image frames with respect to the set of at least one pixel detected by the hand region of the user, and thus changes the position of the user's hand. Perform object tracking for
  • the gesture pattern recognition region extraction unit 118 overlaps the point where the user's hand is located on the captured image photographed by the camera among the plurality of selected gesture pattern recognition regions.
  • the portion may be extracted as the at least one gesture pattern recognition only for a gesture pattern recognition area that exceeds a selected area size ratio in comparison with the size of each of the plurality of selected gesture pattern recognition areas.
  • FIG 2 and 3 are views for explaining the operation of the HMD device 110 capable of gesture-based user authentication according to an embodiment of the present invention.
  • the HMD device 110 capable of gesture-based user authentication according to the present invention is worn on the user's head, as shown in FIG. 2, so that a display exists in front of both eyes of the user and the user through the display. To show the screen to the user.
  • the HMD device 110 may include a camera 111 attached to the front of the HMD device 110 and capable of photographing an external environment.
  • the figure information storage unit 112 may store n pieces of first figure information specified in advance for user authentication.
  • figure information previously designated for the user authentication is figure information for shape "3", figure information for shape "4".
  • Geometry information for "5" shape, " “Shape information about the shape” In the case of the figure information on the shape, the information may be stored in the figure information storage unit 112 as shown in Table 1 below.
  • the HMD device 110 is installed in the HMD device 110.
  • a user authentication command may be applied to the HMD device 110 by the control of a predetermined application such as a payment related application.
  • the figure information generator 113 may drive the camera 111 to acquire a captured image of an external environment.
  • the image display control unit 115 may display a captured image of the external environment captured by the camera 111 in real time on a display, so that a user may control the external environment through the display. .
  • the gesture pattern recognition area display unit 116 displays a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, and 216 at a predetermined point on the display. , 217).
  • the gesture pattern recognition area display unit 116 may include a plurality of gesture pattern recognition areas as shown at 210 in the center of the display when a captured image of an external environment captured by the camera 111 is being displayed on the display.
  • the selected gesture pattern recognition areas 211, 212, 213, 214, 215, 216, and 217 may be displayed.
  • the user looks at the plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217 displayed on the display, and uses his or her hand to select the plurality of selected gestures. Gesture in the form of drawing the same figure information as the five first figure informations stored in the figure information storage unit 112 on the pattern recognition areas 211, 212, 213, 214, 215, 216, 217. By doing so, the user authentication process can be performed.
  • the user's hand since the user's hand is photographed and displayed together with the captured image of the external environment captured by the camera 111, the user looks at his or her hand displayed on the display, It may be controlled to move on the selected gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217.
  • the figure information generation unit 113 captures the external environment and the user's hand together through the camera 111, and then the user's hand from the captured image captured by the camera 111.
  • the object tracking of the movement of the user may be performed to generate figure information corresponding to the movement trajectory of the user's hand.
  • the figure information generating unit 113 may include a figure information table holding unit 117, a gesture pattern recognition region extracting unit 118, and a figure information extracting unit 119.
  • the figure information table holding unit 117 may store and maintain a figure information table in which different figure information predetermined in advance with respect to combinations of a plurality of different gesture pattern recognition areas are recorded.
  • different index values are pre-assigned to the plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217, and the figure information table
  • the predetermined different figure information corresponding to combinations of index values for a plurality of different gesture pattern recognition areas may be recorded.
  • an index value of “1” may be assigned to the gesture pattern recognition region 1 211 among the plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216, and 217.
  • the index value "2" may be assigned to the gesture pattern recognition area 2212, and the index value "3" may be assigned to the gesture pattern recognition area 3213, and the gesture pattern recognition may be performed.
  • An index value of "4" may be assigned to the area 4 214, an index value of "5" may be assigned to the gesture pattern recognition area 5 215, and a gesture pattern recognition area 6 (216). ),
  • An index value of "6” may be assigned, and an index value of "7” may be assigned to the gesture pattern recognition area 7 217.
  • the gesture pattern recognition region extracting unit 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition regions 211, 212,. At least one gesture pattern recognition region overlapping a point where the user's hand is located may be extracted from the captured images captured by the camera 111 among the 213, 214, 215, 216, and 217.
  • the gesture pattern recognition region extraction unit 118 may include a hand region detection unit 120 and a hand region position tracking unit 121 to perform object tracking on the movement of the user's hand.
  • the hand region detector 120 checks color values of a plurality of pixels constituting each of the plurality of image frames with respect to the plurality of image frames constituting the captured image photographed by the camera 111, and thus, the plurality of pixels. Among them, a set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color may be detected as the user's hand region.
  • the hand region position tracking unit 121 tracks a change in position of each of the plurality of image frames with respect to the set of at least one pixel detected by the hand region of the user, thereby controlling the position of the user's hand.
  • Object tracking for movement can be performed.
  • the hand region detector 120 checks the color values of the plurality of pixels constituting the "image frame 1" and then the color value of the plurality of pixels corresponding to the selected first color value range associated with the skin color. At least one set of pixels having a may be detected as the user's hand region in the "image frame 1".
  • the hand region detector 120 checks the color values of the plurality of pixels constituting “image frame 2”, and then the color value among the plurality of pixels corresponds to the selected first color value range associated with the skin color. At least one pixel set having a value may be detected as the user's hand region in the "image frame 2".
  • the hand region detector 120 checks the color values of the plurality of pixels constituting “image frame 3”, and then the color value of the plurality of pixels corresponds to the selected first color value range associated with the skin color. At least one pixel set having a value may be detected as the user's hand region in the "image frame 3".
  • the hand region position tracking unit 121 according to the time order in the "image frame 1", “image frame 2", “image frame 3" for the set of at least one pixel detected by the user's hand region. By tracking the position change, the object tracking for the movement of the user's hand can be performed.
  • the hand region position tracking unit 121 tracks the position change of the user's hand region extracted from each image frame in the order of "image frame 1", “image frame 2", and "image frame 3". Object tracking of the movement of the user's hand may be performed.
  • the gesture pattern recognition region extracting unit 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition regions 211. At least one gesture pattern recognition region overlapping a point where the user's hand is located may be extracted from the captured images captured by the camera 111 among 212, 213, 214, 215, 216, and 217.
  • the user may touch his or her hand with a gesture pattern recognition area 1 among a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, and 217.
  • a gesture pattern recognition region 2 212
  • gesture pattern recognition region 3 213
  • gesture pattern recognition region 4 214
  • gesture pattern recognition region 5 215
  • the area extractor 118 performs object tracking on the movement of the user's hand from the captured image captured by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, and 215.
  • At least one gesture pattern recognition region overlapping with the point where the user's hand is located on the captured image captured by the camera 111 among the 216, 217, gesture pattern recognition region 1 211 and gesture pattern recognition region 2 ( 212), gesture pattern recognition Station 3 213, it is possible to extract gesture pattern recognition area 4 214, the gesture pattern recognition area 5 215.
  • the gesture pattern recognition region extraction unit 118 is the camera 111 of the plurality of predetermined gesture pattern recognition regions (211, 212, 213, 214, 215, 216, 217)
  • a plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216 , 217 When extracting the at least one gesture pattern recognition region overlapping with the point where the user's hand is located on the captured image photographed by using, a plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216 , 217, a portion overlapping with the point where the user's hand is located on the captured image captured by the camera 111 includes a plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216, and 217. Only the gesture pattern recognition area that exceeds the selected area size ratio in comparison to each size may be extracted as the at least one gesture pattern recognition area.
  • the gesture pattern recognition area extraction unit 118 may include the plurality of selected gesture pattern recognition areas 211, 212, 213, and 214. , 215, 216, and 217, which overlap the point where the user's hand is located, may be extracted as the at least one gesture pattern recognition area only for a gesture pattern recognition area that exceeds 60% of the size of each gesture pattern recognition area. Can be.
  • the figure information extraction unit 119 checks an index value assigned to the at least one gesture pattern recognition region. After combining the identified index values, the figure information corresponding to the combination of the identified index values is extracted from the figure information table, and the figure information corresponding to the movement trajectory of the user's hand is extracted. Can be generated as
  • the gesture pattern recognition area extractor 118 may include the gesture pattern recognition area 1 211, the gesture pattern recognition area 2 212, the gesture pattern recognition area 3 213, and the gesture pattern recognition area. If 4 (214) and gesture pattern recognition area 5 (215) are extracted, the figure information extracting unit 119 checks the index value "1" assigned to gesture pattern recognition area 1 (211), and gesture pattern recognition area. Confirms the index value "2" assigned to 2 (212), checks the index value "3" assigned to gesture pattern recognition area 3 (213), and assigns it to gesture pattern recognition area 4 (214).
  • the user's hand movement as indicated by reference numeral 321 was applied by the user, the hand movement as indicated by reference numeral 322 was applied, and the hand movement as indicated by reference numeral 323 was applied.
  • a hand movement such as 324 is applied, and a hand movement such as 325 is applied, the figure information generating unit 113 of the user's hand such as 321, 322, 323, 324, and 325 is applied.
  • Shape information for shape "3” five shape information corresponding to movement trajectory, shape information for shape "4", shape information for shape "5", " "Shape information about the shape and” "You can create the shape information about the shape.
  • the user authentication unit 114 when five figure information corresponding to the movement trajectory of the user's hand is generated, the user authentication unit 114 generates five figure information generated corresponding to the movement trajectory of the user's hand and the table 1 as shown in Table 1 below.
  • the user authentication may be completed.
  • the HMD device 110 capable of gesture-based user authentication stores predetermined first figure information previously designated for user authentication, and then captures an external environment in front of the HMD device 110. 111, by recording the movement of the user's hand and the external environment through the camera 111 and performing object tracking of the movement of the user's hand from the captured image taken by the camera 111 After generating figure information corresponding to the movement trajectory of the user's hand, the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other to determine that both figure information is identical.
  • the user authentication can be completed, the user can easily proceed with the authentication process even in the HMD device 110 without a separate input device I can support them.
  • FIG. 4 is a flowchart illustrating a gesture-based user authentication method of an HMD device having a camera attached to a front surface according to an embodiment of the present invention.
  • a figure information storage unit in which n pieces of first figure information (n is a natural number) designated in advance for user authentication, is stored.
  • step S430 when n pieces of figure information corresponding to the movement trajectory of the user's hand are generated, n shape information corresponding to the movement trajectory of the user's hand is compared with the n first figure information. If it is determined that both figure information match, the user authentication is completed.
  • the gesture-based user authentication method of the HMD device displaying a captured image of the external environment taken by the camera in real time on a display and selected on the display
  • the method may further include displaying a plurality of predetermined gesture pattern recognition regions at the point.
  • step S420 storing and maintaining a figure information table in which different figure information predetermined in advance is recorded corresponding to combinations of a plurality of different gesture pattern recognition areas, and photographing images photographed by the camera.
  • At least one gesture pattern recognition region overlapping a point where the user's hand is located on the captured image photographed by the camera among the plurality of selected gesture pattern recognition regions by performing object tracking on the movement of the user's hand from Extracting and extracting the at least one gesture pattern recognition area, the combination of the at least one gesture pattern recognition area is recorded corresponding to the combination of the at least one gesture pattern recognition area from the figure information table.
  • Extracted figure information Corresponding to the type information on a movement path of the hand of the user may include the step of generating a figure information.
  • different index values are pre-assigned to the plurality of predetermined gesture pattern recognition regions, and the index information for the plurality of different gesture pattern recognition regions is assigned to the figure information table.
  • the predetermined different figure information for the combinations may be recorded correspondingly.
  • the generating of the extracted figure information as figure information corresponding to a movement trajectory of the user's hand may include: an index allocated to the at least one gesture pattern recognition region when the at least one gesture pattern recognition region is extracted; Determine a value, combine the checked index values, extract figure information recorded corresponding to the identified index value combination from the figure information table, and move the extracted figure information to the user's hand; It may be generated by the figure information corresponding to the.
  • the extracting of the at least one gesture pattern recognition area may include each of the plurality of image frames with respect to a plurality of image frames constituting a captured image photographed by the camera. Identifying a color value of a plurality of pixels constituting a plurality of pixels, the set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color among the plurality of pixels as a user's hand region Detecting an object and tracking a change in position in each of the plurality of image frames with respect to the set of at least one pixel detected by the user's hand region to track the movement of the user's hand. It may include the step.
  • the extracting of the at least one gesture pattern recognition region may include positioning the user's hand on a captured image photographed by the camera among the plurality of predetermined gesture pattern recognition regions. A portion overlapping with a point may be extracted as the at least one gesture pattern recognition region only for a gesture pattern recognition region in which a portion overlapping with the size of each of the selected gesture pattern recognition regions exceeds a predetermined area size ratio.
  • the gesture-based user authentication method of the HMD device according to the embodiment of the present invention has been described above with reference to FIG. 4.
  • the gesture-based user authentication method of the HMD device according to an embodiment of the present invention may correspond to the configuration of the operation of the HMD device 110 capable of gesture-based user authentication described with reference to FIGS. 1 to 3. Therefore, a detailed description thereof will be omitted.
  • the gesture-based user authentication method of the HMD device may be implemented as a computer program stored in a storage medium for execution by combining with a computer.
  • the gesture-based user authentication method of the HMD device may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a technology wherein: predetermined pieces of first figure information are stored in order to perform user authentication; a camera capable of photographing an external environment is mounted on the front side of an HMD device, so as to photograph the external environment and a movement of a user's hand through the camera; object tracking for a movement of the user's hand is performed from an image photographed through the camera, so as to generate figure information corresponding to a movement trajectory of the user's hand; the figure information corresponding to the movement trajectory of the user's hand is compared with the predetermined pieces of first figure information; and then the user authentication can be completed when it is determined that the figure information matches the predetermined pieces of first figure information as a result of the comparison, whereby a user can easily perform an authentication process even in an HMD device which does not have a separate input unit.

Description

제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법HMD device capable of gesture based user authentication and gesture based user authentication method of the HMD device
본 발명은 가상 현실(Virtual Reality: VR) 등을 구현할 수 있는 HMD(Head Mounted Display) 장치에서 사용자가 손쉽게 사용자 인증을 수행할 수 있도록 지원하는 기술에 대한 것이다.The present invention relates to a technology that enables a user to easily perform user authentication in a head mounted display (HMD) device capable of implementing virtual reality (VR).
최근, 인터넷이 널리 보급됨에 따라, 온라인을 통한 상품 구입 및 온라인을 통한 뱅킹 등과 같은 서비스의 활용이 급증하고 있다.Recently, with the widespread use of the Internet, the use of services such as purchase of goods online and banking through online is increasing rapidly.
이러한 온라인 기반의 상품 구입 및 뱅킹 서비스 등에서는 대금 결제 또는 대금 송금에 있어서, 사용자 인증이 반드시 포함되어야 한다는 점에서, 이러한 온라인 상에서 전자적 방법으로 사용자를 인증하기 위한 보안 기술들이 다수 존재하고 있다.In such online-based product purchase and banking services, user authentication must be included in payment or remittance, and there are a number of security technologies for authenticating users in such an online way.
최근에는 스마트폰이나 태블릿 PC와 같은 모바일 기기의 보급이 증대됨에 따라 이러한 모바일 기기에서 활용할 수 있는 사용자 인증 기술들도 다수 등장하고 있다.Recently, as the spread of mobile devices such as smartphones and tablet PCs increases, a number of user authentication technologies that can be utilized in these mobile devices are also emerging.
미래 기술의 하나로 급 부상하고 있는 가상 현실(Virtual Reality: VR)에 대한 관심이 증대됨에 따라 게임 등에서 이러한 VR을 활용할 수 있는 VR 관련 기기와 소프트웨어도 다수 등장하고 있다.As interest in Virtual Reality (VR), which is rapidly emerging as one of the future technologies, is increasing, many VR-related devices and software that can utilize such VR in games and the like are appearing.
VR을 구현할 수 있는 대표적인 기기로는 HMD(Head Mounted Display) 장치가 있는데, HMD 장치는 사용자가 안경처럼 머리에 착용한 후 두 눈 앞에 있는 디스플레이를 통해서 게임 화면 등을 볼 수 있는 장치이다.A representative device capable of implementing VR is a head mounted display (HMD) device, which is a device that allows a user to see a game screen through a display in front of his eyes after wearing it on his head like glasses.
이러한 HMD 장치의 보급이 활발하게 이루어짐에 따라, 가까운 미래에는 사용자가 HMD 장치를 착용한 상태로 게임 아이템을 구입하거나 온라인 쇼핑을 수행하는 등 다양한 형태로 발전할 것으로 예상된다.As the HMD device is widely spread, it is expected that in the near future, the user will develop various forms such as purchasing game items or performing online shopping while wearing the HMD device.
하지만, 아직까지는 HMD 장치의 보급이 활발하게 이루어지지 않았다는 점에서 사용자가 HMD 장치를 착용한 상태로 온라인 상에서 물품 등을 구입하는 경우, 이에 대한 사용자 인증을 수행하기 위한 적절한 기술이 도입되지 않은 상태이다.However, since the distribution of HMD devices has not been actively made yet, when a user purchases an item online while wearing the HMD device, an appropriate technology for performing user authentication has not been introduced. .
기존의 데스크탑 PC나 모바일 기기를 이용하여 사용자 인증을 수행하는 방법으로는 비밀번호 입력 방식, 터치 제스처 패턴 인식 방식 등 다양한 방법이 존재하였지만, 이러한 사용자 인증 기술들은 소정의 입력 기기를 통해 사용자로부터 비밀번호 등을 입력 받는 방식이라는 점에서, 별도의 입력 기기를 제공하지 않는 HMD 장치에서는 이러한 사용자 인증 기법을 도입하기 어려운 점이 존재한다.There are various methods of authenticating a user using a desktop PC or a mobile device, such as a password input method and a touch gesture pattern recognition method. However, these user authentication technologies use a predetermined input device to obtain a password from a user. In terms of an input receiving method, it is difficult to introduce such a user authentication scheme in an HMD device that does not provide a separate input device.
따라서, HMD 장치에서 물품 구매나 대금 송금 등과 같이 사용자 인증이 필요할 때, HMD 장치의 특징을 고려하여 적절하게 사용자 인증을 수행할 수 있도록 지원하는 새로운 형태의 사용자 인증 기술에 대한 연구가 필요하다.Therefore, when a user authentication is required in the HMD device, such as purchase of goods or money transfer, a study on a new type of user authentication technology that supports proper user authentication in consideration of the characteristics of the HMD device is required.
본 발명에 따른 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법은 사용자 인증을 위해서 미리 지정된 소정의 제1 도형 정보들을 저장해 둔 후 HMD 장치 전면에 외부 환경의 촬영이 가능한 카메라를 탑재함으로써, 상기 카메라를 통해 상기 외부 환경과 사용자의 손의 움직임을 촬영한 후 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성한 후 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보와 상기 미리 지정되어 있는 제1 도형 정보들을 상호 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 사용자 인증을 완료할 수 있어, 별도의 입력 장치가 없는 HMD 장치에서도 사용자가 손쉽게 인증 과정을 진행할 수 있도록 지원하고자 한다.The HMD (Head Mounted Display) device capable of gesture-based user authentication and the gesture-based user authentication method of the HMD device according to the present invention store predetermined first figure information previously designated for user authentication and then store the information on the front of the HMD device. By mounting a camera capable of shooting the external environment, the camera captures the movement of the user's hand and the external environment through the camera, and then performs object tracking on the movement of the user's hand from the captured image captured by the camera. After generating the shape information corresponding to the movement trajectory of the user's hand, the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other so that both figure information is the same. If it is determined that the user can complete authentication, the HMD device does not have a separate input device. To support the user's authentication process easily.
본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치는 상기 HMD 장치의 전면에 부착되어, 외부 환경의 촬영이 가능한 카메라, 사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있는 도형 정보 저장부, 상기 HMD 장치에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 상기 카메라를 구동시켜 상기 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 상기 카메라를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성하는 도형 정보 생성부 및 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료하는 사용자 인증부를 포함한다.Gesture-based user authentication capable HMD (Head Mounted Display) device according to an embodiment of the present invention is attached to the front of the HMD device, a camera capable of shooting in the external environment, n (n is a predetermined for the user authentication) If a user authentication command is applied under the control of an application installed in the HMD device and the figure information storage unit storing the number of natural figures), the camera is driven to obtain a captured image of the external environment. As the user moves his / her hand, when the external environment and the user's hand are photographed together through the camera, object tracking of the user's hand movement is performed from the photographed image captured by the camera. A figure information generation unit for generating figure information corresponding to the movement trajectory of the user's hand and the teeth of the user's hand When n pieces of figure information corresponding to a locus are generated, when n figure information corresponding to the movement trajectory of the user's hand is compared with the n first figure information, it is determined that both figure information correspond to each other. It includes a user authentication unit for completing the user authentication.
또한, 본 발명의 일실시예에 따른 전면에 카메라가 부착된 HMD 장치의 제스처 기반의 사용자 인증 방법은 사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있는 도형 정보 저장부를 유지하는 단계, 상기 HMD 장치에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 상기 카메라를 구동시켜 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 상기 카메라를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성하는 단계 및 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료하는 단계를 포함한다.In addition, a gesture-based user authentication method of an HMD device having a camera attached to a front surface according to an embodiment of the present invention stores n-type first figure information in which n (n is a natural number) previously designated for user authentication is stored. If the user authentication command is applied by the control of the application installed in the HMD device, maintaining the wealth, the camera is driven to obtain a captured image of the external environment, and as the user moves his hand, When the external environment and the user's hand are photographed together, object tracking of the movement of the user's hand is performed from the captured image captured by the camera to generate figure information corresponding to the movement trajectory of the user's hand. And n pieces of figure information corresponding to the movement trajectory of the user's hand, are generated. When compared to the generated corresponding to the movement path of the hand of n shape information and said n number of first shape information determined to match, the amount of graphic information, and a step to complete the user authentication.
본 발명에 따른 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법은 사용자 인증을 위해서 미리 지정된 소정의 제1 도형 정보들을 저장해 둔 후 HMD 장치 전면에 외부 환경의 촬영이 가능한 카메라를 탑재함으로써, 상기 카메라를 통해 상기 외부 환경과 사용자의 손의 움직임을 촬영한 후 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성한 후 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보와 상기 미리 지정되어 있는 제1 도형 정보들을 상호 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 사용자 인증을 완료할 수 있어, 별도의 입력 장치가 없는 HMD 장치에서도 사용자가 손쉽게 인증 과정을 진행할 수 있도록 지원할 수 있다.The HMD (Head Mounted Display) device capable of gesture-based user authentication and the gesture-based user authentication method of the HMD device according to the present invention store predetermined first figure information previously designated for user authentication and then store the information on the front of the HMD device. By mounting a camera capable of shooting the external environment, the camera captures the movement of the user's hand and the external environment through the camera, and then performs object tracking on the movement of the user's hand from the captured image captured by the camera. After generating the shape information corresponding to the movement trajectory of the user's hand, the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other so that both figure information is the same. If it is determined that the user can complete authentication, the HMD device does not have a separate input device. Can also assist the user in the authentication process.
도 1은 본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치의 구조를 도시한 도면이다.1 is a diagram illustrating a structure of a head mounted display (HMD) device capable of gesture-based user authentication according to an embodiment of the present invention.
도 2와 도 3은 본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치의 동작을 설명하기 위한 도면이다.2 and 3 are views for explaining the operation of the HMD device capable of gesture-based user authentication according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 HMD 장치의 제스처 기반의 사용자 인증 방법을 도시한 순서도이다.4 is a flowchart illustrating a gesture-based user authentication method of an HMD device according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치의 구조를 도시한 도면이다.1 is a diagram illustrating a structure of a head mounted display (HMD) device capable of gesture-based user authentication according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)는 카메라(111), 도형 정보 저장부(112), 도형 정보 생성부(113) 및 사용자 인증부(114)를 포함한다.Referring to FIG. 1, the HMD device 110 capable of gesture-based user authentication according to an embodiment of the present invention may include a camera 111, a figure information storage unit 112, a figure information generation unit 113, and a user authentication. Part 114 is included.
카메라(111)는 HMD 장치(110)의 전면에 부착되어, 외부 환경의 촬영이 가능하도록 구성된다.The camera 111 is attached to the front of the HMD device 110, it is configured to allow the shooting of the external environment.
도형 정보 저장부(112)에는 사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있다.The figure information storage unit 112 stores n pieces of first figure information (n is a natural number) previously designated for user authentication.
도형 정보 생성부(113)는 HMD 장치(110)에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 카메라(111)를 구동시켜 상기 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 카메라(111)를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성한다.When the user authentication command is applied under the control of an application installed in the HMD device 110, the figure information generator 113 drives the camera 111 to obtain a captured image of the external environment, and the user makes a hand. In response to the movement, when the external environment and the user's hand are photographed together through the camera 111, the user tracks the movement of the user's hand from the captured image captured by the camera 111 to perform the user's hand. Shape information corresponding to the movement trajectory of the hand is generated.
사용자 인증부(114)는 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료한다.When n pieces of figure information corresponding to the movement trajectory of the user's hand are generated, the user authentication unit 114 may generate n figure information and the n first figure information generated corresponding to the movement trajectory of the user's hand. In comparison, when it is determined that both figures of information match, the user authentication is completed.
이때, 본 발명의 일실시예에 따르면, 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)는 영상 표시 제어부(115) 및 제스처 패턴 인식 영역 표시부(116)를 더 포함할 수 있다.In this case, according to an embodiment of the present invention, the HMD device 110 capable of gesture-based user authentication may further include an image display control unit 115 and a gesture pattern recognition area display unit 116.
영상 표시 제어부(115)는 카메라(111)를 통해 촬영되는 상기 외부 환경에 대한 촬영 영상을 디스플레이 상에 실시간으로 표시한다.The image display controller 115 displays a captured image of the external environment captured by the camera 111 in real time on the display.
제스처 패턴 인식 영역 표시부(116)는 상기 디스플레이 상의 선정된(predetermined) 지점에 복수의 선정된 제스처 패턴 인식 영역들을 표시한다.The gesture pattern recognition area display unit 116 displays a plurality of predetermined gesture pattern recognition areas at a predetermined point on the display.
이때, 도형 정보 생성부(113)는 도형 정보 테이블 유지부(117), 제스처 패턴 인식 영역 추출부(118) 및 도형 정보 추출부(119)를 포함할 수 있다.In this case, the figure information generating unit 113 may include a figure information table holding unit 117, a gesture pattern recognition region extracting unit 118, and a figure information extracting unit 119.
도형 정보 테이블 유지부(117)는 복수의 서로 다른 제스처 패턴 인식 영역의 조합들에 대해 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있는 도형 정보 테이블을 저장하여 유지한다.The figure information table holding unit 117 stores and maintains a figure information table in which different figure information predetermined in advance with respect to combinations of a plurality of different gesture pattern recognition areas are recorded.
제스처 패턴 인식 영역 추출부(118)는 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출한다.The gesture pattern recognition area extractor 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111 and photographs through the camera among the selected gesture pattern recognition areas. At least one gesture pattern recognition region overlapping the point where the user's hand is located is extracted from the captured image.
도형 정보 추출부(119)는 상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역을 조합한 후 상기 도형 정보 테이블로부터 상기 적어도 하나의 제스처 패턴 인식 영역의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성한다.When the at least one gesture pattern recognition region is extracted, the figure information extracting unit 119 may combine the at least one gesture pattern recognition region and correspond to the combination of the at least one gesture pattern recognition region from the figure information table. The recorded figure information is extracted to generate the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
이때, 본 발명의 일실시예에 따르면, 상기 복수의 선정된 제스처 패턴 인식 영역들에는 서로 다른 인덱스 값이 미리 할당되어 있을 수 있다.In this case, according to an embodiment of the present invention, different index values may be pre-assigned to the plurality of predetermined gesture pattern recognition regions.
이때, 상기 도형 정보 테이블에는 복수의 서로 다른 제스처 패턴 인식 영역에 대한 인덱스 값의 조합들에 대해 상기 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있을 수 있고, 도형 정보 추출부(119)는 상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역에 할당되어 있는 인덱스 값을 확인하고, 상기 확인된 인덱스 값을 조합한 후 상기 도형 정보 테이블로부터 상기 확인된 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성할 수 있다.In this case, the predetermined different figure information may be recorded in the figure information table corresponding to combinations of index values for a plurality of different gesture pattern recognition areas, and the figure information extracting unit 119 may be configured to include at least the figure. When one gesture pattern recognition region is extracted, the index value assigned to the at least one gesture pattern recognition region is checked, the identified index values are combined, and the combination of the identified index values is determined from the figure information table. Correspondingly recorded figure information may be extracted to generate the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
또한, 본 발명의 일실시예에 따르면, 제스처 패턴 인식 영역 추출부(118)는 손 영역 검출부(120) 및 손 영역 위치 추적부(121)를 포함할 수 있다.In addition, according to an embodiment of the present invention, the gesture pattern recognition region extractor 118 may include a hand region detector 120 and a hand region position tracker 121.
손 영역 검출부(120)는 카메라(111)를 통해 촬영된 촬영 영상을 구성하는 복수의 영상 프레임들에 대해서 상기 복수의 영상 프레임들 각각을 구성하는 복수의 화소들의 색상 값을 확인하여 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소의 집합을 상기 사용자의 손 영역으로 검출한다.The hand region detector 120 checks color values of a plurality of pixels constituting each of the plurality of image frames with respect to the plurality of image frames constituting the captured image photographed by the camera 111, and thus, the plurality of pixels. Among them, a set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color is detected as the user's hand region.
손 영역 위치 추적부(121)는 상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 상기 복수의 영상 프레임들 각각에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행한다.The hand region position tracking unit 121 tracks a change in position of each of the plurality of image frames with respect to the set of at least one pixel detected by the hand region of the user, and thus changes the position of the user's hand. Perform object tracking for
또한, 본 발명의 일실시예에 따르면, 제스처 패턴 인식 영역 추출부(118)는 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 부분이 상기 복수의 선정된 제스처 패턴 인식 영역들 각각의 크기와 대비하여 선정된 영역 크기 비율을 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식으로 추출할 수 있다.In addition, according to an embodiment of the present invention, the gesture pattern recognition region extraction unit 118 overlaps the point where the user's hand is located on the captured image photographed by the camera among the plurality of selected gesture pattern recognition regions. The portion may be extracted as the at least one gesture pattern recognition only for a gesture pattern recognition area that exceeds a selected area size ratio in comparison with the size of each of the plurality of selected gesture pattern recognition areas.
이하에서는 도 2와 도 3에 도시된 도면을 참조하여 본 발명에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)의 동작에 대해 예를 들어 상세히 설명하기로 한다.Hereinafter, the operation of the HMD device 110 capable of gesture-based user authentication according to the present invention will be described in detail with reference to the drawings illustrated in FIGS. 2 and 3.
도 2와 도 3은 본 발명의 일실시예에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)의 동작을 설명하기 위한 도면이다.2 and 3 are views for explaining the operation of the HMD device 110 capable of gesture-based user authentication according to an embodiment of the present invention.
우선, 본 발명에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)는 도 2에 도시된 그림과 같이, 사용자의 머리에 착용되어, 사용자의 두 눈 전면에 디스플레이가 존재하여 상기 디스플레이를 통해 사용자에게 화면을 표시해 줄 수 있다.First, the HMD device 110 capable of gesture-based user authentication according to the present invention is worn on the user's head, as shown in FIG. 2, so that a display exists in front of both eyes of the user and the user through the display. To show the screen to the user.
이때, 본 발명에 따른 HMD 장치(110)에는 HMD 장치(110)의 전면에 부착되어, 외부 환경의 촬영이 가능한 카메라(111)를 포함할 수 있다.In this case, the HMD device 110 according to the present invention may include a camera 111 attached to the front of the HMD device 110 and capable of photographing an external environment.
그리고, 도형 정보 저장부(112)에는 사용자 인증을 위해서 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있을 수 있다.In addition, the figure information storage unit 112 may store n pieces of first figure information specified in advance for user authentication.
관련해서, 상기 n을 5라고 가정하고, 도 3의 도면부호 310에 도시된 바와 같이, 상기 사용자 인증을 위해서 미리 지정된 도형 정보가 "3" 모양에 대한 도형 정보, "4" 모양에 대한 도형 정보, "5" 모양에 대한 도형 정보, "
Figure PCTKR2017002930-appb-I000001
" 모양에 대한 도형 정보, "
Figure PCTKR2017002930-appb-I000002
" 모양에 대한 도형 정보라고 하는 경우, 도형 정보 저장부(112)에는 하기의 표 1과 같이 정보가 저장되어 있을 수 있다.
In relation to this, assuming that n is 5, and as shown by reference numeral 310 of FIG. 3, figure information previously designated for the user authentication is figure information for shape "3", figure information for shape "4". , Geometry information for "5" shape, "
Figure PCTKR2017002930-appb-I000001
"Shape information about the shape,"
Figure PCTKR2017002930-appb-I000002
In the case of the figure information on the shape, the information may be stored in the figure information storage unit 112 as shown in Table 1 below.
순번turn 제1 도형 정보First figure information
1One "3" 모양에 대한 도형 정보Shape info for shape "3"
22 "4" 모양에 대한 도형 정보Shape info for shape "4"
33 "5" 모양에 대한 도형 정보Geometry information for "5" shape
44 "
Figure PCTKR2017002930-appb-I000003
" 모양에 대한 도형 정보
"
Figure PCTKR2017002930-appb-I000003
"About Shapes for Shapes
55 "
Figure PCTKR2017002930-appb-I000004
" 모양에 대한 도형 정보
"
Figure PCTKR2017002930-appb-I000004
"About Shapes for Shapes
만약, 사용자가 HMD 장치(110)를 착용한 상태로 게임을 하다가 게임 아이템을 구매하거나, 온라인 쇼핑몰에서 물품을 구매하는 등 소정의 사용자 인증이 필요한 상황이 발생하면, HMD 장치(110)에 설치되어 있는 결제 관련 애플리케이션 등과 같은 소정의 애플리케이션의 제어에 의해 HMD 장치(110)에 사용자 인증 명령이 인가될 수 있다.If a user needs a predetermined user authentication such as purchasing a game item or purchasing an item in an online shopping mall while playing a game while wearing the HMD device 110, the HMD device 110 is installed in the HMD device 110. A user authentication command may be applied to the HMD device 110 by the control of a predetermined application such as a payment related application.
이때, 도형 정보 생성부(113)는 상기 사용자 인증 명령이 인가되면, 카메라(111)를 구동시켜 외부 환경에 대한 촬영 영상을 획득할 수 있다.In this case, when the user authentication command is applied, the figure information generator 113 may drive the camera 111 to acquire a captured image of an external environment.
이때, 영상 표시 제어부(115)는 카메라(111)를 통해 촬영되는 상기 외부 환경에 대한 촬영 영상을 디스플레이 상에 실시간으로 표시함으로써, 사용자가 상기 디스플레이를 통해 상기 외부 환경을 볼 수 있도록 제어할 수 있다.In this case, the image display control unit 115 may display a captured image of the external environment captured by the camera 111 in real time on a display, so that a user may control the external environment through the display. .
그리고, 제스처 패턴 인식 영역 표시부(116)는 상기 디스플레이 상의 선정된 지점에 도 2의 도면부호 210에 도시된 바와 같은 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217)을 표시할 수 있다.In addition, the gesture pattern recognition area display unit 116 displays a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, and 216 at a predetermined point on the display. , 217).
관련해서, 제스처 패턴 인식 영역 표시부(116)는 카메라(111)를 통해 촬영되는 외부 환경에 대한 촬영 영상이 상기 디스플레이 상에 표시되고 있을 때, 상기 디스플레이의 중심부에 도면부호 210에 도시된 바와 같은 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217)을 표시할 수 있다.In this regard, the gesture pattern recognition area display unit 116 may include a plurality of gesture pattern recognition areas as shown at 210 in the center of the display when a captured image of an external environment captured by the camera 111 is being displayed on the display. The selected gesture pattern recognition areas 211, 212, 213, 214, 215, 216, and 217 may be displayed.
이때, 사용자는 상기 디스플레이 상에 표시되고 있는 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217)을 보고, 자신의 손을 이용해서, 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 상에 도형 정보 저장부(112)에 저장되어 있는 5개의 제1 도형 정보들과 동일한 도형 정보를 그리는 형태의 제스처를 취함으로써, 사용자 인증 과정을 진행할 수 있다.At this time, the user looks at the plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217 displayed on the display, and uses his or her hand to select the plurality of selected gestures. Gesture in the form of drawing the same figure information as the five first figure informations stored in the figure information storage unit 112 on the pattern recognition areas 211, 212, 213, 214, 215, 216, 217. By doing so, the user authentication process can be performed.
이때, 상기 디스플레이 상에는 카메라(111)를 통해 촬영된 외부 환경에 대한 촬영 영상과 함께 사용자의 손까지 촬영되어 표시되기 때문에 사용자는 상기 디스플레이 상에 표시되는 자신의 손을 보면서, 자신의 손을 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 상에서 움직이도록 제어할 수 있다.In this case, since the user's hand is photographed and displayed together with the captured image of the external environment captured by the camera 111, the user looks at his or her hand displayed on the display, It may be controlled to move on the selected gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217.
도형 정보 생성부(113)는 사용자가 손을 움직임에 따라, 카메라(111)를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성할 수 있다.When the user moves his or her hand, the figure information generation unit 113 captures the external environment and the user's hand together through the camera 111, and then the user's hand from the captured image captured by the camera 111. The object tracking of the movement of the user may be performed to generate figure information corresponding to the movement trajectory of the user's hand.
관련해서, 도형 정보 생성부(113)는 도형 정보 테이블 유지부(117), 제스처 패턴 인식 영역 추출부(118) 및 도형 정보 추출부(119)를 포함할 수 있다.In this regard, the figure information generating unit 113 may include a figure information table holding unit 117, a gesture pattern recognition region extracting unit 118, and a figure information extracting unit 119.
도형 정보 테이블 유지부(117)는 복수의 서로 다른 제스처 패턴 인식 영역의 조합들에 대해 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있는 도형 정보 테이블을 저장하여 유지할 수 있다.The figure information table holding unit 117 may store and maintain a figure information table in which different figure information predetermined in advance with respect to combinations of a plurality of different gesture pattern recognition areas are recorded.
이때, 본 발명의 일실시예에 따르면, 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217)에는 서로 다른 인덱스 값이 미리 할당되어 있고, 상기 도형 정보 테이블에는 복수의 서로 다른 제스처 패턴 인식 영역에 대한 인덱스 값의 조합들에 대해 상기 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있을 수 있다.In this case, according to an embodiment of the present invention, different index values are pre-assigned to the plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, 217, and the figure information table The predetermined different figure information corresponding to combinations of index values for a plurality of different gesture pattern recognition areas may be recorded.
관련해서, 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 제스처 패턴 인식 영역 1(211)에 대해서는 "1"이라는 인덱스 값이 할당되어 있을 수 있고, 제스처 패턴 인식 영역 2(212)에 대해서는 "2"라는 인덱스 값이 할당되어 있을 수 있으며, 제스처 패턴 인식 영역 3(213)에 대해서는 "3"이라는 인덱스 값이 할당되어 있을 수 있고, 제스처 패턴 인식 영역 4(214)에 대해서는 "4"라는 인덱스 값이 할당되어 있을 수 있고, 제스처 패턴 인식 영역 5(215)에 대해서는 "5"라는 인덱스 값이 할당되어 있을 수 있고, 제스처 패턴 인식 영역 6(216)에 대해서는 "6"이라는 인덱스 값이 할당되어 있을 수 있고, 제스처 패턴 인식 영역 7(217)에 대해서는 "7"이라는 인덱스 값이 할당되어 있을 수 있다.In relation to this, an index value of “1” may be assigned to the gesture pattern recognition region 1 211 among the plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216, and 217. The index value "2" may be assigned to the gesture pattern recognition area 2212, and the index value "3" may be assigned to the gesture pattern recognition area 3213, and the gesture pattern recognition may be performed. An index value of "4" may be assigned to the area 4 214, an index value of "5" may be assigned to the gesture pattern recognition area 5 215, and a gesture pattern recognition area 6 (216). ), An index value of "6" may be assigned, and an index value of "7" may be assigned to the gesture pattern recognition area 7 217.
그리고, 상기 도형 정보 테이블에는 하기의 표 2와 같이 정보가 기록되어 있을 수 있다.In addition, information may be recorded in the figure information table as shown in Table 2 below.
순번turn 제스처 패턴 인식 영역에 대한 인덱스 값의 조합Combination of index values for gesture pattern recognition area 미리 지정된 도형 정보Predefined Geometry Information
1One 7, 67, 6 "1" 모양에 대한 도형 정보Shape info for shape "1"
22 1, 2, 3, 6, 51, 2, 3, 6, 5 "2" 모양에 대한 도형 정보Shape info for shape "2"
33 1, 2, 3, 4, 51 2 3 4 5 "3" 모양에 대한 도형 정보Shape info for shape "3"
44 7, 3, 2, 47, 3, 2, 4 "4" 모양에 대한 도형 정보Shape info for shape "4"
55 1, 7, 3, 4, 51, 7, 3, 4, 5 "5" 모양에 대한 도형 정보Geometry information for "5" shape
66 1, 2, 3, 71, 2, 3, 7 "
Figure PCTKR2017002930-appb-I000005
" 모양에 대한 도형 정보
"
Figure PCTKR2017002930-appb-I000005
"About Shapes for Shapes
77 3, 4, 5, 63, 4, 5, 6 "
Figure PCTKR2017002930-appb-I000006
" 모양에 대한 도형 정보
"
Figure PCTKR2017002930-appb-I000006
"About Shapes for Shapes
...... ...... ......
이때, 제스처 패턴 인식 영역 추출부(118)는 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 카메라(111)를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출할 수 있다.In this case, the gesture pattern recognition region extracting unit 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition regions 211, 212,. At least one gesture pattern recognition region overlapping a point where the user's hand is located may be extracted from the captured images captured by the camera 111 among the 213, 214, 215, 216, and 217.
이때, 제스처 패턴 인식 영역 추출부(118)는 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하기 위해서, 손 영역 검출부(120) 및 손 영역 위치 추적부(121)를 포함할 수 있다.In this case, the gesture pattern recognition region extraction unit 118 may include a hand region detection unit 120 and a hand region position tracking unit 121 to perform object tracking on the movement of the user's hand.
손 영역 검출부(120)는 카메라(111)를 통해 촬영된 촬영 영상을 구성하는 복수의 영상 프레임들에 대해서 상기 복수의 영상 프레임들 각각을 구성하는 복수의 화소들의 색상 값을 확인하여 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소의 집합을 상기 사용자의 손 영역으로 검출할 수 있다.The hand region detector 120 checks color values of a plurality of pixels constituting each of the plurality of image frames with respect to the plurality of image frames constituting the captured image photographed by the camera 111, and thus, the plurality of pixels. Among them, a set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color may be detected as the user's hand region.
그리고, 손 영역 위치 추적부(121)는 상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 상기 복수의 영상 프레임들 각각에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행할 수 있다.In addition, the hand region position tracking unit 121 tracks a change in position of each of the plurality of image frames with respect to the set of at least one pixel detected by the hand region of the user, thereby controlling the position of the user's hand. Object tracking for movement can be performed.
예컨대, 상기 복수의 영상 프레임들로 시간 순으로 "영상 프레임 1", "영상 프레임 2", "영상 프레임 3"이 존재한다고 가정하자.For example, assume that "picture frame 1", "picture frame 2", and "picture frame 3" exist in the chronological order of the plurality of picture frames.
이때, 손 영역 검출부(120)는 "영상 프레임 1"을 구성하는 복수의 화소들의 색상 값을 확인한 후 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소 집합을 "영상 프레임 1"에서의 상기 사용자의 손 영역으로 검출할 수 있다.At this time, the hand region detector 120 checks the color values of the plurality of pixels constituting the "image frame 1" and then the color value of the plurality of pixels corresponding to the selected first color value range associated with the skin color. At least one set of pixels having a may be detected as the user's hand region in the "image frame 1".
그리고, 손 영역 검출부(120)는 "영상 프레임 2"를 구성하는 복수의 화소들의 색상 값을 확인한 후 상기 복수의 화소들 중 색상 값이 피부색과 연관된 상기 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소 집합을 "영상 프레임 2"에서의 상기 사용자의 손 영역으로 검출할 수 있다.The hand region detector 120 checks the color values of the plurality of pixels constituting “image frame 2”, and then the color value among the plurality of pixels corresponds to the selected first color value range associated with the skin color. At least one pixel set having a value may be detected as the user's hand region in the "image frame 2".
그리고, 손 영역 검출부(120)는 "영상 프레임 3"을 구성하는 복수의 화소들의 색상 값을 확인한 후 상기 복수의 화소들 중 색상 값이 피부색과 연관된 상기 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소 집합을 "영상 프레임 3"에서의 상기 사용자의 손 영역으로 검출할 수 있다.The hand region detector 120 checks the color values of the plurality of pixels constituting “image frame 3”, and then the color value of the plurality of pixels corresponds to the selected first color value range associated with the skin color. At least one pixel set having a value may be detected as the user's hand region in the "image frame 3".
이때, 손 영역 위치 추적부(121)는 상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 "영상 프레임 1", "영상 프레임 2", "영상 프레임 3"에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행할 수 있다.At this time, the hand region position tracking unit 121 according to the time order in the "image frame 1", "image frame 2", "image frame 3" for the set of at least one pixel detected by the user's hand region. By tracking the position change, the object tracking for the movement of the user's hand can be performed.
즉, 손 영역 위치 추적부(121)는 "영상 프레임 1", "영상 프레임 2", "영상 프레임 3"의 순서로 각 영상 프레임에서 추출된 상기 사용자의 손 영역의 위치 변화를 추적함으로써, 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행할 수 있다.That is, the hand region position tracking unit 121 tracks the position change of the user's hand region extracted from each image frame in the order of "image frame 1", "image frame 2", and "image frame 3". Object tracking of the movement of the user's hand may be performed.
이러한 방식으로, 제스처 패턴 인식 영역 추출부(118)는 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 카메라(111)를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출할 수 있다.In this manner, the gesture pattern recognition region extracting unit 118 performs object tracking on the movement of the user's hand from the captured image photographed by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition regions 211. At least one gesture pattern recognition region overlapping a point where the user's hand is located may be extracted from the captured images captured by the camera 111 among 212, 213, 214, 215, 216, and 217.
예컨대, 도 3의 도면부호 321에 도시된 바와 같이, 사용자가 자신의 손을 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 제스처 패턴 인식 영역 1(211), 제스처 패턴 인식 영역 2(212), 제스처 패턴 인식 영역 3(213), 제스처 패턴 인식 영역 4(214), 제스처 패턴 인식 영역 5(215) 상에서 상하 또는 좌우로 위치시켰다면, 제스처 패턴 인식 영역 추출부(118)는 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 카메라(111)를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역으로, 제스처 패턴 인식 영역 1(211), 제스처 패턴 인식 영역 2(212), 제스처 패턴 인식 영역 3(213), 제스처 패턴 인식 영역 4(214), 제스처 패턴 인식 영역 5(215)를 추출할 수 있다.For example, as shown by reference numeral 321 of FIG. 3, the user may touch his or her hand with a gesture pattern recognition area 1 among a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, 215, 216, and 217. 211, gesture pattern recognition region 2 (212), gesture pattern recognition region 3 (213), gesture pattern recognition region 4 (214), gesture pattern recognition region 5 (215) The area extractor 118 performs object tracking on the movement of the user's hand from the captured image captured by the camera 111, thereby selecting a plurality of predetermined gesture pattern recognition areas 211, 212, 213, 214, and 215. , At least one gesture pattern recognition region overlapping with the point where the user's hand is located on the captured image captured by the camera 111 among the 216, 217, gesture pattern recognition region 1 211 and gesture pattern recognition region 2 ( 212), gesture pattern recognition Station 3 213, it is possible to extract gesture pattern recognition area 4 214, the gesture pattern recognition area 5 215.
이때, 본 발명의 일실시예에 따르면, 제스처 패턴 인식 영역 추출부(118)는 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 카메라(111)를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 상기 적어도 하나의 제스처 패턴 인식 영역을 추출할 때, 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 카메라(111)를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 부분이 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 각각의 크기와 대비하여 선정된 영역 크기 비율을 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식 영역으로 추출할 수 있다.At this time, according to an embodiment of the present invention, the gesture pattern recognition region extraction unit 118 is the camera 111 of the plurality of predetermined gesture pattern recognition regions (211, 212, 213, 214, 215, 216, 217) When extracting the at least one gesture pattern recognition region overlapping with the point where the user's hand is located on the captured image photographed by using, a plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216 , 217, a portion overlapping with the point where the user's hand is located on the captured image captured by the camera 111 includes a plurality of predetermined gesture pattern recognition regions 211, 212, 213, 214, 215, 216, and 217. Only the gesture pattern recognition area that exceeds the selected area size ratio in comparison to each size may be extracted as the at least one gesture pattern recognition area.
예컨대, 상기 선정된 영역 크기 비율을 각 제스처 패턴 인식 영역들의 크기 대비 60%라고 하는 경우, 제스처 패턴 인식 영역 추출부(118)는 복수의 선정된 제스처 패턴 인식 영역들(211, 212, 213, 214, 215, 216, 217) 중 사용자의 손이 위치한 지점과 겹치는 부분이 각 제스처 패턴 인식 영역들의 크기와 대비하여 60%를 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식 영역으로 추출할 수 있다.For example, when the predetermined area size ratio is 60% of the size of each gesture pattern recognition area, the gesture pattern recognition area extraction unit 118 may include the plurality of selected gesture pattern recognition areas 211, 212, 213, and 214. , 215, 216, and 217, which overlap the point where the user's hand is located, may be extracted as the at least one gesture pattern recognition area only for a gesture pattern recognition area that exceeds 60% of the size of each gesture pattern recognition area. Can be.
이렇게, 제스처 패턴 인식 영역 추출부(118)에서 상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 도형 정보 추출부(119)는 상기 적어도 하나의 제스처 패턴 인식 영역에 할당되어 있는 인덱스 값을 확인하고, 상기 확인된 인덱스 값을 조합한 후 상기 도형 정보 테이블로부터 상기 확인된 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성할 수 있다.When the at least one gesture pattern recognition region is extracted by the gesture pattern recognition region extraction unit 118, the figure information extraction unit 119 checks an index value assigned to the at least one gesture pattern recognition region. After combining the identified index values, the figure information corresponding to the combination of the identified index values is extracted from the figure information table, and the figure information corresponding to the movement trajectory of the user's hand is extracted. Can be generated as
관련해서, 앞서 설명한 예와 같이, 제스처 패턴 인식 영역 추출부(118)에서 제스처 패턴 인식 영역 1(211), 제스처 패턴 인식 영역 2(212), 제스처 패턴 인식 영역 3(213), 제스처 패턴 인식 영역 4(214), 제스처 패턴 인식 영역 5(215)가 추출되었다면, 도형 정보 추출부(119)는 제스처 패턴 인식 영역 1(211)에 할당되어 있는 인덱스 값인 "1"을 확인하고, 제스처 패턴 인식 영역 2(212)에 할당되어 있는 인덱스 값인 "2"를 확인하며, 제스처 패턴 인식 영역 3(213)에 할당되어 있는 인덱스 값인 "3"을 확인하고, 제스처 패턴 인식 영역 4(214)에 할당되어 있는 인덱스 값인 "4"를 확인하고, 제스처 패턴 인식 영역 5(215)에 할당되어 있는 인덱스 값인 "5"를 확인한 후 각 인덱스 값의 조합인 "1, 2, 3, 4, 5"를 기초로 상기 표 2와 같은 도형 정보 테이블로부터 상기 "1, 2, 3, 4, 5"라는 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보인 "3" 모양에 대한 도형 정보를 추출할 수 있다.In this regard, as in the above-described example, the gesture pattern recognition area extractor 118 may include the gesture pattern recognition area 1 211, the gesture pattern recognition area 2 212, the gesture pattern recognition area 3 213, and the gesture pattern recognition area. If 4 (214) and gesture pattern recognition area 5 (215) are extracted, the figure information extracting unit 119 checks the index value "1" assigned to gesture pattern recognition area 1 (211), and gesture pattern recognition area. Confirms the index value "2" assigned to 2 (212), checks the index value "3" assigned to gesture pattern recognition area 3 (213), and assigns it to gesture pattern recognition area 4 (214). Check the index value "4", check the index value "5" assigned to the gesture pattern recognition area 5 (215), and then, based on the combination "1, 2, 3, 4, 5" of each index value, Index values of "1, 2, 3, 4, 5" from the figure information table as shown in Table 2. The figure information for the shape "3" which is the figure information recorded corresponding to the combination can be extracted.
이러한 방식으로, 도 3에 도시된 바와 같이, 사용자에 의해 도면부호 321과 같은 손의 움직임이 인가되었고, 도면부호 322와 같은 손의 움직임이 인가되었으며, 도면부호 323과 같은 손의 움직임이 인가되었고, 도면부호 324와 같은 손의 움직임이 인가되었고, 도면부호 325와 같은 손의 움직임이 인가되었다면, 도형 정보 생성부(113)는 도면부호 321, 322, 323, 324, 325와 같은 사용자의 손의 이동 궤적에 대응하는 5개의 도형 정보인 "3" 모양에 대한 도형 정보, "4" 모양에 대한 도형 정보, "5" 모양에 대한 도형 정보, "
Figure PCTKR2017002930-appb-I000007
" 모양에 대한 도형 정보 및 "
Figure PCTKR2017002930-appb-I000008
" 모양에 대한 도형 정보를 생성할 수 있다.
In this manner, as shown in FIG. 3, the user's hand movement as indicated by reference numeral 321 was applied by the user, the hand movement as indicated by reference numeral 322 was applied, and the hand movement as indicated by reference numeral 323 was applied. If a hand movement such as 324 is applied, and a hand movement such as 325 is applied, the figure information generating unit 113 of the user's hand such as 321, 322, 323, 324, and 325 is applied. Shape information for shape "3", five shape information corresponding to movement trajectory, shape information for shape "4", shape information for shape "5", "
Figure PCTKR2017002930-appb-I000007
"Shape information about the shape and"
Figure PCTKR2017002930-appb-I000008
"You can create the shape information about the shape.
그러고 나서, 사용자 인증부(114)는 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 5개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 5개의 도형 정보와 상기 표 1과 같이 도형 정보 저장부(112)에 저장되어 있는 5개의 상기 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료할 수 있다.Then, when five figure information corresponding to the movement trajectory of the user's hand is generated, the user authentication unit 114 generates five figure information generated corresponding to the movement trajectory of the user's hand and the table 1 as shown in Table 1 below. When comparing the five pieces of first figure information stored in the figure information storage unit 112 and determining that both figure information matches, the user authentication may be completed.
결국, 본 발명에 따른 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)는 사용자 인증을 위해서 미리 지정된 소정의 제1 도형 정보들을 저장해 둔 후 HMD 장치(110) 전면에 외부 환경의 촬영이 가능한 카메라(111)를 탑재함으로써, 카메라(111)를 통해 상기 외부 환경과 사용자의 손의 움직임을 촬영한 후 카메라(111)를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성한 후 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보와 상기 미리 지정되어 있는 제1 도형 정보들을 상호 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 사용자 인증을 완료할 수 있어, 별도의 입력 장치가 없는 HMD 장치(110)에서도 사용자가 손쉽게 인증 과정을 진행할 수 있도록 지원할 수 있다.As a result, the HMD device 110 capable of gesture-based user authentication according to the present invention stores predetermined first figure information previously designated for user authentication, and then captures an external environment in front of the HMD device 110. 111, by recording the movement of the user's hand and the external environment through the camera 111 and performing object tracking of the movement of the user's hand from the captured image taken by the camera 111 After generating figure information corresponding to the movement trajectory of the user's hand, the figure information corresponding to the movement trajectory of the user's hand and the predetermined first figure information are compared with each other to determine that both figure information is identical. When the user authentication can be completed, the user can easily proceed with the authentication process even in the HMD device 110 without a separate input device I can support them.
도 4는 본 발명의 일실시예에 따른 전면에 카메라가 부착되어 있는 HMD 장치의 제스처 기반의 사용자 인증 방법을 도시한 순서도이다.4 is a flowchart illustrating a gesture-based user authentication method of an HMD device having a camera attached to a front surface according to an embodiment of the present invention.
단계(S410)에서는 사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있는 도형 정보 저장부를 유지한다.In operation S410, a figure information storage unit, in which n pieces of first figure information (n is a natural number) designated in advance for user authentication, is stored.
단계(S420)에서는 상기 HMD 장치에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 상기 HMD 장치의 전면에 부착되어 있는 상기 카메라를 구동시켜 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 상기 카메라를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성한다.In operation S420, when a user authentication command is applied under the control of an application installed in the HMD device, the camera attached to the front of the HMD device is driven to acquire a captured image of an external environment. As the hand moves, when the external environment and the user's hand are photographed together through the camera, object tracking of the movement of the user's hand is performed from the captured image photographed through the camera, so that the user's hand Graphic information corresponding to the movement trajectory is generated.
단계(S430)에서는 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료한다.In step S430, when n pieces of figure information corresponding to the movement trajectory of the user's hand are generated, n shape information corresponding to the movement trajectory of the user's hand is compared with the n first figure information. If it is determined that both figure information match, the user authentication is completed.
이때, 본 발명의 일실시예에 따르면, 상기 HMD 장치의 제스처 기반의 사용자 인증 방법은 상기 카메라를 통해 촬영되는 상기 외부 환경에 대한 촬영 영상을 디스플레이 상에 실시간으로 표시하는 단계 및 상기 디스플레이 상의 선정된 지점에 복수의 선정된 제스처 패턴 인식 영역들을 표시하는 단계를 더 포함할 수 있다.At this time, according to an embodiment of the present invention, the gesture-based user authentication method of the HMD device displaying a captured image of the external environment taken by the camera in real time on a display and selected on the display The method may further include displaying a plurality of predetermined gesture pattern recognition regions at the point.
이때, 단계(S420)에서는 복수의 서로 다른 제스처 패턴 인식 영역의 조합들에 대해 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있는 도형 정보 테이블을 저장하여 유지하는 단계, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계 및 상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역을 조합한 후 상기 도형 정보 테이블로부터 상기 적어도 하나의 제스처 패턴 인식 영역의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 단계를 포함할 수 있다.At this time, in step S420, storing and maintaining a figure information table in which different figure information predetermined in advance is recorded corresponding to combinations of a plurality of different gesture pattern recognition areas, and photographing images photographed by the camera. At least one gesture pattern recognition region overlapping a point where the user's hand is located on the captured image photographed by the camera among the plurality of selected gesture pattern recognition regions by performing object tracking on the movement of the user's hand from Extracting and extracting the at least one gesture pattern recognition area, the combination of the at least one gesture pattern recognition area is recorded corresponding to the combination of the at least one gesture pattern recognition area from the figure information table. Extracted figure information Corresponding to the type information on a movement path of the hand of the user may include the step of generating a figure information.
이때, 본 발명의 일실시예에 따르면, 상기 복수의 선정된 제스처 패턴 인식 영역들에는 서로 다른 인덱스 값이 미리 할당되어 있고, 상기 도형 정보 테이블에는 복수의 서로 다른 제스처 패턴 인식 영역에 대한 인덱스 값의 조합들에 대해 상기 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있을 수 있다.In this case, according to an embodiment of the present invention, different index values are pre-assigned to the plurality of predetermined gesture pattern recognition regions, and the index information for the plurality of different gesture pattern recognition regions is assigned to the figure information table. The predetermined different figure information for the combinations may be recorded correspondingly.
이때, 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 단계는 상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역에 할당되어 있는 인덱스 값을 확인하고, 상기 확인된 인덱스 값을 조합한 후 상기 도형 정보 테이블로부터 상기 확인된 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성할 수 있다.In this case, the generating of the extracted figure information as figure information corresponding to a movement trajectory of the user's hand may include: an index allocated to the at least one gesture pattern recognition region when the at least one gesture pattern recognition region is extracted; Determine a value, combine the checked index values, extract figure information recorded corresponding to the identified index value combination from the figure information table, and move the extracted figure information to the user's hand; It may be generated by the figure information corresponding to the.
또한, 본 발명의 일실시예에 따르면, 상기 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계는 상기 카메라를 통해 촬영된 촬영 영상을 구성하는 복수의 영상 프레임들에 대해서 상기 복수의 영상 프레임들 각각을 구성하는 복수의 화소들의 색상 값을 확인하여 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소의 집합을 상기 사용자의 손 영역으로 검출하는 단계 및 상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 상기 복수의 영상 프레임들 각각에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하는 단계를 포함할 수 있다.In addition, according to an embodiment of the present disclosure, the extracting of the at least one gesture pattern recognition area may include each of the plurality of image frames with respect to a plurality of image frames constituting a captured image photographed by the camera. Identifying a color value of a plurality of pixels constituting a plurality of pixels, the set of at least one pixel having a color value corresponding to a predetermined first color value range associated with a skin color among the plurality of pixels as a user's hand region Detecting an object and tracking a change in position in each of the plurality of image frames with respect to the set of at least one pixel detected by the user's hand region to track the movement of the user's hand. It may include the step.
또한, 본 발명의 일실시예에 따르면, 상기 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계는 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 부분이 상기 복수의 선정된 제스처 패턴 인식 영역들 각각의 크기와 대비하여 선정된 영역 크기 비율을 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식 영역으로 추출할 수 있다.In addition, according to an embodiment of the present disclosure, the extracting of the at least one gesture pattern recognition region may include positioning the user's hand on a captured image photographed by the camera among the plurality of predetermined gesture pattern recognition regions. A portion overlapping with a point may be extracted as the at least one gesture pattern recognition region only for a gesture pattern recognition region in which a portion overlapping with the size of each of the selected gesture pattern recognition regions exceeds a predetermined area size ratio.
이상, 도 4를 참조하여 본 발명의 일실시예에 따른 HMD 장치의 제스처 기반의 사용자 인증 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 HMD 장치의 제스처 기반의 사용자 인증 방법은 도 1 내지 도 3을 이용하여 설명한 제스처 기반의 사용자 인증이 가능한 HMD 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.The gesture-based user authentication method of the HMD device according to the embodiment of the present invention has been described above with reference to FIG. 4. Here, the gesture-based user authentication method of the HMD device according to an embodiment of the present invention may correspond to the configuration of the operation of the HMD device 110 capable of gesture-based user authentication described with reference to FIGS. 1 to 3. Therefore, a detailed description thereof will be omitted.
본 발명의 일실시예에 따른 HMD 장치의 제스처 기반의 사용자 인증 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The gesture-based user authentication method of the HMD device according to an embodiment of the present invention may be implemented as a computer program stored in a storage medium for execution by combining with a computer.
또한, 본 발명의 일실시예에 따른 HMD 장치의 제스처 기반의 사용자 인증 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the gesture-based user authentication method of the HMD device according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. In the present invention as described above has been described by the specific embodiments, such as specific components and limited embodiments and drawings, but this is provided to help a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations are possible from these descriptions.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all the things that are equivalent to or equivalent to the claims as well as the following claims will belong to the scope of the present invention. .

Claims (12)

  1. 제스처 기반의 사용자 인증이 가능한 HMD(Head Mounted Display) 장치에 있어서,In a head mounted display (HMD) device capable of gesture-based user authentication,
    상기 HMD 장치의 전면에 부착되어, 외부 환경의 촬영이 가능한 카메라;A camera attached to the front of the HMD device and capable of photographing an external environment;
    사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있는 도형 정보 저장부;A figure information storage unit storing n first figure information (n is a natural number) previously designated for user authentication;
    상기 HMD 장치에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 상기 카메라를 구동시켜 상기 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 상기 카메라를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성하는 도형 정보 생성부; 및When a user authentication command is applied under the control of an application installed in the HMD device, the camera is driven to obtain a captured image of the external environment, and as the user moves his / her hand, the external environment through the camera. And the user's hand are photographed together, generating figure information for generating figure information corresponding to the movement trajectory of the user's hand by performing object tracking on the movement of the user's hand from the captured image photographed by the camera. part; And
    상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료하는 사용자 인증부When n pieces of figure information corresponding to the movement trajectory of the user's hand are generated, both of the figure information is compared by comparing the n first figure information and the n figure information generated corresponding to the movement trajectory of the user's hand. If it is determined to match, the user authentication unit for completing the user authentication
    를 포함하는 제스처 기반의 사용자 인증이 가능한 HMD 장치.HMD device capable of gesture-based user authentication comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 카메라를 통해 촬영되는 상기 외부 환경에 대한 촬영 영상을 디스플레이 상에 실시간으로 표시하는 영상 표시 제어부; 및An image display controller which displays a captured image of the external environment captured by the camera in real time on a display; And
    상기 디스플레이 상의 선정된(predetermined) 지점에 복수의 선정된 제스처 패턴 인식 영역들을 표시하는 제스처 패턴 인식 영역 표시부Gesture pattern recognition area display unit for displaying a plurality of predetermined gesture pattern recognition areas at a predetermined point on the display.
    를 더 포함하고,More,
    상기 도형 정보 생성부는The figure information generation unit
    복수의 서로 다른 제스처 패턴 인식 영역의 조합들에 대해 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있는 도형 정보 테이블을 저장하여 유지하는 도형 정보 테이블 유지부;A figure information table holding unit which stores and holds a figure information table in which different figure information predetermined in advance for each combination of a plurality of different gesture pattern recognition areas is recorded;
    상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출하는 제스처 패턴 인식 영역 추출부; 및A point where the user's hand is located on the captured image photographed by the camera among the plurality of predetermined gesture pattern recognition regions by performing object tracking on the movement of the user's hand from the captured image photographed by the camera; A gesture pattern recognition region extraction unit which extracts at least one overlapping gesture pattern recognition region; And
    상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역을 조합한 후 상기 도형 정보 테이블로부터 상기 적어도 하나의 제스처 패턴 인식 영역의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 도형 정보 추출부When the at least one gesture pattern recognition region is extracted, the at least one gesture pattern recognition region is combined and the figure information recorded corresponding to the combination of the at least one gesture pattern recognition region is extracted from the figure information table. A figure information extracting unit configured to generate the extracted figure information as figure information corresponding to a movement trajectory of the user's hand
    를 포함하는 제스처 기반의 사용자 인증이 가능한 HMD 장치.HMD device capable of gesture-based user authentication comprising a.
  3. 제2항에 있어서,The method of claim 2,
    상기 복수의 선정된 제스처 패턴 인식 영역들에는 서로 다른 인덱스 값이 미리 할당되어 있고,Different index values are pre-assigned to the plurality of predetermined gesture pattern recognition regions,
    상기 도형 정보 테이블에는In the figure information table
    복수의 서로 다른 제스처 패턴 인식 영역에 대한 인덱스 값의 조합들에 대해 상기 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있으며,The predetermined different figure information is correspondingly recorded for combinations of index values for a plurality of different gesture pattern recognition areas,
    상기 도형 정보 추출부는The figure information extracting unit
    상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역에 할당되어 있는 인덱스 값을 확인하고, 상기 확인된 인덱스 값을 조합한 후 상기 도형 정보 테이블로부터 상기 확인된 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 제스처 기반의 사용자 인증이 가능한 HMD 장치.When the at least one gesture pattern recognition area is extracted, the index value assigned to the at least one gesture pattern recognition area is checked, the identified index values are combined, and the index value is determined from the figure information table. A HMD device capable of gesture-based user authentication which extracts figure information recorded corresponding to a combination and generates the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
  4. 제2항에 있어서,The method of claim 2,
    상기 제스처 패턴 인식 영역 추출부는The gesture pattern recognition region extraction unit
    상기 카메라를 통해 촬영된 촬영 영상을 구성하는 복수의 영상 프레임들에 대해서 상기 복수의 영상 프레임들 각각을 구성하는 복수의 화소들의 색상 값을 확인하여 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소의 집합을 상기 사용자의 손 영역으로 검출하는 손 영역 검출부; 및The color value of the plurality of pixels constituting each of the plurality of image frames is checked with respect to the plurality of image frames constituting the captured image photographed by the camera, and the color value among the plurality of pixels is selected to be associated with the skin color. A hand region detector for detecting a set of at least one pixel having a color value corresponding to the first color value range as the user's hand region; And
    상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 상기 복수의 영상 프레임들 각각에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하는 손 영역 위치 추적부Hand region location for tracking the position change in each of the plurality of image frames with respect to the set of at least one pixel detected by the hand region of the user to track the movement of the user's hand Tracking
    를 포함하는 제스처 기반의 사용자 인증이 가능한 HMD 장치.HMD device capable of gesture-based user authentication comprising a.
  5. 제2항에 있어서,The method of claim 2,
    상기 제스처 패턴 인식 영역 추출부는The gesture pattern recognition region extraction unit
    상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 부분이 상기 복수의 선정된 제스처 패턴 인식 영역들 각각의 크기와 대비하여 선정된 영역 크기 비율을 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식 영역으로 추출하는 제스처 기반의 사용자 인증이 가능한 HMD 장치.A portion of the plurality of selected gesture pattern recognition regions overlapping with a location where the user's hand is located on the captured image photographed by the camera is selected in comparison with the size of each of the plurality of selected gesture pattern recognition regions. A gesture-based user authentication capable of extracting only the gesture pattern recognition area exceeding a size ratio into the at least one gesture pattern recognition area.
  6. 전면에 카메라가 부착된 HMD(Head Mounted Display) 장치의 제스처 기반의 사용자 인증 방법에 있어서,In the gesture-based user authentication method of the head mounted display (HMD) device with a camera attached to the front,
    사용자 인증을 위해 미리 지정된 n(n은 자연수)개의 제1 도형 정보가 저장되어 있는 도형 정보 저장부를 유지하는 단계;Maintaining a figure information storage unit storing n first figure information (n is a natural number) previously designated for user authentication;
    상기 HMD 장치에 설치되어 있는 애플리케이션의 제어에 의해 사용자 인증 명령이 인가되면, 상기 카메라를 구동시켜 외부 환경에 대한 촬영 영상을 획득하고, 사용자가 손을 움직임에 따라, 상기 카메라를 통해 상기 외부 환경과 상기 사용자의 손이 함께 촬영되면, 상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보를 생성하는 단계; 및When a user authentication command is applied under the control of an application installed in the HMD device, the camera is driven to obtain a captured image of an external environment, and as the user moves his or her hand, Generating the figure information corresponding to the movement trajectory of the user's hand by performing object tracking on the movement of the user's hand from the captured image photographed by the camera when the user's hand is photographed together; And
    상기 사용자의 손의 이동 궤적에 대응하는 도형 정보가 n개 생성되면, 상기 사용자의 손의 이동 궤적에 대응하여 생성된 n개의 도형 정보와 상기 n개의 제1 도형 정보를 비교하여 양 도형 정보가 모두 일치하는 것으로 판단되면, 상기 사용자 인증을 완료하는 단계When n pieces of figure information corresponding to the movement trajectory of the user's hand are generated, both of the figure information is compared by comparing the n first figure information and the n figure information generated corresponding to the movement trajectory of the user's hand. If it is determined to match, completing the user authentication;
    를 포함하는 HMD 장치의 제스처 기반의 사용자 인증 방법.Gesture-based user authentication method of the HMD device comprising a.
  7. 제6항에 있어서,The method of claim 6,
    상기 카메라를 통해 촬영되는 상기 외부 환경에 대한 촬영 영상을 디스플레이 상에 실시간으로 표시하는 단계; 및Displaying a captured image of the external environment captured by the camera on a display in real time; And
    상기 디스플레이 상의 선정된(predetermined) 지점에 복수의 선정된 제스처 패턴 인식 영역들을 표시하는 단계Displaying a plurality of predetermined gesture pattern recognition regions at a predetermined point on the display.
    를 더 포함하고,More,
    상기 도형 정보를 생성하는 단계는Generating the figure information
    복수의 서로 다른 제스처 패턴 인식 영역의 조합들에 대해 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있는 도형 정보 테이블을 저장하여 유지하는 단계;Storing and maintaining a figure information table in which different figure information predetermined in advance for respective combinations of a plurality of different gesture pattern recognition areas are correspondingly recorded;
    상기 카메라를 통해 촬영된 촬영 영상으로부터 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하여 상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계; 및A point where the user's hand is located on the captured image photographed by the camera among the plurality of predetermined gesture pattern recognition regions by performing object tracking on the movement of the user's hand from the captured image photographed by the camera; Extracting at least one overlapping gesture pattern recognition region; And
    상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역을 조합한 후 상기 도형 정보 테이블로부터 상기 적어도 하나의 제스처 패턴 인식 영역의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 단계When the at least one gesture pattern recognition region is extracted, the at least one gesture pattern recognition region is combined and the figure information recorded corresponding to the combination of the at least one gesture pattern recognition region is extracted from the figure information table. Generating the extracted figure information as figure information corresponding to a movement trajectory of the user's hand;
    를 포함하는 HMD 장치의 제스처 기반의 사용자 인증 방법.Gesture-based user authentication method of the HMD device comprising a.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 복수의 선정된 제스처 패턴 인식 영역들에는 서로 다른 인덱스 값이 미리 할당되어 있고,Different index values are pre-assigned to the plurality of predetermined gesture pattern recognition regions,
    상기 도형 정보 테이블에는In the figure information table
    복수의 서로 다른 제스처 패턴 인식 영역에 대한 인덱스 값의 조합들에 대해 상기 미리 지정된 서로 다른 도형 정보가 대응되어 기록되어 있으며,The predetermined different figure information is correspondingly recorded for combinations of index values for a plurality of different gesture pattern recognition areas,
    상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 단계는The step of generating the extracted figure information as figure information corresponding to the movement trajectory of the user's hand
    상기 적어도 하나의 제스처 패턴 인식 영역이 추출되면, 상기 적어도 하나의 제스처 패턴 인식 영역에 할당되어 있는 인덱스 값을 확인하고, 상기 확인된 인덱스 값을 조합한 후 상기 도형 정보 테이블로부터 상기 확인된 인덱스 값의 조합에 대응되어 기록되어 있는 도형 정보를 추출하여 상기 추출된 도형 정보를 상기 사용자의 손의 이동 궤적에 대응하는 도형 정보로 생성하는 HMD 장치의 제스처 기반의 사용자 인증 방법.When the at least one gesture pattern recognition area is extracted, the index value assigned to the at least one gesture pattern recognition area is checked, the identified index values are combined, and the index value is determined from the figure information table. And extracting the figure information corresponding to the combination and generating the extracted figure information as figure information corresponding to a movement trajectory of the user's hand.
  9. 제7항에 있어서,The method of claim 7, wherein
    상기 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계는Extracting the at least one gesture pattern recognition region
    상기 카메라를 통해 촬영된 촬영 영상을 구성하는 복수의 영상 프레임들에 대해서 상기 복수의 영상 프레임들 각각을 구성하는 복수의 화소들의 색상 값을 확인하여 상기 복수의 화소들 중 색상 값이 피부색과 연관된 선정된 제1 색상 값 범위에 해당하는 색상 값을 갖는 적어도 하나의 화소의 집합을 상기 사용자의 손 영역으로 검출하는 단계; 및The color value of the plurality of pixels constituting each of the plurality of image frames is checked with respect to the plurality of image frames constituting the captured image photographed by the camera, and the color value among the plurality of pixels is selected to be associated with the skin color. Detecting a set of at least one pixel having a color value corresponding to a first color value range as the user's hand region; And
    상기 사용자의 손 영역으로 검출된 적어도 하나의 화소의 집합에 대한 상기 복수의 영상 프레임들 각각에서의 시간 순서에 따른 위치 변화를 추적하여 상기 사용자의 손의 움직임에 대한 오브젝트 추적을 수행하는 단계Performing object tracking on the movement of the user's hand by tracking a change in position in each of the plurality of image frames with respect to the set of at least one pixel detected by the user's hand region in time order;
    를 포함하는 HMD 장치의 제스처 기반의 사용자 인증 방법.Gesture-based user authentication method of the HMD device comprising a.
  10. 제7항에 있어서,The method of claim 7, wherein
    상기 적어도 하나의 제스처 패턴 인식 영역을 추출하는 단계는Extracting the at least one gesture pattern recognition region
    상기 복수의 선정된 제스처 패턴 인식 영역들 중 상기 카메라를 통해 촬영된 촬영 영상 상에서 상기 사용자의 손이 위치한 지점과 겹치는 부분이 상기 복수의 선정된 제스처 패턴 인식 영역들 각각의 크기와 대비하여 선정된 영역 크기 비율을 초과하는 제스처 패턴 인식 영역에 대해서만 상기 적어도 하나의 제스처 패턴 인식 영역으로 추출하는 HMD 장치의 제스처 기반의 사용자 인증 방법.A portion of the plurality of selected gesture pattern recognition regions overlapping with a location where the user's hand is located on the captured image photographed by the camera is selected in comparison with the size of each of the plurality of selected gesture pattern recognition regions. A gesture-based user authentication method of an HMD device extracting only the gesture pattern recognition area exceeding a size ratio to the at least one gesture pattern recognition area.
  11. 제6항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium having recorded thereon a program for performing the method of any one of claims 6 to 10.
  12. 제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램.A computer program stored in a storage medium for executing the method of any one of claims 6 to 10 in combination with a computer.
PCT/KR2017/002930 2016-03-23 2017-03-20 Hmd device capable of gesture-based user authentication and gesture-based user authentication method for hmd device WO2017164584A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160034388A KR101700569B1 (en) 2016-03-23 2016-03-23 Hmd apparatus for gesture based user authentication and method for gesture based user authentication of the hmd apparatus
KR10-2016-0034388 2016-03-23

Publications (1)

Publication Number Publication Date
WO2017164584A1 true WO2017164584A1 (en) 2017-09-28

Family

ID=57992882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/002930 WO2017164584A1 (en) 2016-03-23 2017-03-20 Hmd device capable of gesture-based user authentication and gesture-based user authentication method for hmd device

Country Status (2)

Country Link
KR (1) KR101700569B1 (en)
WO (1) WO2017164584A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11050752B2 (en) 2018-06-07 2021-06-29 Ebay Inc. Virtual reality authentication

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977897B1 (en) 2017-10-23 2019-08-28 동서대학교 산학협력단 User Authentication System Using Mixed Reality, Virtual Reality, Augmented Reality
WO2023146196A1 (en) * 2022-01-25 2023-08-03 삼성전자 주식회사 Method and electronic device for determining user's hand in video
WO2024090826A1 (en) * 2022-10-27 2024-05-02 삼성전자 주식회사 Electronic device and method for performing authentication using gesture of user

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078814A (en) * 2012-10-10 2014-05-01 Olympus Corp Head-mounted type display device, unlocking processing system, program and control method of unlocking processing system
KR20140124209A (en) * 2013-04-16 2014-10-24 구태언 Head-mounted display apparatus with enhanced secuirity and method for accessing encrypted information by the apparatus
KR20150017893A (en) * 2013-08-08 2015-02-23 삼성전자주식회사 Method and apparatus to processing lock screen of electronic device
KR20150041453A (en) * 2013-10-08 2015-04-16 엘지전자 주식회사 Wearable glass-type image display device and control method thereof
KR20160007342A (en) * 2014-07-11 2016-01-20 넥시스 주식회사 Method and program with the unlock system of wearable glass device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078814A (en) * 2012-10-10 2014-05-01 Olympus Corp Head-mounted type display device, unlocking processing system, program and control method of unlocking processing system
KR20140124209A (en) * 2013-04-16 2014-10-24 구태언 Head-mounted display apparatus with enhanced secuirity and method for accessing encrypted information by the apparatus
KR20150017893A (en) * 2013-08-08 2015-02-23 삼성전자주식회사 Method and apparatus to processing lock screen of electronic device
KR20150041453A (en) * 2013-10-08 2015-04-16 엘지전자 주식회사 Wearable glass-type image display device and control method thereof
KR20160007342A (en) * 2014-07-11 2016-01-20 넥시스 주식회사 Method and program with the unlock system of wearable glass device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11050752B2 (en) 2018-06-07 2021-06-29 Ebay Inc. Virtual reality authentication
US11736491B2 (en) 2018-06-07 2023-08-22 Ebay Inc. Virtual reality authentication

Also Published As

Publication number Publication date
KR101700569B1 (en) 2017-01-26

Similar Documents

Publication Publication Date Title
WO2017164584A1 (en) Hmd device capable of gesture-based user authentication and gesture-based user authentication method for hmd device
CN103999048B (en) Dynamic configuration file switching based on user's identification
WO2016114610A1 (en) Virtual input device and method for receiving user input using the same
CN101379528B (en) Face authentication device, face authentication method, and program
US11586336B2 (en) Private control interfaces for extended reality
WO2012093811A1 (en) Method for support in such a way as to allow collection of objects comprised in an input image, and a recording medium able to be read by terminal devices and computers
US11449131B2 (en) Obfuscated control interfaces for extended reality
CN104298910B (en) Portable electronic device and interactive face login method
WO2009142098A1 (en) Image processing device, camera, image processing method, and program
CN112653848A (en) Display method and device in augmented reality scene, electronic equipment and storage medium
WO2020171621A1 (en) Method of controlling display of avatar and electronic device therefor
WO2021101097A1 (en) Multi-task fusion neural network architecture
Chen et al. A case study of security and privacy threats from augmented reality (ar)
CN112637665A (en) Display method and device in augmented reality scene, electronic equipment and storage medium
WO2020116960A1 (en) Electronic device for generating video comprising character and method thereof
CN109697014A (en) Multi-screen synchronizes touch control method, apparatus and system
JP4789658B2 (en) Slide show playback method, slide show playback program, and slide show playback apparatus
WO2014148691A1 (en) Mobile device and method for controlling the same
JP2017142772A (en) Iris authentication device and iris authentication program
WO2019004754A1 (en) Augmented reality advertisements on objects
WO2015182846A1 (en) Apparatus and method for providing advertisement using pupil tracking
WO2011078430A1 (en) Sequential searching method for recognizing plurality of feature point-based markers and augmented reality implementing method using same
KR102178396B1 (en) Method and apparatus for manufacturing image output based on augmented reality
WO2018169110A1 (en) Markerless augmented reality apparatus and method for expressing three-dimensional object
WO2020111844A2 (en) Method and apparatus for enhancing image feature point in visual slam by using object label

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770554

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17770554

Country of ref document: EP

Kind code of ref document: A1