KR101536353B1 - A gesture recognition toy - Google Patents

A gesture recognition toy Download PDF

Info

Publication number
KR101536353B1
KR101536353B1 KR1020140089702A KR20140089702A KR101536353B1 KR 101536353 B1 KR101536353 B1 KR 101536353B1 KR 1020140089702 A KR1020140089702 A KR 1020140089702A KR 20140089702 A KR20140089702 A KR 20140089702A KR 101536353 B1 KR101536353 B1 KR 101536353B1
Authority
KR
South Korea
Prior art keywords
image
toy
body part
optical system
smartphone
Prior art date
Application number
KR1020140089702A
Other languages
Korean (ko)
Inventor
이길재
Original Assignee
주식회사 매크론
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매크론 filed Critical 주식회사 매크론
Priority to KR1020140089702A priority Critical patent/KR101536353B1/en
Application granted granted Critical
Publication of KR101536353B1 publication Critical patent/KR101536353B1/en
Priority to PCT/KR2015/007366 priority patent/WO2016010369A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Toys (AREA)

Abstract

The present invention relates to a gesture recognition toy with an improved structure to enable the toy to recognize user′s commands at a distance. According to the present invention, the gesture recognition toy includes: a body part; a toy body part having a drive part to move the body part; an optical system which is shaped into a cone or a polygon to be installed on the body part and includes a reflective mirror to reflect an image in 360 degree direction around the body part into one direction; an image taking part to continuously take an image provided by the optical system; an image analysis part to analyze a continuous image taken by the image taking part; and a command transmission part to transmit a signal to drive the drive part in accordance with the analysis result from the image analysis part.

Description

동작인식 장난감{A gesture recognition toy}A gesture recognition toy

본 발명은 동작 인식 장난감에 관한 것으로, 의 구현 방법으로, 보다 구체적으로는 사용자의 특정한 동작을 인식함으로써 명령을 수행할 수 있는 동작인식 장난감에 관한 발명이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion recognition toy, and more particularly, to an operation recognition toy capable of performing an instruction by recognizing a user's specific motion.

인공지능 기술의 지속적인 발전으로 최근에는 음성인식 또는 동작인식 기능이 탑재된 장난감이나 로봇이 개발되고 있으며, 이에 관하여는 공개특허 10-2014-0054977호 등이 제안된 바 있다. 이와 같이, 인공지능이 탑재된 장난감은 한층 더 사용자에게 친밀감을 줄 수 있으며, 1인 가구가 많아지는 현대에서는 어린이뿐 아니라 어른이나 노인들에게도 유용한 시스템이 될 수 있다.With the continuous development of artificial intelligence technology, toys and robots equipped with voice recognition or motion recognition functions have been developed recently, and Japanese Laid-Open Patent Publication No. 10-2014-0054977 has been proposed. As such, artificial intelligence-equipped toys can give more intimacy to users, and it can be a useful system not only for children but also for adults and the elderly in modern households with one person.

한편, 장난감이 애완 동믈과 같은 수준의 친밀감을 주기 위해서는 사용자가 원할 때 사용자 앞까지 접근하는 기능이 중요하며, 이런 기능을 구현하기 위해서는 멀리 떨어진 거리에서 장난감을 호출할 수 있어야 한다. 하지만, 음성인식의 경우 가까운 거리에서 소음이 적은 경우는 비교적 잘 동작하나, 먼 거리에 있을 경우는 동작하기 힘든 단점이 있다. 또한 음성인식이 가능하더라도 음성만으로는 호출한 위치를 파악하기 힘들어 사용자를 추적하기 힘든 단점이 있다. On the other hand, in order for a toy to have the same level of intimacy as a peddler, it is important that the user accesses the user in front of the user. In order to implement such a function, the toy must be able to be called from a distance. However, speech recognition works relatively well when noise is small at a short distance, but is difficult to operate when it is at a long distance. Even if speech recognition is possible, it is difficult to track the user because it is difficult to grasp the position of the call with voice alone.

이에 비해, 동작인식 방법은 비교적 먼 거리에서의 동작이 가능하고, 동작이 일어난 위치를 파악할 수 있다. 하지만, 동작인식의 경우에는 장난감에 설치된 영상촬영부로 들어오는 영상을 해석하여 동작하기 때문에, 사용자가 영상촬영부의 전방에 있어야만 동작 인식이 가능하다는 문제점이 있다.On the other hand, the motion recognition method can operate at a relatively long distance and can grasp the position where the motion occurred. However, in the case of motion recognition, since the image input to the image capturing unit installed in the toy is interpreted and operated, there is a problem in that the user can recognize the operation only when the user is in front of the image capturing unit.

대한민국 공개특허 10-2014-0054977호Korean Patent Publication No. 10-2014-0054977

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 먼 거리에서도 장난감이 사용자의 명령을 인식할 수 있도록 구조가 개선된 동작인식 장난감을 제공하는 것이다. It is an object of the present invention to provide a motion recognition toy having a structure improved to allow a toy to recognize a command of a user even at a long distance.

본 발명에 따른 동작인식 장난감은 바디부와, 상기 바디부를 이동시키는 구동부를 가지는 장난감 본체와, 원뿔 또는 다각뿔 형상으로 형성되어 상기 바디부에 설치되며, 상기 바디부를 중심으로 360° 방향의 영상을 일방향으로 반사시키는 반사 미러를 포함하는 광학계와, 상기 광학계를 통해 제공되는 영상을 연속적으로 촬영하는 영상촬영부와, 상기 영상촬영부에서 촬영된 연속 영상을 분석하는 영상분석부와, 상기 영상분석부에서 분석된 결과에 따라 상기 구동부가 구동하도록 신호를 발신하는 명령전달부를 포함하는 것을 특징으로 한다.A motion recognition toy according to the present invention includes a body having a body having a driving part for moving the body, a cone or a polygonal pyramid, and mounted on the body, An image capturing unit for continuously capturing an image provided through the optical system; an image analyzing unit for analyzing a continuous image captured by the image capturing unit; And a command transmitting unit for transmitting a signal to drive the driving unit according to the analyzed result.

본 발명에 따르면, 상기 바디부에는 상기 바디부의 회전량을 측정하는 각속도 센서가 설치되어 있는 것이 바람직하다.According to the present invention, it is preferable that an angular velocity sensor for measuring the amount of rotation of the body part is installed on the body part.

또한, 본 발명에 따르면 상기 영상촬영부, 상기 영상분석부 및 상기 명령전달부는 하나의 독립된 디바이스로 이루어져 상기 장난감 본체에 분리 가능하게 장착되며, 상기 장난감 본체에는 상기 명령전달부와의 신호전달을 위한 제어부가 마련되어 있는 것이 바람직하다.According to the present invention, the image capturing unit, the image analyzing unit, and the command transmitting unit may be detachably mounted on the toy body, which is one independent device, It is preferable that a control unit is provided.

또한, 본 발명에 따르면 상기 독립된 디바이스는 스마트폰인 것이 바람직하다.According to the present invention, it is preferable that the independent device is a smart phone.

또한, 본 발명에 따르면 상기 장난감 본체에는, 상기 스마트폰의 영상촬영부가 상기 광학계를 통해 제공되는 영상을 촬영할 수 있는 위치에 위치되도록 상기 스마트폰을 고정시키는 고정수단이 마련되어 있는 것이 바람직하다.According to the present invention, it is preferable that the toy main body is provided with fixing means for fixing the smartphone so that the image capturing unit of the smart phone is positioned at a position where the image provided through the optical system can be captured.

또한, 본 발명에 따르면 상기 고정수단은, 상기 광학계에 대하여 상하 방향으로 이동가능하도록 상기 바디부에 결합되는 제1지지대와, 상기 광학계에 대하여 좌우 방향으로 이동가능하도록 상기 바디부에 결합되는 제2지지대를 포함하며, 상기 스마트폰은 상기 제1지지대 및 상기 제2지지대에 의해 지지되어 고정되는 것이 바람직하다.In addition, according to the present invention, the fixing means includes a first support member coupled to the body portion so as to be vertically movable with respect to the optical system, and a second support member coupled to the body portion to be movable in the left- Preferably, the smartphone is supported and fixed by the first support and the second support.

또한, 본 발명에 따르면 상기 영상 분석부는 상기 연속된 영상들간의 차 영상을 획득하고, 상기 획득된 차 영상을 분석하여 움직임이 발생한 물체의 움직임 궤적을 구하며, 상기 구해진 움직임 궤적을 사전에 정해진 표준 궤적과 비교하는 것이 바람직하다.According to the present invention, the image analyzing unit obtains a difference image between the consecutive images, analyzes the obtained difference image to obtain a motion trajectory of an object in which the motion occurs, and calculates the obtained motion trajectory based on a predetermined standard trajectory . ≪ / RTI >

또한, 본 발명에 따르면 상기 촬영된 영상에서 사전에 설정된 모양의 인식마크의 위치를 확인하고, 상기 인식마크와 상기 바디부와의 상대위치를 판단하여 상기 바디부의 이동경로를 생성하는 경로형성부를 더 포함하는 것이 바람직하다.According to another aspect of the present invention, there is provided a path forming unit for confirming a position of a recognition mark having a predetermined shape in the photographed image and determining a relative position between the recognition mark and the body part to generate a movement path of the body part .

본 발명에 따르면, 사용자가 장난감과 멀리 떨어져 있고 또한 사용자가 장난감의 전방이 아닌 다른 위치에 있어도 장난감이 사용자의 명령을 인식할 수 있다. According to the invention, the toy can recognize the user's command even if the user is far from the toy and the user is in a different position than the toy.

도 1은 본 발명의 일 실시예에 따른 동작인식 장난감의 개략적인 구성도이ㄷ다.
도 2는 영상촬영 및 분석과 이에 따라 구동부가 제어되는 과정을 설명하는 흐름도이다.
도 3은 영상촬영부에서 촬영된 영상 사진이다.
도 4는 사용자의 손 움직임을 나타내는 도면이다.
도 5는 실제 사용자를 촬영한 영상이다.
도 6은 도 5에 나타난 두 영상 간의 차영상이다.
도 7은 본 발명의 다른 실시예에 따른 동작인식 장난감의 개략적인 구성도이다.
도 8은 영상촬영 및 분석과, 이에 따라 구동부가 제어되는 과정을 설명하는 흐름도이다.
도 9는 본 발명의 또 다른 실시예에 따른 동작인식 장난감의 구성도이다.
도 10은 인식마크를 나타내는 도면이다.
1 is a schematic diagram of a motion recognition toy according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining image capturing and analysis and a process of controlling a driving unit accordingly.
3 is an image photograph taken at the image photographing unit.
4 is a diagram showing the movement of the user's hand.
5 is an image of an actual user.
FIG. 6 is a difference image between two images shown in FIG.
7 is a schematic block diagram of a motion recognition toy according to another embodiment of the present invention.
FIG. 8 is a flowchart for explaining image capturing and analysis, and a process of controlling a driving unit accordingly.
9 is a block diagram of a motion recognition toy according to another embodiment of the present invention.
10 is a view showing a recognition mark.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 동작인식 장난감에 관하여 설명한다.Hereinafter, a motion recognition toy according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 동작인식 장난감의 개략적인 구성도이며, 도 2는 영상촬영 및 분석과, 이에 따라 구동부가 제어되는 과정을 설명하는 흐름도이며, 도 3은 영상촬영부에서 촬영된 영상 사진이며, 도 4는 사용자의 손 움직임을 나타내는 도면이며, 도 5는 실제 사용자를 촬영한 영상이며, 도 6은 도 5에 나타난 두 영상 간의 차영상이다.FIG. 1 is a schematic diagram of a motion recognition toy according to an embodiment of the present invention. FIG. 2 is a flowchart for explaining image capturing and analysis and a process of controlling a driving unit according to an embodiment of the present invention. FIG. 4 is a view showing a hand movement of a user, FIG. 5 is an image of a real user, and FIG. 6 is a difference image between two images shown in FIG.

도 1 내지 도 5를 참조하면, 본 실시예에 따른 동작인식 장난감(100)은 장난감 본체(10)와, 광학계(20)와, 영상촬영부(30)와, 영상분석부(40)와, 명령전달부(50)를 포함한다.1 to 5, the motion recognition toy 100 according to the present embodiment includes a toy body 10, an optical system 20, an image pickup unit 30, an image analysis unit 40, And an instruction transfer unit 50. [

장난감 본체(10)는 바디부(11)와 구동부로 구성된다. 바디부(11)는 장난감의 기본 형상을 구성하는 것으로, 도 1에서는 설명의 편의를 위해 바디부(11)를 사각형상으로 도시하였으나, 바디부(11)는 로봇이나 인형(강아지, 사람 등) 모양으로 이루어질 수 있다. 구동부는 바디부(11)를 이동시키기 위한 것으로, 바디부에 설치되는 바퀴(12)와, 바퀴에 연결된 모터(도면 미도시)로 구성될 수 있다. 또한, 장난감 본체(10)에는 바디부가 회전하는 각도(수직축을 회전축으로 하여 회전하는 각도)를 측정하기 위한 각속도 센서(도면 미도시)가 구비된다.The toy body 10 is composed of a body part 11 and a driving part. 1, the body part 11 is a rectangle. However, the body part 11 may be a robot, a doll (a dog, a person, etc.) Shape. The driving part is for moving the body part 11, and may include a wheel 12 mounted on the body part and a motor (not shown) connected to the wheel. Further, the toy body 10 is provided with an angular velocity sensor (not shown) for measuring the angle at which the body is rotated (angle of rotation about the vertical axis).

광학계(20)는 바디부(11), 보다 정확하게는 바디부에 설치된 광학계(20)를 중심으로 360°(수직축을 중심으로 360°) 방향의 영상을 영상촬영부(30)가 촬영할 수 있도록 하기 위한 것이다. 앞서 배경기술에서 설명한 바와 같이, 영상촬영부로 직접 사용자을 촬영하여 동작을 인식하는 경우, 영상촬영부의 전방에 사용자가 위치하여야만 하는데, 이러한 문제를 해결하고자 본 발명에서는 광학계(20)를 적용하였다. 도 1에 도시된 바와 같이, 광학계(20)는 반사 미러(21)와 보조 미러(22)를 포함한다. 반사 미러(21)는 원뿔 형상으로 형성되며, 이에 따라 바디부를 중심으로 360° 방향의 영상(주변 모습)이 반사 미러(21)에 반사된 후 하방향으로 전달된다. 보조 미러(22)는 반사 미러(21)의 하방에 45° 각도로 경사지게 배치되며, 이에 따라 반사 미러(21)에서 반사된 영상은 보조 미러(22)에서 반사된 후 좌측 방향으로 전달된다. 참고로, 눈에 보이는 영상은 해당 물체에서 반사된 광이므로, 도 1에 도시된 화살표를 광이라고 생각하면 이해하기에 용이하다.The optical system 20 is configured to allow the image capturing unit 30 to capture an image in a 360 ° (360 ° around the vertical axis) centering on the body part 11, more precisely the optical system 20 provided in the body part . As described in the background art, in the case of directly capturing a user to the image capturing unit and recognizing the operation, the user must be positioned in front of the image capturing unit. To solve this problem, the optical system 20 is applied in the present invention. As shown in FIG. 1, the optical system 20 includes a reflection mirror 21 and an auxiliary mirror 22. The reflection mirror 21 is formed in a conical shape so that a 360 ° image (peripheral view) around the body is reflected by the reflection mirror 21 and then transmitted downward. The auxiliary mirror 22 is disposed at an angle of 45 degrees below the reflection mirror 21 so that the image reflected by the reflection mirror 21 is reflected by the auxiliary mirror 22 and then transmitted to the left. For reference, since a visible image is light reflected from a corresponding object, it is easy to understand if the arrow shown in Fig. 1 is regarded as light.

영상촬영부(30)는 광학계(20)에서 제공되는 영상을 연속적으로 촬영한다. 보다, 구체적으로 설명하면 영상촬영부(30)는 보조 미러(22)의 전방에 배치되어, 보조 미러(22)에 맺힌 영상을 연속적으로 촬영한다. 도 3은 영상촬영부에서 촬영된 영상 이미지로, 광학계(20)를 중심으로 360°(즉, 사방) 방향의 영상이 촬영된 것을 확인할 수 있다.The image capturing unit 30 continuously captures an image provided by the optical system 20. [ More specifically, the image capturing unit 30 is disposed in front of the auxiliary mirror 22, and continuously captures an image formed on the auxiliary mirror 22. 3, it can be seen that a 360 ° (i.e., all directions) image is photographed with the optical system 20 as the image captured by the image capturing unit.

영상분석부(40)는 영상촬영부(30)에서 촬영된 연속 영상을 분석하여, 영상 내에서 움직임이 발생한 물체의 움직임 궤적을 분석하는 것으로, 예를 들어 사용자의 움직임을 분석하기 위한 것이다. 보다 구체적으로 설명하면, 영상분석부(40)는 연속된 영상들간의 차 영상을 획득하고, 획득된 차 영상을 분석하여 사용자의 움직임 궤적을 구한다. 예를 들어, 도 4에 도시된 사용자가 양손을 흔들면 연속된 촬영 영상 사이에서 손의 위치가 달라지게 되고, 이에 따라 손의 위치가 달라진 차 영상을 얻을 수 있다. 사용자가 양손을 흔드는 것을 실제로 촬영한 영상으로 설명하면, 도 5의 (A)와 (B)에서 사용자의 양손의 위치가 다르며, 이에 따라 도 5의 (A) 및 (B) 영상 간의 차영상을 구하면, 도 6에 도시된 것과 같은 차영상을 얻을 수 있다. 참고로, 도 6에서 하얀색으로 표시된 부분이 차영상(즉, 두 영상 사이에서 차이가 나는 부분)을 나타낸다. 그리고, 이와 같이 차영상을 분석하면, 사용자의 움직임 궤적 즉 손이 움직인 궤적을 분석할 수 있다. The image analyzing unit 40 analyzes a continuous image photographed by the image photographing unit 30 to analyze a motion locus of an object in which motion occurs, for example, for analyzing a user's motion. More specifically, the image analysis unit 40 obtains a difference image between consecutive images, and analyzes the obtained difference images to obtain a user's motion trajectory. For example, when the user shown in FIG. 4 shakes both hands, the position of the hand varies between successive captured images, and thus a difference image of the hand position can be obtained. 5 (A) and 5 (B), the positions of both hands of the user are different. Accordingly, a difference image between the images of FIGS. 5 (A) and 5 , A difference image as shown in Fig. 6 can be obtained. For reference, the portion indicated by white in FIG. 6 represents the difference image (i.e., the portion where the difference between the two images). And, by analyzing the car image in this way, it is possible to analyze the motion trajectory of the user, that is, the trajectory of the movement of the hand.

그리고, 영상분석부(40)에서는 위와 같이 구해진 움직임 궤적을 사전에 정해진 표준 궤적(즉, 사전에 정해진 사용자 손의 움직임)과 비교하여, 두 궤적이 일치하는지 여부를 판단한다.Then, in the image analysis unit 40, the motion locus obtained as described above is compared with a predetermined standard locus (that is, a predetermined hand motion of the user's hand) to determine whether the two loci coincide with each other.

명령전달부(50)에서는 영상분석부(40)에서 분석된 결과에 따라 구동부가 구동되도록 구동부로 신호를 발신한다. 예를 들어 설명하면, 영상 분석 결과 사용자가 양손을 흔드는 것으로 분석되고, 이 양손을 흔드는 동작이 장난감 본체가 사용자쪽으로 이동하는 것으로 정해져 있는 경우(즉, 사전에 정해진 표준 궤적), 명령전달부(50)는 장난감 본체(10)가 사용자쪽으로 이동하도록 구동부를 제어한다. The command transmission unit 50 transmits a signal to the driving unit so that the driving unit is driven according to the result analyzed by the image analysis unit 40. For example, if the image analysis results show that the user is shaking both hands, and the shaking motion of both hands is determined to move the toy body toward the user (i.e., a predetermined standard locus), the command transmission unit 50 Controls the driving unit so that the toy body 10 moves toward the user.

참고로, 차영상에서 움직임이 발생한 위치(즉, 사용자의 위치)를 확인하고, 해당 위치를 향하도록 장난감 본체를 회전한 후 직선이동을 하면 사용자쪽으로 이동할 수 있으며, 이때 각속도 센서는 장난감 본체가 회전한 각도를 측정하여 장난감 본체가 이동할 방향(즉, 사용자쪽으로 이동하는 방향인지 여부)을 결정할 수 있다.For reference, the position of the movement (i.e., the position of the user) in the difference image is checked, and when the toy body is rotated so as to face the position, the user can move toward the user by linearly moving the angular velocity sensor, An angle can be measured to determine the direction in which the toy body moves (i.e., whether it is in a direction of moving toward the user).

상술한 바와 같이, 본 발명에 따르면 광학계가 구비되어 있으므로, 장난감 본체를 기준으로 하여 사방의 영상을 촬영하고, 이를 분석하여 사용자의 명령을 확인할 수 있다. 따라서, 사용자가 장난감의 전방이 아닌 다른 곳에 위치하더라도 장난감을 조작할 수 있다.As described above, according to the present invention, since the optical system is provided, images of all directions can be taken on the basis of the toy body, and the user's commands can be confirmed by analyzing the images. Thus, the toy can be operated even if the user is located other than the front of the toy.

도 7은 본 발명의 다른 실시예에 따른 동작인식 장난감의 개략적인 구성도이며, 도 8은 영상촬영 및 분석과, 이에 따라 구동부가 제어되는 과정을 설명하는 흐름도이다.FIG. 7 is a schematic block diagram of a motion recognition toy according to another embodiment of the present invention, and FIG. 8 is a flowchart illustrating a process of imaging and analyzing and controlling a driving unit accordingly.

도 7 및 도 8을 참조하면, 본 실시예에 따른 동작인식 장난감(200)은 앞선 실시예와 같이 장난감 본체(210)와, 광학계(220)와, 영상촬영부(231)와, 영상분석부(232)와, 명령전달부(233)를 포함한다. 각 구성들의 구조 또는 기능은 앞서 설명한 실시예와 동일하며, 이하에서는 본 실시예와 앞선 실시예의 차이점을 중심으로 설명한다.7 and 8, the motion recognition toy 200 according to the present embodiment includes a toy body 210, an optical system 220, an image capturing section 231, (232), and an instruction transfer unit (233). The structure or function of each structure is the same as the above-described embodiment, and the following description will focus on the difference between the present embodiment and the previous embodiment.

먼저, 본 실시예에 따르면 장난감 본체(210)에 광학계(220)가 결합되어 하나의 제품을 이룬다. 그리고, 영상촬영부(231)와, 영상분석부(232)와, 명령전달부(233)가 하나의 독립된 디바이스로 이루어져, 장난감 본체에 분리 가능하게 장착된다. 바람직하게는, 상기 독립된 디바이스로는 스마트폰(230)이 적용될 수 있다. 즉, 스마트폰(230)의 카메라가 영상촬영부(231)로 활용되고, 스마트폰(230)의 중앙연산처리장치인 AP(Application Processor)가 영상분석부(232) 및 명령전달부(233)의 기능을 구현한다. 보다 구체적으로는, 스마트폰에 영상분석부 및 명령전달부의 기능을 구현할 수 있는 어플리케이션을 설치한 후 스마트폰을 장난감 본체에 장착하면, 스마트폰에 구비된 카메라가 영상을 촬영하고, 촬영된 영상을 어플리케이션을 통해 분석하고, 분석 결과에 따른 신호를 구동부로 출력할 수 있다. First, according to the present embodiment, the optical system 220 is coupled to the toy body 210 to form a single product. The image capturing unit 231, the image analyzing unit 232, and the command transmitting unit 233 are composed of one independent device, and are detachably mounted on the toy body. Preferably, the smartphone 230 may be applied to the independent device. That is, a camera of the smart phone 230 is used as the image capturing unit 231, and an AP (Application Processor) serving as a central processing unit of the smart phone 230 is connected to the image analyzing unit 232 and the command transmitting unit 233, . More specifically, if a smart phone is mounted on a toy body after installing an application capable of implementing functions of an image analysis unit and an instruction transfer unit on a smart phone, a camera provided in the smart phone captures an image, Analyzing it through an application, and outputting a signal according to the analysis result to the driving unit.

한편, 스마트폰(230)에서 출력된 신호를 수신하기 위하여, 장난감 본체에는 통신 기능을 가지는 제어부가 마련되는 것이 바람직한데, 이때 통신 방식으로는 Wi-Fi와 같은 무선통신방식이 적용될 수도 있고, 스마트폰과 유선으로 연결되는 방식으로도 구현될 수 있다. In order to receive a signal output from the smartphone 230, a controller having a communication function is preferably provided in the toy body. In this case, a wireless communication method such as Wi-Fi may be applied to the communication method, And can also be implemented in a wired connection to the phone.

본 발명에 따르면, 사용자의 스마트폰(또는, 사용하지 않고 있는 스마트폰)에 어플리케이션을 설치한 후, 장난감 본체에 장착하여 사용할 수 있다. 이 경우, 카메라 및 영상처리를 위한 전자칩(즉, 영상분석부 및 명령전달부의 기능을 위한 것)을 동작인식 장난감에 내장하지 않아도 되므로, 동작인식 장난감의 제작비용을 절감할 수 있다. 특히, 사용자의 움직임을 분석하기 위해서는 고성능의 카메라가 필요하고, 이 영상을 분석하기 위해서는 고성능의 전자칩이 필요하다는 점을 고려하면, 본 실시예에서는 이들을 스마트폰으로 대체함으로써 동작인식 장난감의 제작비용을 획기적으로 절감할 수 있다.According to the present invention, after an application is installed on a smart phone of a user (or a smart phone that is not used), the toy can be mounted on the toy body and used. In this case, since the camera and the electronic chip for image processing (i.e., functions for the image analysis unit and the command transfer unit) do not need to be embedded in the motion recognition toy, the manufacturing cost of the motion recognition toy can be reduced. Particularly, in order to analyze a user's motion, a high-performance camera is required. In order to analyze the image, a high-performance electronic chip is required. In this embodiment, Can be greatly reduced.

도 9는 본 발명의 또 다른 실시예에 따른 동작인식 장난감의 구성도이다.9 is a block diagram of a motion recognition toy according to another embodiment of the present invention.

도 9를 참조하면, 본 실시예에 따른 동작인식 장난감(300)은 고정수단을 더 포함한다. 고정수단은 스마트폰(330)을 장난감 본체에 고정하기 위한 것으로, 이때 스마트폰의 카메라가 광학계(320)를 통해 제공되는 영상을 촬영할 수 있는 위치에 고정하기 위한 것이다. 본 실시예에 따른 고정수단은 제1지지대(312)와, 제2지지대(313)를 포함한다. 먼저, 도 9에 도시된 바와 같이, 장난감 본체(310)에는 광학계(320)를 장난감 본체(310)에 고정하기 위한 고정부재(311)가 마련되어 있다. 제1지지대(312)는 고정부재(311)에 상하 방향으로 슬라이딩 가능하게 결합되며, 이에 따라 제1지지대(312)는 광학계(320)에 대하여 상하 방향으로 이동된다. 그리고, 제1지지대의 단부에는 스토퍼부재(3121)가 마련되어 있으며, 이 스토퍼부재(3121)는 탄성을 가지는 소재 예를 들어 고무 등으로 이루어지는 것이 바람직하다. 제2지지대(313)는 제1지지대(312)에 좌우 방향으로 슬라이딩 가능하게 결합되며, 이에 따라 제2지지대(312)는 광학계(320)에 대하여 좌우 방향으로 이동된다. Referring to FIG. 9, the motion recognition toy 300 according to the present embodiment further includes fixing means. The fixing means is for fixing the smartphone 330 to the toy body, in which the camera of the smartphone is fixed at a position where the image provided through the optical system 320 can be photographed. The fixing means according to the present embodiment includes a first support 312 and a second support 313. 9, the toy body 310 is provided with a fixing member 311 for fixing the optical system 320 to the toy body 310. As shown in FIG. The first support base 312 is vertically slidably coupled to the fixing member 311 so that the first support base 312 is moved up and down with respect to the optical system 320. A stopper member 3121 is provided at an end of the first support member. The stopper member 3121 is preferably made of a material having elasticity, for example, rubber. The second support base 313 is slidably coupled to the first support base 312 in a lateral direction so that the second support base 312 is moved in the left and right direction with respect to the optical system 320.

상술한 바와 같이 구성된 고정수단을 이용하여 스마트폰(330)을 고정하는 과정을 설명하면, 먼저 제1지지대(312)를 최대한 하방으로 내린 다음 스마트폰(330)을 제1지지대(312) 위에 올리고, 이후 스마트폰의 카메라가 광학계(320)와 마주보는 위치까지 제1지지대(312)를 올린 후 제1지지대(312)를 고정한다. 이후, 카메라가 광학계(320)에 근접할 때까지 제2지지대(313)를 우측방향으로 이동시키면, 스마트폰의 하단부가 스토퍼부재(3121)에 밀착되고, 이에 따라 스마트폰(330)은 스토퍼부재(3121)와 제2지지대(313) 사이에 끼여서 고정된다. The first support base 312 is lowered downward as much as possible, and then the smartphone 330 is placed on the first support base 312 , The camera of the smart phone then raises the first support 312 to a position facing the optical system 320 and then fixes the first support 312. The lower end of the smartphone is brought into close contact with the stopper member 3121 until the camera is moved to the right until the camera is close to the optical system 320, And is fixed between the second support 3121 and the second support 313.

상술한 바와 같이, 본 실시예에 따르면 다양한 크기의 스마트폰을 장난감 본체에 장착하여 사용할 수 있다.As described above, according to the present embodiment, smartphones of various sizes can be mounted on the toy body and used.

한편, 동작인식 장난감은 경로형성부(도면 미도시)를 더 구비할 수 있다. 경로형성부는 동작인식 장난감이 특정 위치까지 자동으로 이동할 때(즉, 사용자가 구동부를 조작하는 것이 아니라, 스스로 이동), 동작인식 장난감의 이동경로를 형성하기 위한 것이다. 이를 위해, 먼저 동작인식 장난감의 주변(벽이나 바닥 등)에는 사전에 설정된 모양의 인식마크가 부착되어 있다. 이때, 인식마크는 주위와의 구별이 용이한 것이 바람직하며, 예를 들어 도 10에 도시된 바와 같이 서로 다른 복수의 색 조합으로 이루어지는 것이 구별에 용이하다. Meanwhile, the motion recognition toy may further include a path forming unit (not shown). The path forming part is for forming a movement path of the motion recognizing toy when the motion recognizing toy automatically moves to a specific position (i.e., the user does not operate the driving part but moves himself). To this end, the perimeter (wall or floor, etc.) of the motion recognition toy is firstly affixed with a recognition mark of a preset shape. At this time, it is preferable that the recognition mark is easily distinguishable from the surroundings. For example, as shown in Fig. 10, it is easily distinguishable from a plurality of different color combinations.

경로형성부는 촬영된 영상에서 인식마크의 위치를 확인하고, 이를 통해 동작인식 장난감과 인식마크의 상대적인 위치(떨어진 거리 및 방향)를 파악한다. 그리고, 해당 인식마크의 위치(좌표)가 사전에 저장되어 있으면, 이를 활용하여 동작인식 장난감의 현재 위치를 확인할 수 있다. 그런 다음, 현재 위치와 목적지의 위치를 고려하여, 동작인식 장난감이 이동할 이동경로(방향, 거리 등)를 형성한다. The path forming unit identifies the position of the recognition mark on the photographed image, and thereby grasps the relative position (distance and direction) between the motion recognition toy and the recognition mark. If the position (coordinate) of the recognition mark is stored in advance, it is possible to confirm the current position of the motion recognition toy. Then, in consideration of the current position and the position of the destination, a motion path (direction, distance, etc.) through which the motion recognition toy moves is formed.

참고로, 동작인식 장난감에는 구동부에 전원을 공급하기 위한 배터리가 탑재되며, 따라서 정기적(또는 배터리 방전시)으로 배터리를 충전할 필요가 있다. 이때, 경로형성부는 현재 동작인식 장난감의 위치를 확인하여, 충전기까지의 이동경로를 형성함으로써, 동작인식 장난감이 자동으로 충전기로 이동하여 충전이 이루어지도록 할 수 있다.For reference, the motion recognition toy is loaded with a battery for supplying power to the driving unit, and thus it is necessary to charge the battery regularly (or at the time of battery discharge). At this time, the path forming unit can confirm the position of the current motion recognition toy and form a movement path to the charger, so that the motion recognition toy can be automatically moved to the charger to perform charging.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

예를 들어, 장난감 본체에 가전제품, 예를 들어 TV, 에어컨 조명 등을 제어하는 신호를 출력하는 적외선 출력부가 구비될 수 있다. 그러면, 사용자는 동작인식 장난감을 사용자의 가까운 위치로 이동시킨 후, 명령(예를 들어, 사전에 설정된 동작)을 통해 가전제품을 조작할 수 있다.For example, the toy main body may be provided with an infrared ray output unit for outputting signals for controlling household appliances such as TVs, air conditioner lights, and the like. Then, the user can move the motion recognition toy to a nearby location of the user, and then operate the home appliance through an instruction (for example, a preset operation).

또한, 장난감 본체에는 광학계와 스마트폰을 회전시키는 회전구동부가 더 구비될 수 있다. 그리고, 이와 같이 회전구동부가 설치되면, 스마트폰이 장난감 본체에 장착되어 있는 상태에서도, 사용자가 스마트폰의 화면(디스플레이)을 볼 수 있도록 스마트폰을 회전할 수 있다.The toy body may further include a rotation driving unit for rotating the optical system and the smartphone. When the rotation driving unit is installed as described above, the user can rotate the smartphone so that the user can see the screen of the smartphone even when the smartphone is mounted on the toy body.

100...동작인식 장난감 10...장난감 본체
11...바디부 12...바퀴
20...광학계 21...반사 미러
22...보조 미러 30...영상촬영부
40...영상분석부 50...명령전달부
100 ... motion recognition toy 10 ... toy body
11 ... body part 12 ... wheels
20 ... optical system 21 ... reflection mirror
22 ... auxiliary mirror 30 ... image taking section
40 ... image analysis unit 50 ... command delivery unit

Claims (8)

바디부와, 상기 바디부를 이동시키는 구동부를 가지는 장난감 본체;
원뿔 또는 다각뿔 형상으로 형성되어 상기 바디부에 설치되며, 상기 바디부를 중심으로 360° 방향의 영상을 일방향으로 반사시키는 반사 미러를 포함하는 광학계;
스마트폰의 영상촬영부가 상기 광학계를 통해 제공되는 영상을 촬영할 수 있는 위치에 위치되도록 상기 스마트폰을 상기 장난감 본체에 고정시키는 고정수단; 및
상기 스마트폰과의 신호전달을 위한 제어부;를 포함하며,
상기 고정수단은, 상기 광학계에 대하여 상하 방향으로 이동가능하도록 상기 바디부에 결합되는 제1지지대와, 상기 광학계에 대하여 좌우 방향으로 이동가능하도록 상기 바디부에 결합되는 제2지지대를 포함하며, 상기 스마트폰은 상기 제1지지대 및 상기 제2지지대에 의해 지지되어 고정되며,
상기 스마트폰에서 상기 광학계를 통해 제공되는 영상을 연속적으로 촬영하고, 상기 촬영된 연속 영상을 분석하며, 상기 분석된 결과에 따라 상기 구동부가 구동하도록 상기 제어부로 신호를 전달하는 것을 특징으로 하는 동작인식 장난감.
A toy body having a body part and a driving part for moving the body part;
An optical system formed in a cone or polygonal pyramid shape and provided on the body part and including a reflection mirror for reflecting an image in a 360 ° direction in one direction about the body part;
Fixing means for fixing the smartphone to the toy body such that the image pickup unit of the smartphone is positioned at a position where the image provided through the optical system can be captured; And
And a controller for transmitting a signal to the smartphone,
Wherein the fixing means includes a first support which is coupled to the body so as to be movable up and down with respect to the optical system and a second support which is coupled to the body so as to be movable in the left and right direction with respect to the optical system, The smartphone is supported and fixed by the first support and the second support,
Wherein the smartphone continuously captures an image provided through the optical system, analyzes the captured continuous image, and transmits a signal to the controller to drive the driving unit according to the analyzed result. toy.
제1항에 있어서,
상기 바디부에는 상기 바디부의 회전량을 측정하는 각속도 센서가 설치되어 있는 것을 특징으로 하는 동작인식 장난감.
The method according to claim 1,
Wherein the body part is provided with an angular velocity sensor for measuring the amount of rotation of the body part.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 영상 분석부는 상기 연속된 영상들간의 차 영상을 획득하고,
상기 획득된 차 영상을 분석하여 움직임이 발생한 물체의 움직임 궤적을 구하며,
상기 구해진 움직임 궤적을 사전에 정해진 표준 궤적과 비교하는 것을 특징으로 하는 동작인식 장난감.
The method according to claim 1,
Wherein the image analyzing unit obtains a difference image between the consecutive images,
The movement image of the object in which motion occurs is obtained by analyzing the obtained difference image,
And comparing the obtained motion locus with a predetermined standard locus.
제1항에 있어서,
상기 촬영된 영상에서 사전에 설정된 모양의 인식마크의 위치를 확인하고, 상기 인식마크와 상기 바디부와의 상대위치를 판단하여 상기 바디부의 이동경로를 생성하는 경로형성부를 더 포함하는 것을 특징으로 하는 동작인식 장난감.
The method according to claim 1,
Further comprising a path forming unit for confirming a position of a recognition mark of a predetermined shape in the photographed image and for determining a relative position between the recognition mark and the body part to generate a movement path of the body part, Motion recognition toys.
KR1020140089702A 2014-07-16 2014-07-16 A gesture recognition toy KR101536353B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140089702A KR101536353B1 (en) 2014-07-16 2014-07-16 A gesture recognition toy
PCT/KR2015/007366 WO2016010369A1 (en) 2014-07-16 2015-07-15 Action recognition toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140089702A KR101536353B1 (en) 2014-07-16 2014-07-16 A gesture recognition toy

Publications (1)

Publication Number Publication Date
KR101536353B1 true KR101536353B1 (en) 2015-07-14

Family

ID=53793193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140089702A KR101536353B1 (en) 2014-07-16 2014-07-16 A gesture recognition toy

Country Status (2)

Country Link
KR (1) KR101536353B1 (en)
WO (1) WO2016010369A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714987B1 (en) * 2016-08-31 2017-03-09 이상준 Apparatus for tracking of module combined robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100692526B1 (en) * 2005-12-08 2007-03-12 한국전자통신연구원 Gesture recognition apparatus and methods for automatic control of systems
KR101281806B1 (en) * 2012-12-28 2013-07-04 (주) 퓨처로봇 Personal service robot
KR101294212B1 (en) * 2006-11-08 2013-08-08 에스케이플래닛 주식회사 Motion Detection system in robot and thereof method
KR20140003987A (en) * 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200378726Y1 (en) * 2004-12-28 2005-03-18 주식회사 소프트로닉스 A full direction panorama camera device using a conical mirror
KR20110003146A (en) * 2009-07-03 2011-01-11 한국전자통신연구원 Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100692526B1 (en) * 2005-12-08 2007-03-12 한국전자통신연구원 Gesture recognition apparatus and methods for automatic control of systems
KR101294212B1 (en) * 2006-11-08 2013-08-08 에스케이플래닛 주식회사 Motion Detection system in robot and thereof method
KR20140003987A (en) * 2012-06-25 2014-01-10 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR101281806B1 (en) * 2012-12-28 2013-07-04 (주) 퓨처로봇 Personal service robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714987B1 (en) * 2016-08-31 2017-03-09 이상준 Apparatus for tracking of module combined robot

Also Published As

Publication number Publication date
WO2016010369A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
KR101412590B1 (en) Robot cleaner, and system and method for remotely controlling the same
KR101607671B1 (en) Mobile robot and method for docking with charge station of mobile robot
KR101966127B1 (en) robot cleaner system and a control method of the same
WO2017071372A1 (en) Robot having charging automatic-return function, system and corresponding method
CN109605363B (en) Robot voice control system and method
KR101378883B1 (en) Robot cleaner, terminal, and system and method for remotely controlling the robot
KR101356161B1 (en) Robot cleaner, and system and method for remotely controlling the same
CN111479662A (en) Artificial intelligent mobile robot for learning obstacles and control method thereof
JP5366048B2 (en) Information provision system
US20180150148A1 (en) Handheld interactive device and projection interaction method therefor
KR20110119118A (en) Robot cleaner, and remote monitoring system using the same
US20160170416A1 (en) Flying apparatus and method of remotely controlling a flying apparatus using the same
KR101297255B1 (en) Mobile robot, and system and method for remotely controlling the same
WO2015191910A1 (en) System and method for reinforcing programming education through robotic feedback
KR101287474B1 (en) Mobile robot, and system and method for remotely controlling the same
WO2019109846A1 (en) Photographic robot
KR101352518B1 (en) Mobile robot, terminal, and system and method for remotely controlling the robot
JP2018075192A (en) Vacuum cleaner
JP2007156689A (en) Light source position detection device and face recognition device using the same and self-propelled robot
KR101536353B1 (en) A gesture recognition toy
JP5470516B2 (en) Radio communication apparatus for operating mobile unit, communication control program, and mobile unit
KR20190103512A (en) Moving Robot and controlling method
KR101708301B1 (en) Robot cleaner and remote control system of the same
KR20110119116A (en) Robot cleaner, remote monitoring system, and monitoring method using robot cleaner
US20150092104A1 (en) Strobe device and photography device provided with same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180709

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190522

Year of fee payment: 5

R401 Registration of restoration