JP7214092B2 - Image control device and its program - Google Patents

Image control device and its program Download PDF

Info

Publication number
JP7214092B2
JP7214092B2 JP2018104659A JP2018104659A JP7214092B2 JP 7214092 B2 JP7214092 B2 JP 7214092B2 JP 2018104659 A JP2018104659 A JP 2018104659A JP 2018104659 A JP2018104659 A JP 2018104659A JP 7214092 B2 JP7214092 B2 JP 7214092B2
Authority
JP
Japan
Prior art keywords
image
skeleton
character
person
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018104659A
Other languages
Japanese (ja)
Other versions
JP2019211828A (en
Inventor
貴志 安川
誠 椎名
Original Assignee
有限会社エムツー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 有限会社エムツー filed Critical 有限会社エムツー
Priority to JP2018104659A priority Critical patent/JP7214092B2/en
Publication of JP2019211828A publication Critical patent/JP2019211828A/en
Application granted granted Critical
Publication of JP7214092B2 publication Critical patent/JP7214092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本願発明は、画像制御装置、及びそのプログラムに関する。 The present invention relates to an image control device and its program.

近年、携帯端末の発展により、携帯端末に搭載されているカメラで撮影された画像にキャラクタやスタンプ等の画像コンテンツを合成して表示する技術が数多く出回っている。これらの多くは、携帯端末のカメラで撮影した画像に画像コンテンツを配置することができる携帯端末向けのアプリケーションとして普及されている。このようなアプリケーションでは、カメラで撮影した画像上に、ユーザが大きさと位置とを調整した画像コンテンツを重ねて表示画面に表示することが行われている。 2. Description of the Related Art In recent years, with the development of mobile terminals, there are many techniques for synthesizing and displaying image contents such as characters and stamps with images captured by cameras installed in mobile terminals. Many of these are widely used as applications for mobile terminals that allow image content to be arranged in images captured by cameras of mobile terminals. In such an application, image content whose size and position are adjusted by the user is superimposed on the image captured by the camera and displayed on the display screen.

別の技術として、特許文献1がある。特許文献1では、表示画面に表示されているユーザ同士の顔の距離が所定の距離より近い場合に、画像コンテンツを表示画面上に出現させて表示し、ユーザと共に撮影する技術が記載されている。 Another technique is disclosed in Patent Document 1. Japanese Patent Laid-Open No. 2005-100001 describes a technique of displaying image content on a display screen and photographing the user together with the user when the distance between the faces of the users displayed on the display screen is closer than a predetermined distance. .

特開2018-23056号公報JP 2018-23056 A

例えばユーザがキャラクタの画像コンテンツとツーショット写真になるように撮影した場合、上述の携帯端末向けのアプリケーションでは、撮影したユーザの画像に合うようにユーザが大きさと位置とを調整する必要がある。 For example, if the user takes a picture of the image content of the character and a two-shot picture, the user needs to adjust the size and position so that the user's image fits in the application for mobile terminals described above.

また、特許文献1の技術を用いる場合、ユーザの大きさ及び立ち位置がキャラクタに合うように、ユーザ自身が立ち位置を調整する必要がある。 Moreover, when using the technique of Patent Document 1, the user himself/herself needs to adjust the standing position so that the user's size and standing position match the character.

そこで本願発明が解決しようとする課題は、上記問題点を解決することであり、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成する技術を提供することである。 Therefore, the problem to be solved by the present invention is to solve the above-mentioned problems, and to provide a technique for generating an image in which the user appears together with the image content without the user adjusting the image content. .

上記課題を解決するための本願発明の画像制御装置は、撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段とを有する。 An image control apparatus according to the present invention for solving the above problems includes an estimation means for estimating a posture of a person based on a skeleton of the person detected from a captured image, and acquiring a character image in a pose corresponding to the estimated posture. an acquiring means for converting the size of the acquired character image in accordance with the vertical ratio of the detected skeleton on the captured image, and displaying a superimposed image in which the converted character image is superimposed on the captured image. and display control means for causing the display to be displayed.

本願によると、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成することができる。 According to the present application, an image can be generated in which the user is shown with the image content without the user adjusting the image content.

画像制御装置の概略図である。1 is a schematic diagram of an image control device; FIG. 画像制御装置のブロック図の一例である。1 is an example of a block diagram of an image control device; FIG. キャラクタデータベースの一例である。It is an example of a character database. 体勢モデルデータベースの一例である。It is an example of a posture model database. キャラクタ画像データベースの一例である。It is an example of a character image database. キーポイントを説明するための図である。It is a figure for demonstrating a key point. キーポイントの階層構造の一例を示した図である。FIG. 4 is a diagram showing an example of a hierarchical structure of keypoints; 本発明の動作を説明するための図である。It is a figure for demonstrating the operation|movement of this invention.

本発明の特徴を説明するために、以下において、図面を参照して具体的に述べる。 In order to explain the features of the present invention, specific description will be made below with reference to the drawings.

本発明の画像制御装置10は、ユーザがキャラクタと一緒に写っている写真を提供するための装置である。画像制御装置1は、予め複数のポーズのキャラクタの画像を用意し、その中からユーザの体勢に合ったポーズのキャラクタの画像をユーザに合わせて調整して、キャラクタがユーザと一緒に写っている写真を生成する。尚、本発明で説明するユーザの体勢は、ユーザの体位、ポーズ、姿勢を含む上位概念である。 The image control device 10 of the present invention is a device for providing a photograph in which a user is photographed together with a character. The image control device 1 prepares images of characters in a plurality of poses in advance, adjusts the image of the character in a pose that matches the posture of the user, and adjusts the image of the character with the user. Generate photos. It should be noted that the user's posture described in the present invention is a general concept including the user's posture, pose, and attitude.

図1は、本発明の画像制御装置1が使用される例を示すイメージ図である。図1に示した例では、カメラを搭載したデジタルサイネージのように、人とほぼ同等の大きさの表示画面を有する装置を用いて説明するが、スマートフォンを本発明の画像制御装置のように用いても良いものとする。 FIG. 1 is an image diagram showing an example in which an image control device 1 of the present invention is used. In the example shown in FIG. 1, a device having a display screen of approximately the same size as a human being, such as digital signage equipped with a camera, is used for explanation, but a smartphone is used as the image control device of the present invention. be good.

画像制御装置10は、図2の画像制御装置10のブロック図に示す通り、記憶部11と、撮像部12と、推定部13と、取得部14と、表示制御部15と、深度センサ16と、画像キャプチャ部17と、表示部20を有する。表示部20は、例えばタッチパネルを搭載した表示画面21を有する。 As shown in the block diagram of the image control device 10 in FIG. , an image capture unit 17 and a display unit 20 . The display unit 20 has a display screen 21 equipped with, for example, a touch panel.

記憶部11は、キャラクタデータベース111と体勢モデルデータ112とキャラクタ画像データベース113と、画面データベース114を有する。 The storage unit 11 has a character database 111 , posture model data 112 , a character image database 113 and a screen database 114 .

キャラクタデータベース111は、図3に示す通り、キャラクタを一意に識別するキャラクタIDとキャラクタ名とが互いに対応付けられて記憶されている。 In the character database 111, as shown in FIG. 3, a character ID that uniquely identifies a character and a character name are associated with each other and stored.

体勢モデルデータベース112は、人物の各種体勢のモデルデータが記憶されており、撮影部11が撮像した画像中の人物(ユーザ)の体勢を推定するのに用いられる。図4に示す通り、体勢モデルデータベース112は、体勢IDとモデルデータとが対応付けられて記憶されている。体勢モデルデータベース112の体勢IDはモデルデータを一意に識別する識別番号である。モデルデータには、ユーザの体勢を推定するための条件がリストで記されている。 The posture model database 112 stores model data of various postures of a person, and is used to estimate the posture of a person (user) in an image captured by the imaging unit 11 . As shown in FIG. 4, the posture model database 112 stores posture IDs and model data in association with each other. The posture ID of the posture model database 112 is an identification number that uniquely identifies model data. The model data contains a list of conditions for estimating the user's posture.

キャラクタ画像データベース113には、図5に示す通り、異なるポーズのキャラクタ画像が体勢IDに対応付けられて、キャラクタ毎に記憶されている。 In the character image database 113, as shown in FIG. 5, character images in different poses are associated with posture IDs and stored for each character.

表示画面データベース114は、ユーザが撮影する際に必要となるメニュー画面の画面データが記憶されている。 The display screen database 114 stores screen data of menu screens necessary for the user to shoot.

撮像部12は、ユーザを撮影する為の特別な装置を設けても良いが、CCDやCMOS等を備えた一般的なデジタルカメラであっても良い。撮像部11が撮像した画像のファイル形式は本発明では問わず、JPEG(Joint Photographic Experts Group)等で良い。撮像部12は、表示装置20の表示画面の外周に沿った位置に配置されるのが好ましい。 The imaging unit 12 may be provided with a special device for photographing the user, or may be a general digital camera equipped with a CCD, CMOS, or the like. In the present invention, the file format of the image captured by the imaging unit 11 may be JPEG (Joint Photographic Experts Group) or the like. The imaging unit 12 is preferably arranged along the outer periphery of the display screen of the display device 20 .

推定部13は、撮像部12が撮像した画像から、人物の体勢を推定する。推定部13が推定する体勢は予め決められており、推定部13は推定する体勢毎に定義付けられている推定条件に基づいて体勢を推定する。画像から人物の体勢を推定する方法は本発明では特に指定しないが、一例を以下に説明する。 The estimation unit 13 estimates the posture of the person from the image captured by the imaging unit 12 . The posture estimated by the estimating unit 13 is predetermined, and the estimating unit 13 estimates the posture based on an estimation condition defined for each posture to be estimated. A method for estimating a person's posture from an image is not particularly specified in the present invention, but an example will be described below.

推定部13は、撮像部12が撮像した画像中から人物の体勢を推定するにあたって、まず人物の骨格を認識する。推定部13は、骨格を認識する際に、特徴点となりうるキーポイントを人物の画像から検出する。キーポイントは、例えば身体の部位の中心部、身体の部位同士の接続点、及び関節の少なくとも1つを含む。図6では、身体の部位の中心部、身体の部位同士の接続点、及び関節を含む以下の(1)から(19)をキーポイントとして検出する場合の例を示している。
(1)JOINT HEAD(頭中心部)
(2)JOINT NECK(頸部中心部)
(3)JOINT LEFT AND RIGHT COLLAR(胸鎖関節部)
(4)JOINT TRSO(体幹中心部)
(5)JOINT WAIST(腰中心部)
(6)JOINT RIGHT SHOLDER(右肩関節部)
(7)JOINT LEFT SHOLDER(左肩関節部)
(8)JOINT RIGHT ELBOW(右肘関節部)
(9)JOINT LEFT ELBOW(左肘関節部)
(10)JOINT RIGHT WRIST(右手首関節部)
(11)JOINT LEFT WRIST(左手首関節部)
(12)JOINT RIGHT HAND(右手関節部)
(13)JOINT LEFT HAND(左手関節部)
(14)JOINT RIGHT HIP(右股関節部)
(15)JOINT LEFT HIP(左股関節部)
(16)JOINT RIGHT KNEE(右膝関節部)
(17)JOINT LEFT KNEE(左膝関節部)
(18)JOINT RIGHT ANKLE(右足関節部)
(19)JOINT LEFT ANKLE(左脚関節部)
各キーポイントは、他のキーポイントとの間で親子関係が予め組まれて階層構造を成している。キーポイントの階層構造の一例を図7に示す。JOINT HEAD(1)は階層構造の頂点である。JOINT HEAD(1)を最上位にして、JOINT NECK(2)、JOINT LEFT AND RIGHT COLLAR(3)と、親子関係が順に下層へと繋がっていく。JOINT LEFT AND RIGHT COLLAR(3)では、子にあたるキーポイントが、JOINT TRSO(4)、JOINT RIGHT SHOLDER(6)、JOINT LEFT SHOLDER(7)の3つになる。
The estimation unit 13 first recognizes the skeleton of the person when estimating the posture of the person from the image captured by the imaging unit 12 . The estimating unit 13 detects key points that can be feature points from the image of the person when recognizing the skeleton. The keypoints include, for example, at least one of the centers of body parts, connection points between body parts, and joints. FIG. 6 shows an example in which the following (1) to (19) including the center of body parts, connection points between body parts, and joints are detected as key points.
(1) JOINT HEAD (center of head)
(2) JOINT NECK (neck center)
(3) JOINT LEFT AND RIGHT COLLAR (sternoclavicular joint)
(4) JOINT TRSO (central trunk)
(5) JOINT WAIST (center of waist)
(6) JOINT RIGHT SHOLDER (right shoulder joint)
(7) JOINT LEFT SHOLDER (left shoulder joint)
(8) JOINT RIGHT ELBOW (right elbow joint)
(9) JOINT LEFT ELBOW (left elbow joint)
(10) JOINT RIGHT WRIST (right wrist joint)
(11) JOINT LEFT WRIST (left wrist joint)
(12) JOINT RIGHT HAND (Right hand joint)
(13) JOINT LEFT HAND (left hand joint)
(14) JOINT RIGHT HIP (right hip joint)
(15) JOINT LEFT HIP (left hip joint)
(16) JOINT RIGHT KNEE (right knee joint)
(17) JOINT LEFT KNEE (left knee joint)
(18) JOINT RIGHT ANKLE (right ankle joint)
(19) JOINT LEFT ANKLE (left leg joint)
Each keypoint has a hierarchical structure in which a parent-child relationship is established in advance with other keypoints. An example of the hierarchical structure of keypoints is shown in FIG. JOINT HEAD(1) is the top of the hierarchical structure. JOINT HEAD (1) is at the top, JOINT NECK (2), JOINT LEFT AND RIGHT COLLAR (3), and the parent-child relationship is connected to the lower layer in order. In JOINT LEFT AND RIGHT COLLAR (3), the child key points are JOINT TRSO (4), JOINT RIGHT SHOLDER (6), and JOINT LEFT SHOLDER (7).

JOINT TRSO(4)はJOINT WAIST(5)と親子関係であり、JOINT WAIST(5)はJOINT RIGHT HIP(14)とJOINT LEFT HIP(15)と親子関係が組まれている。JOINT RIGHT HIP(14)は、自身を上位として、JOINT RIGHT KNEE(16)、JOINT RIGHT ANKLE(18)の順に親子関係が下層へと繋がっていく。JOINT LEFT HIPは、JOINT RIGHT HIP(14)同様に自身を上位として、JOINT LEFT KNEE(17)、JOINT LEFT ANKLE(19)の順に親子関係が下層へと繋がっていく。 JOINT TRSO (4) has a parent-child relationship with JOINT WAIST (5), and JOINT WAIST (5) has a parent-child relationship with JOINT RIGHT HIP (14) and JOINT LEFT HIP (15). JOINT RIGHT HIP (14) has itself as the upper layer, and the parent-child relationship is connected to the lower layers in the order of JOINT RIGHT KNEE (16) and JOINT RIGHT ANKLE (18). JOINT LEFT HIP, like JOINT RIGHT HIP (14), has itself as the upper layer, and the parent-child relationship is connected to the lower layers in the order of JOINT LEFT KNEE (17) and JOINT LEFT ANKLE (19).

JOINT RIGHT SHOLDER(6)は、自身を上位として、JOINT RIGHT ELBOW(8)、JOINT RIGHT WRIST(10)、JOINT RIGHT HAND(12)の順に親子関係が下層へと繋がっていく。 JOINT RIGHT SHOLDER (6) has itself as a higher layer, and the parent-child relationship is connected to the lower layers in the order of JOINT RIGHT ELBOW (8), JOINT RIGHT WRIST (10), and JOINT RIGHT HAND (12).

JOINT LEFT SHOLDER(7)は、JOINT RIGHT SHOLDER(6)同様に、JOINT LEFT ELBOW(9)、JOINT LEFT WRIST(11)、JOINT LEFT HAND(13)の順に親子関係が下層へと繋がっていく。 JOINT LEFT SHOLDER (7), like JOINT RIGHT SHOLDER (6), has a parent-child relationship in the order of JOINT LEFT ELBOW (9), JOINT LEFT WRIST (11), and JOINT LEFT HAND (13).

図7は、上述のような親子関係にあるキーポイント同士を直線で結んで木構造として示した図である。図6においても、親子関係が組まれているキーポイント間を直線で結んで示している。尚、図6及び図7にて示したキーポイント及び木構造は一例であり、キーポイント及び木構造は如何なる場所及び構造であっても本発明を適用することは可能である。 FIG. 7 is a diagram showing a tree structure in which the key points having the parent-child relationship as described above are connected with straight lines. In FIG. 6 as well, the key points having a parent-child relationship are shown by connecting them with straight lines. The keypoints and tree structure shown in FIGS. 6 and 7 are examples, and the present invention can be applied to any location and structure of the keypoints and tree structure.

推定部13は、親子関係にあるキーポイント間の直線を骨格と認識し、所定の骨格間の角度が体勢モデルデータベース112のモデルデータに記されている条件に当てはまるかを判定する。推定部13は、所定の骨格間の角度が条件リストに一致する割合を算出し、一番高い割合に対応付けられている体勢がユーザの体勢であると推定する。即ち、認識した骨格と、モデルデータとの近似度を算出し、一番近いモデルデータの体勢をユーザの体勢であると推定する。 The estimation unit 13 recognizes straight lines between key points in a parent-child relationship as skeletons, and determines whether a predetermined angle between skeletons satisfies the conditions described in the model data of the posture model database 112 . The estimating unit 13 calculates the ratio of the predetermined interskeletal angles matching the condition list, and estimates that the posture associated with the highest ratio is the user's posture. That is, the degree of approximation between the recognized skeleton and the model data is calculated, and the posture of the closest model data is estimated to be the posture of the user.

尚、推定部13が画像中から人物の関節を検出する方法は特定しないが、例えば機械学習装置を用いて行ってもよい。機械学習装置は、画像中の人物の関節を指定して取得した人物と関節の関係を教師データとして用いて関節を検出しても、ディープラーニングにより人物と関節の関係を取得して、これを教師データとして用いて関節を検出しても良い。 Although the method by which the estimating unit 13 detects the human joints from the image is not specified, for example, a machine learning device may be used. Even if the machine learning device detects the joints by using the relationship between the person and the joint obtained by specifying the joint of the person in the image as training data, the machine learning device acquires the relationship between the person and the joint by deep learning and uses it. Joints may be detected using this as teacher data.

取得部14は、キャラクタ画像データベース113から、推定部13によって推定された体勢に対応付けられているポーズのキャラクタ画像を取得する。 The acquiring unit 14 acquires a character image of a pose associated with the posture estimated by the estimating unit 13 from the character image database 113 .

表示制御部15は、表示画像データベース114からメニュー画面を読み出して表示画面21に表示させる。表示制御部15は、キャラクタ選択のメニュー画面を表示する際、キャラクタデータベース111のキャラクタIDを読み込む。読込んだキャラクタIDに対応付けられているキャラクタ名をキャラクタデータベース111から読み出す。更に、表示制御部15は、読込んだキャラクタIDの画像をキャラクタ画像データベース113から読み出して、先に読み出したキャラクタ名と共に並べて表示画面21に表示させる。キャラクタ画像データベース113から読み出す画像は、予め決められていてもランダムでも良い。 The display control unit 15 reads the menu screen from the display image database 114 and displays it on the display screen 21 . The display control unit 15 reads the character ID of the character database 111 when displaying the character selection menu screen. A character name associated with the read character ID is read from the character database 111 . Further, the display control unit 15 reads out the image of the read character ID from the character image database 113 and displays it on the display screen 21 side by side with the character name read out previously. The image read out from the character image database 113 may be predetermined or random.

表示制御部15は、撮像部12が撮像した画像に、取得部14が選択したキャラクタ画像を重畳(合成)して、表示画面21に表示させる。キャラクタ画像を重畳する際、表示制御部15は、推定部13が認識した骨格の撮像画像上での垂直方向の割合に応じて、選択したキャラクタ画像の大きさを変換する。表示制御部15は、推定部13が認識した骨格の画像上での水平方向及び垂直方向(奥行)の位置の少なくとも一方に応じた位置に、大きさを変換させたキャラクタ画像を撮像画像に配置する。表示制御部15が行う、キャラクタ画像の位置決定の例を説明する。 The display control unit 15 superimposes (combines) the character image selected by the acquisition unit 14 on the image captured by the image capturing unit 12 and displays it on the display screen 21 . When superimposing the character image, the display control unit 15 converts the size of the selected character image according to the vertical ratio of the skeleton recognized by the estimation unit 13 on the captured image. The display control unit 15 arranges the character image whose size has been converted in the captured image at a position corresponding to at least one of the horizontal and vertical (depth) positions on the image of the skeleton recognized by the estimation unit 13. do. An example of character image position determination performed by the display control unit 15 will be described.

例えば、画像を右領域と左領域等の複数領域に分け、表示制御部15は推定した骨格が位置する領域以外の領域にキャラクタ画像を配置する。また、体勢モデルデータベース112の体勢IDに、画面上のどの位置に配置するかの配置情報を予め対応付けて記憶させおき、表示制御部15はこの配置情報に基づいて、キャラクタ画像を配置する。 For example, the image is divided into a plurality of areas such as a right area and a left area, and the display control unit 15 arranges the character image in an area other than the area where the estimated skeleton is located. In addition, the posture ID of the posture model database 112 is previously associated with placement information indicating the position on the screen to be stored, and the display control unit 15 places the character image based on this placement information.

他の例としては、各ポーズのキャラクタ画像にも骨格を定義付けておき、キャラクタ画像データベース113の体勢IDに、認識したユーザの骨格に対するキャラクタ画像の骨格の相対位置を配置情報として対応付けて記憶させておき、表示制御部15はこの配置情報とキャラクタの骨格とユーザの骨格とに基づいて、キャラクタ画像を配置する。 As another example, a skeleton is also defined for the character image of each pose, and the relative position of the skeleton of the character image with respect to the skeleton of the recognized user is associated with the posture ID of the character image database 113 and stored as arrangement information. Then, the display control unit 15 arranges the character image based on this arrangement information, the skeleton of the character, and the skeleton of the user.

本発明の表示制御部15は、上記のいずれの方法を用いてキャラクタ画像を撮像画像に配置する。尚、表示制御部15は、認識した骨格に応じて、キャラクタ画像を配置する角度を変更させて配置しても良い。 The display control unit 15 of the present invention arranges the character image in the captured image using any of the above methods. The display control unit 15 may change the angle at which the character image is arranged according to the recognized skeleton.

深度センサ16は、撮像部12からの撮像画像を用いて、ユーザが所定の動作を行うのを検出する。例えば、深度センサ16が定期的に対象物までの距離を測定して深度画像を生成し、その中から人物にあたるユーザの形状を検出し、その形状の時系列の変化によってユーザが所定の動作を行ったかを監視する。 The depth sensor 16 uses the captured image from the imaging unit 12 to detect that the user performs a predetermined action. For example, the depth sensor 16 periodically measures the distance to the object to generate a depth image, detects the shape of the user corresponding to the person from the depth image, and detects the user's predetermined action according to the time-series change of the shape. Monitor what you've done.

画像キャプチャ部17は、深度センサがユーザの所定の動作を検出すると、表示制御部15が撮像画像にキャラクタ画像を重畳した合成画像をキャプチャする。画像キャプチャ部17は、キャプチャした画像を撮影画像として記憶部11に記憶させる。尚、深度センサがユーザの所定の動作を検出すると、セルフタイマーが起動して、カウントダウン後に画像キャプチャ部17が画像をキャプチャする構成であってもよい。 When the depth sensor detects a predetermined action of the user, the image capture unit 17 captures a composite image in which the display control unit 15 superimposes the character image on the captured image. The image capture unit 17 stores the captured image in the storage unit 11 as a photographed image. Note that the self-timer may be activated when the depth sensor detects a predetermined action of the user, and the image capture unit 17 may capture an image after the countdown.

続いて、本実施の形態の動作について説明する。図8は、本発明の動作を説明するためのフロー図である。 Next, the operation of this embodiment will be described. FIG. 8 is a flow chart for explaining the operation of the present invention.

表示制御部15は、キャラクタデータベース111とキャラクタ画像データベース113とから読み出したキャラクタ名と該キャラクタの画像と、表示画面データベース114から読み出したメニュー画面とからユーザにキャラクタを選択させるためのメニュー画面を生成して、表示画面21に表示させる(ステップ1501)。 The display control unit 15 generates a menu screen for allowing the user to select a character from the character name and the image of the character read from the character database 111 and the character image database 113, and the menu screen read from the display screen database 114. to display it on the display screen 21 (step 1501).

ユーザが表示画面21に表示されているメニュー画面を用いて、キャラクタを選択すると、入力部が該キャラクタのキャラクタIDを取得部14に通知する(ステップ1502)。 When the user selects a character using the menu screen displayed on the display screen 21, the input section notifies the acquisition section 14 of the character ID of the selected character (step 1502).

キャラクタが選択されると、カメラが起動し、撮像部12が撮像した撮像画像が表示画面21に表示される(ステップ1503)。 When the character is selected, the camera is activated and the captured image captured by the imaging section 12 is displayed on the display screen 21 (step 1503).

推定部13は、撮像画像からユーザの骨格を認識する(ステップ1504)。 The estimation unit 13 recognizes the user's skeleton from the captured image (step 1504).

推定部13は、認識した骨格の所定の骨格間の角度が、体勢モデルデータベース112のモデルデータに記されている条件に一致する割合を算出する(ステップ1505)。 The estimating unit 13 calculates the rate at which the angles between predetermined skeletons of the recognized skeletons match the conditions described in the model data of the posture model database 112 (step 1505).

推定部13は、一番高い割合のモデルデータに対応付けられている体勢IDを読み出す(ステップ1506)。 The estimation unit 13 reads the posture ID associated with the model data with the highest ratio (step 1506).

取得部14は、ステップ1502で選択されたキャラクタのキャラクタIDと、推定部13が読み出した体勢IDとに基づいて、キャラクタ画像データベース113からキャラクタ画像を取得する(ステップ1507)。 The acquiring unit 14 acquires a character image from the character image database 113 based on the character ID of the character selected in step 1502 and the posture ID read by the estimating unit 13 (step 1507).

表示制御部15は、ステップ1504で認識した骨格の撮像画像上での垂直方向の割合に応じて、ステップ1507で選択されたキャラクタ画像の大きさを変更する(ステップ1508)。 The display control unit 15 changes the size of the character image selected in step 1507 according to the vertical ratio of the skeleton on the captured image recognized in step 1504 (step 1508).

表示制御部15は、ステップ1504で認識した骨格の画像上での水平方向及び奥行の位置の少なくとも一方に応じた位置に、ステップ1508で大きさが変換されたキャラクタ画像を撮像画像に配置して表示画面21に表示させる(ステップ1509)。 The display control unit 15 arranges the character image whose size has been converted in step 1508 in the captured image at a position corresponding to at least one of the horizontal and depth positions on the skeleton image recognized in step 1504. It is displayed on the display screen 21 (step 1509).

深度センサ16は、監視を開始し、ユーザが所定の動作を行うのを検出する(ステップ1510)。 The depth sensor 16 starts monitoring and detects that the user performs a predetermined action (step 1510).

画像キャプチャ部17は、深度センサ16がユーザの所定の動作を検出すると、表示画面21に表示されている画像をキャプチャする(ステップ1511)。 When the depth sensor 16 detects a predetermined action of the user, the image capture unit 17 captures the image displayed on the display screen 21 (step 1511).

画像キャプチャ部17は、キャプチャした画像を記憶部11に記憶させる(ステップ1522)。 The image capture unit 17 stores the captured image in the storage unit 11 (step 1522).

上述した本発明を用いると、ユーザの体勢に応じてキャラクタ画像を配置するため、ユーザが画像コンテンツを調整せずに、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。 When the present invention described above is used, the character image is arranged according to the posture of the user, so an image in which the user is shown together with the character image can be taken without the user adjusting the image content.

また、本発明を用いると、ユーザの画面大きさに応じてキャラクタ画像の大きさを変更するため、ユーザが立ち位置を調整することなく、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。 Further, according to the present invention, since the size of the character image is changed according to the screen size of the user, it is possible to take an image of the user together with the character image without adjusting the standing position of the user. .

また、本発明を用いると、ユーザの所定の動作を検出すると画面をキャプチャする構成であるため、ユーザが表示画面のタッチパネルまで移動することなく、キャラクタ画像と共に写っている画像を撮ることができる。 Moreover, when the present invention is used, the screen is captured when a predetermined action of the user is detected, so the user can take an image together with the character image without moving to the touch panel of the display screen.

尚、上記説明において、体勢を推定するにあたって、所定の骨格間の角度がモデルデータに記されている角度の条件リストに当てはまる割合に基づいて推定する場合を用いて説明したが、これ以外の方法であっても良い。例えば、認識した骨格の相対的な位置関係が、モデルデータに記されている位置関係に相似している割合に基づいて推定しても良い。 In the above description, the case of estimating the posture is described using the case where the angle between the predetermined skeletons is estimated based on the ratio of the conditions that meet the angle condition list described in the model data, but there are other methods. can be For example, the relative positional relationship of the recognized skeleton may be estimated based on the rate of similarity to the positional relationship described in the model data.

また、上記説明において、取得部は、推定した体勢に対応付けられているポーズのキャラクタ画像をキャラクタ画像データベース113から取得する場合を用いて説明したが、他の方法であっても良い。例えば、取得部は、推定した体勢に対応するポーズにキャラクタの画像を変更するようにしても良い。 Also, in the above description, the acquisition unit acquires the character image of the pose associated with the estimated posture from the character image database 113, but other methods may be used. For example, the obtaining unit may change the image of the character to a pose corresponding to the estimated posture.

また、上記説明において、深度センサ16を用いてユーザが所定の動作を行うのを検出している例を用いて説明したが、他の方法であっても良い。例えば、深度センサの代わりに光学センサを用いてユーザが所定の動作を行うのを検出しても良い。他にも、推定部13が認識した骨格の時系列の変化によってユーザが所定の動作を行ったかを検出しても良い。 Also, in the above description, an example in which the depth sensor 16 is used to detect the user performing a predetermined action has been used, but other methods may be used. For example, instead of the depth sensor, an optical sensor may be used to detect that the user performs a predetermined action. Alternatively, it may be detected whether or not the user has performed a predetermined action based on a time-series change in the skeleton recognized by the estimation unit 13 .

尚、上述した本発明の装置は、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、画像制御装置10は、プロセッサ、メモリ(ROMやRAM)、記憶装置(ハードディスク、半導体ディスクなど)、入力装置(キーボード、マウス、タッチパネル)、表示装置、通信部などのハードウェア資源を有する汎用のコンピュータによっても実現可能である。一部の機能のみをコンピュータプログラムにより実現することも可能である。 The apparatus of the present invention described above can be configured with hardware, but can also be realized with a computer program. In this case, the image control device 10 has hardware resources such as a processor, memory (ROM or RAM), storage device (hard disk, semiconductor disk, etc.), input device (keyboard, mouse, touch panel), display device, and communication unit. It can also be realized by a general-purpose computer. It is also possible to realize only part of the functions by a computer program.

以上、好ましい実施の形態及び実施例が説明された。しかしながら、本発明は、必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形され実施できる。 Preferred embodiments and examples have been described above. However, the present invention is not necessarily limited to the above-described embodiments and examples, and can be variously modified and implemented within the scope of its technical ideas.

以上、実施の形態及び実施例をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to the embodiments and examples, the present invention is not necessarily limited to the above-described embodiments and examples, and can be implemented in various modifications within the scope of the technical idea thereof. can do

10 画像制御装置10
11 記憶部
12 撮像部
13 推定部
14 取得部
15 表示制御部
16 深度センサ
17 画像キャプチャ部
20 表示部
21 表示画面
10 image control device 10
11 storage unit 12 imaging unit 13 estimation unit 14 acquisition unit 15 display control unit 16 depth sensor 17 image capture unit 20 display unit 21 display screen

Claims (9)

撮像画像から検出した人物の骨格に基づいて、人物の体勢として推定することが予め決められている複数種類の体勢のモデルデータの中から前記人物の体勢に近似するモデルデータを選択する選択手段と、
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
とを有する画像制御装置。
selection means for selecting model data that approximates the posture of the person from model data of a plurality of types of postures that are predetermined to be estimated as the posture of the person, based on the skeleton of the person detected from the captured image; ,
acquisition means for acquiring a character image in a pose stored in association with the selected model data;
The size of the obtained character image is converted according to the vertical ratio of the detected skeleton on the captured image, and the converted character image is superimposed on an area of the captured image other than the area where the skeleton is located . display control means for displaying a superimposed image;
and image capturing means for capturing the superimposed image when a predetermined motion of the person is recognized.
前記選択手段は前記撮像画像から前記人物の関節の位置を含む特徴点に基づいて前記骨格を検出する
請求項1の画像制御装置。
2. An image control apparatus according to claim 1, wherein said selection means detects said skeleton based on feature points including positions of joints of said person from said captured image.
前記取得手段はキャラクタの画像を選択した体勢に対応するポーズに変更する
請求項1又は請求項2の画像制御装置。
3. An image control apparatus according to claim 1, wherein said obtaining means changes the image of the character to a pose corresponding to the selected posture.
前記表示制御手段は、前記検出した骨格の前記撮像画像上での水平方向の位置に応じて、前記取得したキャラクタ画像を重畳する位置を決定する
請求項1又は請求項2の画像制御装置。
3. The image control apparatus according to claim 1, wherein said display control means determines a position where said acquired character image is superimposed according to a horizontal position of said detected skeleton on said captured image.
前記表示制御手段は、前記モデルデータに対応付けられて記憶されている配置情報に基づいて、前記取得したキャラクタ画像を重畳する位置を決定する
請求項1又は請求項2の画像制御装置。
3. The image control apparatus according to claim 1, wherein said display control means determines a position where said acquired character image is superimposed based on layout information stored in association with said model data.
前記表示制御手段は、前記検出した骨格の前記撮像画像上での垂直方向の位置に応じて、前記取得したキャラクタ画像を重畳する垂直方向の位置を決定する
請求項1から請求項5のいずれかの画像制御装置。
6. The display control means determines the vertical position of superimposing the acquired character image according to the vertical position of the detected skeleton on the captured image. image controller.
前記所定の動作は前記選択手段が検出した骨格の時系列の動きによって認識される
請求項1から請求項6のいずれかの画像制御装置。
7. The image control apparatus according to claim 1, wherein said predetermined motion is recognized by time-series motion of the skeleton detected by said selection means.
前記所定の動作は深度センサ又は光学センサによって認識される
請求項1から請求項6のいずれかの画像制御装置。
7. The image control device according to any one of claims 1 to 6, wherein said predetermined motion is recognized by a depth sensor or an optical sensor.
画像制御装置のプログラムであって、前記プログラムは前記画像制御装置を、
撮像画像から検出した人物の骨格に基づいて、推定する人物の体勢として予め決められている複数種類のモデルデータの中から前記人物の体勢に近似するモデルデータを選択する選択手段と、
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
として機能させるプログラム。
A program for an image control device, the program causing the image control device to:
selection means for selecting model data approximating the posture of the person from among a plurality of types of model data predetermined as the posture of the person to be estimated based on the skeleton of the person detected from the captured image;
acquisition means for acquiring a character image in a pose stored in association with the selected model data;
The size of the obtained character image is converted according to the vertical ratio of the detected skeleton on the captured image, and the converted character image is superimposed on an area of the captured image other than the area where the skeleton is located . display control means for displaying a superimposed image;
A program functioning as image capture means for capturing the superimposed image when the predetermined motion of the person is recognized.
JP2018104659A 2018-05-31 2018-05-31 Image control device and its program Active JP7214092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104659A JP7214092B2 (en) 2018-05-31 2018-05-31 Image control device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104659A JP7214092B2 (en) 2018-05-31 2018-05-31 Image control device and its program

Publications (2)

Publication Number Publication Date
JP2019211828A JP2019211828A (en) 2019-12-12
JP7214092B2 true JP7214092B2 (en) 2023-01-30

Family

ID=68846797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104659A Active JP7214092B2 (en) 2018-05-31 2018-05-31 Image control device and its program

Country Status (1)

Country Link
JP (1) JP7214092B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210147654A (en) * 2020-05-29 2021-12-07 삼성전자주식회사 An electronic device and method for generating emoji sticker based on user avatar

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355567A (en) 2003-05-30 2004-12-16 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server and image distribution processing program
JP2005109555A (en) 2003-09-26 2005-04-21 Casio Comput Co Ltd Image output apparatus, picture output method, and picture output processing program
JP2017138912A (en) 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355567A (en) 2003-05-30 2004-12-16 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server and image distribution processing program
JP2005109555A (en) 2003-09-26 2005-04-21 Casio Comput Co Ltd Image output apparatus, picture output method, and picture output processing program
JP2017138912A (en) 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program

Also Published As

Publication number Publication date
JP2019211828A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
CN103140862B (en) User interface system and operational approach thereof
JP5553141B2 (en) Image processing system, image processing apparatus, image processing method, and program
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
TWI438719B (en) Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling el
CN106973228B (en) Shooting method and electronic equipment
JP7228025B2 (en) Methods and Devices for Augmented Reality-Based Virtual Garment Try-On with Multiple Detections
JP5456175B2 (en) Video surveillance device
JP7214092B2 (en) Image control device and its program
JP2016081286A (en) Terminal operation support apparatus and terminal operation support method
JP2015011404A (en) Motion-recognizing and processing device
JP2020091658A (en) Imaging information management system, method for controlling imaging information management system, and imaging information management program
JP7261261B2 (en) Information processing device, switching system, program and method
JP2011002292A (en) Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program
KR20150028623A (en) Method and apparatus for processing images
KR102129431B1 (en) Device and method for generating three-dimensional body model
JP6461394B1 (en) Image generating apparatus and image generating program
JP6875646B2 (en) Image processing device and image processing program
CN116034580A (en) Portrait positioning method and display equipment
JP7169489B1 (en) Information processing device, information processing method and information processing program
JP5015109B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP6976531B2 (en) Album creation support device and album creation support system
JP2022115705A (en) Motion analysis data acquisition method and motion analysis data acquisition system
JP7321459B2 (en) Mobile terminal, operation method, and program
JP2019145025A (en) Positional relationship determination device
JP7499345B2 (en) Markerless hand motion capture using multiple pose estimation engines

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221017

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221129

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230110

R150 Certificate of patent or registration of utility model

Ref document number: 7214092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150