JP7214092B2 - Image control device and its program - Google Patents
Image control device and its program Download PDFInfo
- Publication number
- JP7214092B2 JP7214092B2 JP2018104659A JP2018104659A JP7214092B2 JP 7214092 B2 JP7214092 B2 JP 7214092B2 JP 2018104659 A JP2018104659 A JP 2018104659A JP 2018104659 A JP2018104659 A JP 2018104659A JP 7214092 B2 JP7214092 B2 JP 7214092B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- skeleton
- character
- person
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本願発明は、画像制御装置、及びそのプログラムに関する。 The present invention relates to an image control device and its program.
近年、携帯端末の発展により、携帯端末に搭載されているカメラで撮影された画像にキャラクタやスタンプ等の画像コンテンツを合成して表示する技術が数多く出回っている。これらの多くは、携帯端末のカメラで撮影した画像に画像コンテンツを配置することができる携帯端末向けのアプリケーションとして普及されている。このようなアプリケーションでは、カメラで撮影した画像上に、ユーザが大きさと位置とを調整した画像コンテンツを重ねて表示画面に表示することが行われている。 2. Description of the Related Art In recent years, with the development of mobile terminals, there are many techniques for synthesizing and displaying image contents such as characters and stamps with images captured by cameras installed in mobile terminals. Many of these are widely used as applications for mobile terminals that allow image content to be arranged in images captured by cameras of mobile terminals. In such an application, image content whose size and position are adjusted by the user is superimposed on the image captured by the camera and displayed on the display screen.
別の技術として、特許文献1がある。特許文献1では、表示画面に表示されているユーザ同士の顔の距離が所定の距離より近い場合に、画像コンテンツを表示画面上に出現させて表示し、ユーザと共に撮影する技術が記載されている。
Another technique is disclosed in
例えばユーザがキャラクタの画像コンテンツとツーショット写真になるように撮影した場合、上述の携帯端末向けのアプリケーションでは、撮影したユーザの画像に合うようにユーザが大きさと位置とを調整する必要がある。 For example, if the user takes a picture of the image content of the character and a two-shot picture, the user needs to adjust the size and position so that the user's image fits in the application for mobile terminals described above.
また、特許文献1の技術を用いる場合、ユーザの大きさ及び立ち位置がキャラクタに合うように、ユーザ自身が立ち位置を調整する必要がある。
Moreover, when using the technique of
そこで本願発明が解決しようとする課題は、上記問題点を解決することであり、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成する技術を提供することである。 Therefore, the problem to be solved by the present invention is to solve the above-mentioned problems, and to provide a technique for generating an image in which the user appears together with the image content without the user adjusting the image content. .
上記課題を解決するための本願発明の画像制御装置は、撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段とを有する。 An image control apparatus according to the present invention for solving the above problems includes an estimation means for estimating a posture of a person based on a skeleton of the person detected from a captured image, and acquiring a character image in a pose corresponding to the estimated posture. an acquiring means for converting the size of the acquired character image in accordance with the vertical ratio of the detected skeleton on the captured image, and displaying a superimposed image in which the converted character image is superimposed on the captured image. and display control means for causing the display to be displayed.
本願によると、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成することができる。 According to the present application, an image can be generated in which the user is shown with the image content without the user adjusting the image content.
本発明の特徴を説明するために、以下において、図面を参照して具体的に述べる。 In order to explain the features of the present invention, specific description will be made below with reference to the drawings.
本発明の画像制御装置10は、ユーザがキャラクタと一緒に写っている写真を提供するための装置である。画像制御装置1は、予め複数のポーズのキャラクタの画像を用意し、その中からユーザの体勢に合ったポーズのキャラクタの画像をユーザに合わせて調整して、キャラクタがユーザと一緒に写っている写真を生成する。尚、本発明で説明するユーザの体勢は、ユーザの体位、ポーズ、姿勢を含む上位概念である。
The
図1は、本発明の画像制御装置1が使用される例を示すイメージ図である。図1に示した例では、カメラを搭載したデジタルサイネージのように、人とほぼ同等の大きさの表示画面を有する装置を用いて説明するが、スマートフォンを本発明の画像制御装置のように用いても良いものとする。
FIG. 1 is an image diagram showing an example in which an
画像制御装置10は、図2の画像制御装置10のブロック図に示す通り、記憶部11と、撮像部12と、推定部13と、取得部14と、表示制御部15と、深度センサ16と、画像キャプチャ部17と、表示部20を有する。表示部20は、例えばタッチパネルを搭載した表示画面21を有する。
As shown in the block diagram of the
記憶部11は、キャラクタデータベース111と体勢モデルデータ112とキャラクタ画像データベース113と、画面データベース114を有する。 The storage unit 11 has a character database 111 , posture model data 112 , a character image database 113 and a screen database 114 .
キャラクタデータベース111は、図3に示す通り、キャラクタを一意に識別するキャラクタIDとキャラクタ名とが互いに対応付けられて記憶されている。 In the character database 111, as shown in FIG. 3, a character ID that uniquely identifies a character and a character name are associated with each other and stored.
体勢モデルデータベース112は、人物の各種体勢のモデルデータが記憶されており、撮影部11が撮像した画像中の人物(ユーザ)の体勢を推定するのに用いられる。図4に示す通り、体勢モデルデータベース112は、体勢IDとモデルデータとが対応付けられて記憶されている。体勢モデルデータベース112の体勢IDはモデルデータを一意に識別する識別番号である。モデルデータには、ユーザの体勢を推定するための条件がリストで記されている。 The posture model database 112 stores model data of various postures of a person, and is used to estimate the posture of a person (user) in an image captured by the imaging unit 11 . As shown in FIG. 4, the posture model database 112 stores posture IDs and model data in association with each other. The posture ID of the posture model database 112 is an identification number that uniquely identifies model data. The model data contains a list of conditions for estimating the user's posture.
キャラクタ画像データベース113には、図5に示す通り、異なるポーズのキャラクタ画像が体勢IDに対応付けられて、キャラクタ毎に記憶されている。 In the character image database 113, as shown in FIG. 5, character images in different poses are associated with posture IDs and stored for each character.
表示画面データベース114は、ユーザが撮影する際に必要となるメニュー画面の画面データが記憶されている。 The display screen database 114 stores screen data of menu screens necessary for the user to shoot.
撮像部12は、ユーザを撮影する為の特別な装置を設けても良いが、CCDやCMOS等を備えた一般的なデジタルカメラであっても良い。撮像部11が撮像した画像のファイル形式は本発明では問わず、JPEG(Joint Photographic Experts Group)等で良い。撮像部12は、表示装置20の表示画面の外周に沿った位置に配置されるのが好ましい。
The
推定部13は、撮像部12が撮像した画像から、人物の体勢を推定する。推定部13が推定する体勢は予め決められており、推定部13は推定する体勢毎に定義付けられている推定条件に基づいて体勢を推定する。画像から人物の体勢を推定する方法は本発明では特に指定しないが、一例を以下に説明する。
The
推定部13は、撮像部12が撮像した画像中から人物の体勢を推定するにあたって、まず人物の骨格を認識する。推定部13は、骨格を認識する際に、特徴点となりうるキーポイントを人物の画像から検出する。キーポイントは、例えば身体の部位の中心部、身体の部位同士の接続点、及び関節の少なくとも1つを含む。図6では、身体の部位の中心部、身体の部位同士の接続点、及び関節を含む以下の(1)から(19)をキーポイントとして検出する場合の例を示している。
(1)JOINT HEAD(頭中心部)
(2)JOINT NECK(頸部中心部)
(3)JOINT LEFT AND RIGHT COLLAR(胸鎖関節部)
(4)JOINT TRSO(体幹中心部)
(5)JOINT WAIST(腰中心部)
(6)JOINT RIGHT SHOLDER(右肩関節部)
(7)JOINT LEFT SHOLDER(左肩関節部)
(8)JOINT RIGHT ELBOW(右肘関節部)
(9)JOINT LEFT ELBOW(左肘関節部)
(10)JOINT RIGHT WRIST(右手首関節部)
(11)JOINT LEFT WRIST(左手首関節部)
(12)JOINT RIGHT HAND(右手関節部)
(13)JOINT LEFT HAND(左手関節部)
(14)JOINT RIGHT HIP(右股関節部)
(15)JOINT LEFT HIP(左股関節部)
(16)JOINT RIGHT KNEE(右膝関節部)
(17)JOINT LEFT KNEE(左膝関節部)
(18)JOINT RIGHT ANKLE(右足関節部)
(19)JOINT LEFT ANKLE(左脚関節部)
各キーポイントは、他のキーポイントとの間で親子関係が予め組まれて階層構造を成している。キーポイントの階層構造の一例を図7に示す。JOINT HEAD(1)は階層構造の頂点である。JOINT HEAD(1)を最上位にして、JOINT NECK(2)、JOINT LEFT AND RIGHT COLLAR(3)と、親子関係が順に下層へと繋がっていく。JOINT LEFT AND RIGHT COLLAR(3)では、子にあたるキーポイントが、JOINT TRSO(4)、JOINT RIGHT SHOLDER(6)、JOINT LEFT SHOLDER(7)の3つになる。
The
(1) JOINT HEAD (center of head)
(2) JOINT NECK (neck center)
(3) JOINT LEFT AND RIGHT COLLAR (sternoclavicular joint)
(4) JOINT TRSO (central trunk)
(5) JOINT WAIST (center of waist)
(6) JOINT RIGHT SHOLDER (right shoulder joint)
(7) JOINT LEFT SHOLDER (left shoulder joint)
(8) JOINT RIGHT ELBOW (right elbow joint)
(9) JOINT LEFT ELBOW (left elbow joint)
(10) JOINT RIGHT WRIST (right wrist joint)
(11) JOINT LEFT WRIST (left wrist joint)
(12) JOINT RIGHT HAND (Right hand joint)
(13) JOINT LEFT HAND (left hand joint)
(14) JOINT RIGHT HIP (right hip joint)
(15) JOINT LEFT HIP (left hip joint)
(16) JOINT RIGHT KNEE (right knee joint)
(17) JOINT LEFT KNEE (left knee joint)
(18) JOINT RIGHT ANKLE (right ankle joint)
(19) JOINT LEFT ANKLE (left leg joint)
Each keypoint has a hierarchical structure in which a parent-child relationship is established in advance with other keypoints. An example of the hierarchical structure of keypoints is shown in FIG. JOINT HEAD(1) is the top of the hierarchical structure. JOINT HEAD (1) is at the top, JOINT NECK (2), JOINT LEFT AND RIGHT COLLAR (3), and the parent-child relationship is connected to the lower layer in order. In JOINT LEFT AND RIGHT COLLAR (3), the child key points are JOINT TRSO (4), JOINT RIGHT SHOLDER (6), and JOINT LEFT SHOLDER (7).
JOINT TRSO(4)はJOINT WAIST(5)と親子関係であり、JOINT WAIST(5)はJOINT RIGHT HIP(14)とJOINT LEFT HIP(15)と親子関係が組まれている。JOINT RIGHT HIP(14)は、自身を上位として、JOINT RIGHT KNEE(16)、JOINT RIGHT ANKLE(18)の順に親子関係が下層へと繋がっていく。JOINT LEFT HIPは、JOINT RIGHT HIP(14)同様に自身を上位として、JOINT LEFT KNEE(17)、JOINT LEFT ANKLE(19)の順に親子関係が下層へと繋がっていく。 JOINT TRSO (4) has a parent-child relationship with JOINT WAIST (5), and JOINT WAIST (5) has a parent-child relationship with JOINT RIGHT HIP (14) and JOINT LEFT HIP (15). JOINT RIGHT HIP (14) has itself as the upper layer, and the parent-child relationship is connected to the lower layers in the order of JOINT RIGHT KNEE (16) and JOINT RIGHT ANKLE (18). JOINT LEFT HIP, like JOINT RIGHT HIP (14), has itself as the upper layer, and the parent-child relationship is connected to the lower layers in the order of JOINT LEFT KNEE (17) and JOINT LEFT ANKLE (19).
JOINT RIGHT SHOLDER(6)は、自身を上位として、JOINT RIGHT ELBOW(8)、JOINT RIGHT WRIST(10)、JOINT RIGHT HAND(12)の順に親子関係が下層へと繋がっていく。 JOINT RIGHT SHOLDER (6) has itself as a higher layer, and the parent-child relationship is connected to the lower layers in the order of JOINT RIGHT ELBOW (8), JOINT RIGHT WRIST (10), and JOINT RIGHT HAND (12).
JOINT LEFT SHOLDER(7)は、JOINT RIGHT SHOLDER(6)同様に、JOINT LEFT ELBOW(9)、JOINT LEFT WRIST(11)、JOINT LEFT HAND(13)の順に親子関係が下層へと繋がっていく。 JOINT LEFT SHOLDER (7), like JOINT RIGHT SHOLDER (6), has a parent-child relationship in the order of JOINT LEFT ELBOW (9), JOINT LEFT WRIST (11), and JOINT LEFT HAND (13).
図7は、上述のような親子関係にあるキーポイント同士を直線で結んで木構造として示した図である。図6においても、親子関係が組まれているキーポイント間を直線で結んで示している。尚、図6及び図7にて示したキーポイント及び木構造は一例であり、キーポイント及び木構造は如何なる場所及び構造であっても本発明を適用することは可能である。 FIG. 7 is a diagram showing a tree structure in which the key points having the parent-child relationship as described above are connected with straight lines. In FIG. 6 as well, the key points having a parent-child relationship are shown by connecting them with straight lines. The keypoints and tree structure shown in FIGS. 6 and 7 are examples, and the present invention can be applied to any location and structure of the keypoints and tree structure.
推定部13は、親子関係にあるキーポイント間の直線を骨格と認識し、所定の骨格間の角度が体勢モデルデータベース112のモデルデータに記されている条件に当てはまるかを判定する。推定部13は、所定の骨格間の角度が条件リストに一致する割合を算出し、一番高い割合に対応付けられている体勢がユーザの体勢であると推定する。即ち、認識した骨格と、モデルデータとの近似度を算出し、一番近いモデルデータの体勢をユーザの体勢であると推定する。
The
尚、推定部13が画像中から人物の関節を検出する方法は特定しないが、例えば機械学習装置を用いて行ってもよい。機械学習装置は、画像中の人物の関節を指定して取得した人物と関節の関係を教師データとして用いて関節を検出しても、ディープラーニングにより人物と関節の関係を取得して、これを教師データとして用いて関節を検出しても良い。
Although the method by which the
取得部14は、キャラクタ画像データベース113から、推定部13によって推定された体勢に対応付けられているポーズのキャラクタ画像を取得する。
The acquiring unit 14 acquires a character image of a pose associated with the posture estimated by the estimating
表示制御部15は、表示画像データベース114からメニュー画面を読み出して表示画面21に表示させる。表示制御部15は、キャラクタ選択のメニュー画面を表示する際、キャラクタデータベース111のキャラクタIDを読み込む。読込んだキャラクタIDに対応付けられているキャラクタ名をキャラクタデータベース111から読み出す。更に、表示制御部15は、読込んだキャラクタIDの画像をキャラクタ画像データベース113から読み出して、先に読み出したキャラクタ名と共に並べて表示画面21に表示させる。キャラクタ画像データベース113から読み出す画像は、予め決められていてもランダムでも良い。 The display control unit 15 reads the menu screen from the display image database 114 and displays it on the display screen 21 . The display control unit 15 reads the character ID of the character database 111 when displaying the character selection menu screen. A character name associated with the read character ID is read from the character database 111 . Further, the display control unit 15 reads out the image of the read character ID from the character image database 113 and displays it on the display screen 21 side by side with the character name read out previously. The image read out from the character image database 113 may be predetermined or random.
表示制御部15は、撮像部12が撮像した画像に、取得部14が選択したキャラクタ画像を重畳(合成)して、表示画面21に表示させる。キャラクタ画像を重畳する際、表示制御部15は、推定部13が認識した骨格の撮像画像上での垂直方向の割合に応じて、選択したキャラクタ画像の大きさを変換する。表示制御部15は、推定部13が認識した骨格の画像上での水平方向及び垂直方向(奥行)の位置の少なくとも一方に応じた位置に、大きさを変換させたキャラクタ画像を撮像画像に配置する。表示制御部15が行う、キャラクタ画像の位置決定の例を説明する。
The display control unit 15 superimposes (combines) the character image selected by the acquisition unit 14 on the image captured by the
例えば、画像を右領域と左領域等の複数領域に分け、表示制御部15は推定した骨格が位置する領域以外の領域にキャラクタ画像を配置する。また、体勢モデルデータベース112の体勢IDに、画面上のどの位置に配置するかの配置情報を予め対応付けて記憶させおき、表示制御部15はこの配置情報に基づいて、キャラクタ画像を配置する。 For example, the image is divided into a plurality of areas such as a right area and a left area, and the display control unit 15 arranges the character image in an area other than the area where the estimated skeleton is located. In addition, the posture ID of the posture model database 112 is previously associated with placement information indicating the position on the screen to be stored, and the display control unit 15 places the character image based on this placement information.
他の例としては、各ポーズのキャラクタ画像にも骨格を定義付けておき、キャラクタ画像データベース113の体勢IDに、認識したユーザの骨格に対するキャラクタ画像の骨格の相対位置を配置情報として対応付けて記憶させておき、表示制御部15はこの配置情報とキャラクタの骨格とユーザの骨格とに基づいて、キャラクタ画像を配置する。 As another example, a skeleton is also defined for the character image of each pose, and the relative position of the skeleton of the character image with respect to the skeleton of the recognized user is associated with the posture ID of the character image database 113 and stored as arrangement information. Then, the display control unit 15 arranges the character image based on this arrangement information, the skeleton of the character, and the skeleton of the user.
本発明の表示制御部15は、上記のいずれの方法を用いてキャラクタ画像を撮像画像に配置する。尚、表示制御部15は、認識した骨格に応じて、キャラクタ画像を配置する角度を変更させて配置しても良い。 The display control unit 15 of the present invention arranges the character image in the captured image using any of the above methods. The display control unit 15 may change the angle at which the character image is arranged according to the recognized skeleton.
深度センサ16は、撮像部12からの撮像画像を用いて、ユーザが所定の動作を行うのを検出する。例えば、深度センサ16が定期的に対象物までの距離を測定して深度画像を生成し、その中から人物にあたるユーザの形状を検出し、その形状の時系列の変化によってユーザが所定の動作を行ったかを監視する。
The
画像キャプチャ部17は、深度センサがユーザの所定の動作を検出すると、表示制御部15が撮像画像にキャラクタ画像を重畳した合成画像をキャプチャする。画像キャプチャ部17は、キャプチャした画像を撮影画像として記憶部11に記憶させる。尚、深度センサがユーザの所定の動作を検出すると、セルフタイマーが起動して、カウントダウン後に画像キャプチャ部17が画像をキャプチャする構成であってもよい。 When the depth sensor detects a predetermined action of the user, the image capture unit 17 captures a composite image in which the display control unit 15 superimposes the character image on the captured image. The image capture unit 17 stores the captured image in the storage unit 11 as a photographed image. Note that the self-timer may be activated when the depth sensor detects a predetermined action of the user, and the image capture unit 17 may capture an image after the countdown.
続いて、本実施の形態の動作について説明する。図8は、本発明の動作を説明するためのフロー図である。 Next, the operation of this embodiment will be described. FIG. 8 is a flow chart for explaining the operation of the present invention.
表示制御部15は、キャラクタデータベース111とキャラクタ画像データベース113とから読み出したキャラクタ名と該キャラクタの画像と、表示画面データベース114から読み出したメニュー画面とからユーザにキャラクタを選択させるためのメニュー画面を生成して、表示画面21に表示させる(ステップ1501)。 The display control unit 15 generates a menu screen for allowing the user to select a character from the character name and the image of the character read from the character database 111 and the character image database 113, and the menu screen read from the display screen database 114. to display it on the display screen 21 (step 1501).
ユーザが表示画面21に表示されているメニュー画面を用いて、キャラクタを選択すると、入力部が該キャラクタのキャラクタIDを取得部14に通知する(ステップ1502)。 When the user selects a character using the menu screen displayed on the display screen 21, the input section notifies the acquisition section 14 of the character ID of the selected character (step 1502).
キャラクタが選択されると、カメラが起動し、撮像部12が撮像した撮像画像が表示画面21に表示される(ステップ1503)。
When the character is selected, the camera is activated and the captured image captured by the
推定部13は、撮像画像からユーザの骨格を認識する(ステップ1504)。
The
推定部13は、認識した骨格の所定の骨格間の角度が、体勢モデルデータベース112のモデルデータに記されている条件に一致する割合を算出する(ステップ1505)。
The estimating
推定部13は、一番高い割合のモデルデータに対応付けられている体勢IDを読み出す(ステップ1506)。
The
取得部14は、ステップ1502で選択されたキャラクタのキャラクタIDと、推定部13が読み出した体勢IDとに基づいて、キャラクタ画像データベース113からキャラクタ画像を取得する(ステップ1507)。
The acquiring unit 14 acquires a character image from the character image database 113 based on the character ID of the character selected in
表示制御部15は、ステップ1504で認識した骨格の撮像画像上での垂直方向の割合に応じて、ステップ1507で選択されたキャラクタ画像の大きさを変更する(ステップ1508)。
The display control unit 15 changes the size of the character image selected in
表示制御部15は、ステップ1504で認識した骨格の画像上での水平方向及び奥行の位置の少なくとも一方に応じた位置に、ステップ1508で大きさが変換されたキャラクタ画像を撮像画像に配置して表示画面21に表示させる(ステップ1509)。
The display control unit 15 arranges the character image whose size has been converted in
深度センサ16は、監視を開始し、ユーザが所定の動作を行うのを検出する(ステップ1510)。
The
画像キャプチャ部17は、深度センサ16がユーザの所定の動作を検出すると、表示画面21に表示されている画像をキャプチャする(ステップ1511)。
When the
画像キャプチャ部17は、キャプチャした画像を記憶部11に記憶させる(ステップ1522)。 The image capture unit 17 stores the captured image in the storage unit 11 (step 1522).
上述した本発明を用いると、ユーザの体勢に応じてキャラクタ画像を配置するため、ユーザが画像コンテンツを調整せずに、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。 When the present invention described above is used, the character image is arranged according to the posture of the user, so an image in which the user is shown together with the character image can be taken without the user adjusting the image content.
また、本発明を用いると、ユーザの画面大きさに応じてキャラクタ画像の大きさを変更するため、ユーザが立ち位置を調整することなく、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。 Further, according to the present invention, since the size of the character image is changed according to the screen size of the user, it is possible to take an image of the user together with the character image without adjusting the standing position of the user. .
また、本発明を用いると、ユーザの所定の動作を検出すると画面をキャプチャする構成であるため、ユーザが表示画面のタッチパネルまで移動することなく、キャラクタ画像と共に写っている画像を撮ることができる。 Moreover, when the present invention is used, the screen is captured when a predetermined action of the user is detected, so the user can take an image together with the character image without moving to the touch panel of the display screen.
尚、上記説明において、体勢を推定するにあたって、所定の骨格間の角度がモデルデータに記されている角度の条件リストに当てはまる割合に基づいて推定する場合を用いて説明したが、これ以外の方法であっても良い。例えば、認識した骨格の相対的な位置関係が、モデルデータに記されている位置関係に相似している割合に基づいて推定しても良い。 In the above description, the case of estimating the posture is described using the case where the angle between the predetermined skeletons is estimated based on the ratio of the conditions that meet the angle condition list described in the model data, but there are other methods. can be For example, the relative positional relationship of the recognized skeleton may be estimated based on the rate of similarity to the positional relationship described in the model data.
また、上記説明において、取得部は、推定した体勢に対応付けられているポーズのキャラクタ画像をキャラクタ画像データベース113から取得する場合を用いて説明したが、他の方法であっても良い。例えば、取得部は、推定した体勢に対応するポーズにキャラクタの画像を変更するようにしても良い。 Also, in the above description, the acquisition unit acquires the character image of the pose associated with the estimated posture from the character image database 113, but other methods may be used. For example, the obtaining unit may change the image of the character to a pose corresponding to the estimated posture.
また、上記説明において、深度センサ16を用いてユーザが所定の動作を行うのを検出している例を用いて説明したが、他の方法であっても良い。例えば、深度センサの代わりに光学センサを用いてユーザが所定の動作を行うのを検出しても良い。他にも、推定部13が認識した骨格の時系列の変化によってユーザが所定の動作を行ったかを検出しても良い。
Also, in the above description, an example in which the
尚、上述した本発明の装置は、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、画像制御装置10は、プロセッサ、メモリ(ROMやRAM)、記憶装置(ハードディスク、半導体ディスクなど)、入力装置(キーボード、マウス、タッチパネル)、表示装置、通信部などのハードウェア資源を有する汎用のコンピュータによっても実現可能である。一部の機能のみをコンピュータプログラムにより実現することも可能である。
The apparatus of the present invention described above can be configured with hardware, but can also be realized with a computer program. In this case, the
以上、好ましい実施の形態及び実施例が説明された。しかしながら、本発明は、必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形され実施できる。 Preferred embodiments and examples have been described above. However, the present invention is not necessarily limited to the above-described embodiments and examples, and can be variously modified and implemented within the scope of its technical ideas.
以上、実施の形態及び実施例をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to the embodiments and examples, the present invention is not necessarily limited to the above-described embodiments and examples, and can be implemented in various modifications within the scope of the technical idea thereof. can do
10 画像制御装置10
11 記憶部
12 撮像部
13 推定部
14 取得部
15 表示制御部
16 深度センサ
17 画像キャプチャ部
20 表示部
21 表示画面
10
11
Claims (9)
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
とを有する画像制御装置。 selection means for selecting model data that approximates the posture of the person from model data of a plurality of types of postures that are predetermined to be estimated as the posture of the person, based on the skeleton of the person detected from the captured image; ,
acquisition means for acquiring a character image in a pose stored in association with the selected model data;
The size of the obtained character image is converted according to the vertical ratio of the detected skeleton on the captured image, and the converted character image is superimposed on an area of the captured image other than the area where the skeleton is located . display control means for displaying a superimposed image;
and image capturing means for capturing the superimposed image when a predetermined motion of the person is recognized.
請求項1の画像制御装置。 2. An image control apparatus according to claim 1, wherein said selection means detects said skeleton based on feature points including positions of joints of said person from said captured image.
請求項1又は請求項2の画像制御装置。 3. An image control apparatus according to claim 1, wherein said obtaining means changes the image of the character to a pose corresponding to the selected posture.
請求項1又は請求項2の画像制御装置。 3. The image control apparatus according to claim 1, wherein said display control means determines a position where said acquired character image is superimposed according to a horizontal position of said detected skeleton on said captured image.
請求項1又は請求項2の画像制御装置。 3. The image control apparatus according to claim 1, wherein said display control means determines a position where said acquired character image is superimposed based on layout information stored in association with said model data.
請求項1から請求項5のいずれかの画像制御装置。 6. The display control means determines the vertical position of superimposing the acquired character image according to the vertical position of the detected skeleton on the captured image. image controller.
請求項1から請求項6のいずれかの画像制御装置。 7. The image control apparatus according to claim 1, wherein said predetermined motion is recognized by time-series motion of the skeleton detected by said selection means.
請求項1から請求項6のいずれかの画像制御装置。 7. The image control device according to any one of claims 1 to 6, wherein said predetermined motion is recognized by a depth sensor or an optical sensor.
撮像画像から検出した人物の骨格に基づいて、推定する人物の体勢として予め決められている複数種類のモデルデータの中から前記人物の体勢に近似するモデルデータを選択する選択手段と、
前記選択したモデルデータに対応付けられて記憶されているポーズのキャラクタ画像を取得する取得手段と、
前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像における骨格が位置する領域以外の領域に重畳した重畳画像を表示させる表示制御手段と、
前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段
として機能させるプログラム。 A program for an image control device, the program causing the image control device to:
selection means for selecting model data approximating the posture of the person from among a plurality of types of model data predetermined as the posture of the person to be estimated based on the skeleton of the person detected from the captured image;
acquisition means for acquiring a character image in a pose stored in association with the selected model data;
The size of the obtained character image is converted according to the vertical ratio of the detected skeleton on the captured image, and the converted character image is superimposed on an area of the captured image other than the area where the skeleton is located . display control means for displaying a superimposed image;
A program functioning as image capture means for capturing the superimposed image when the predetermined motion of the person is recognized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104659A JP7214092B2 (en) | 2018-05-31 | 2018-05-31 | Image control device and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018104659A JP7214092B2 (en) | 2018-05-31 | 2018-05-31 | Image control device and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019211828A JP2019211828A (en) | 2019-12-12 |
JP7214092B2 true JP7214092B2 (en) | 2023-01-30 |
Family
ID=68846797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018104659A Active JP7214092B2 (en) | 2018-05-31 | 2018-05-31 | Image control device and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7214092B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210147654A (en) * | 2020-05-29 | 2021-12-07 | 삼성전자주식회사 | An electronic device and method for generating emoji sticker based on user avatar |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355567A (en) | 2003-05-30 | 2004-12-16 | Casio Comput Co Ltd | Image output device, image output method, image output processing program, image distribution server and image distribution processing program |
JP2005109555A (en) | 2003-09-26 | 2005-04-21 | Casio Comput Co Ltd | Image output apparatus, picture output method, and picture output processing program |
JP2017138912A (en) | 2016-02-05 | 2017-08-10 | 株式会社バンダイナムコエンターテインメント | Image generation system and program |
-
2018
- 2018-05-31 JP JP2018104659A patent/JP7214092B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355567A (en) | 2003-05-30 | 2004-12-16 | Casio Comput Co Ltd | Image output device, image output method, image output processing program, image distribution server and image distribution processing program |
JP2005109555A (en) | 2003-09-26 | 2005-04-21 | Casio Comput Co Ltd | Image output apparatus, picture output method, and picture output processing program |
JP2017138912A (en) | 2016-02-05 | 2017-08-10 | 株式会社バンダイナムコエンターテインメント | Image generation system and program |
Also Published As
Publication number | Publication date |
---|---|
JP2019211828A (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103140862B (en) | User interface system and operational approach thereof | |
JP5553141B2 (en) | Image processing system, image processing apparatus, image processing method, and program | |
KR101603017B1 (en) | Gesture recognition device and gesture recognition device control method | |
TWI438719B (en) | Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling el | |
CN106973228B (en) | Shooting method and electronic equipment | |
JP7228025B2 (en) | Methods and Devices for Augmented Reality-Based Virtual Garment Try-On with Multiple Detections | |
JP5456175B2 (en) | Video surveillance device | |
JP7214092B2 (en) | Image control device and its program | |
JP2016081286A (en) | Terminal operation support apparatus and terminal operation support method | |
JP2015011404A (en) | Motion-recognizing and processing device | |
JP2020091658A (en) | Imaging information management system, method for controlling imaging information management system, and imaging information management program | |
JP7261261B2 (en) | Information processing device, switching system, program and method | |
JP2011002292A (en) | Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program | |
KR20150028623A (en) | Method and apparatus for processing images | |
KR102129431B1 (en) | Device and method for generating three-dimensional body model | |
JP6461394B1 (en) | Image generating apparatus and image generating program | |
JP6875646B2 (en) | Image processing device and image processing program | |
CN116034580A (en) | Portrait positioning method and display equipment | |
JP7169489B1 (en) | Information processing device, information processing method and information processing program | |
JP5015109B2 (en) | Information processing apparatus, information processing method, program, and information storage medium | |
JP6976531B2 (en) | Album creation support device and album creation support system | |
JP2022115705A (en) | Motion analysis data acquisition method and motion analysis data acquisition system | |
JP7321459B2 (en) | Mobile terminal, operation method, and program | |
JP2019145025A (en) | Positional relationship determination device | |
JP7499345B2 (en) | Markerless hand motion capture using multiple pose estimation engines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180705 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221017 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20221102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20221104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221129 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7214092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |