JP2019211828A - 画像制御装置、及びそのプログラム - Google Patents

画像制御装置、及びそのプログラム Download PDF

Info

Publication number
JP2019211828A
JP2019211828A JP2018104659A JP2018104659A JP2019211828A JP 2019211828 A JP2019211828 A JP 2019211828A JP 2018104659 A JP2018104659 A JP 2018104659A JP 2018104659 A JP2018104659 A JP 2018104659A JP 2019211828 A JP2019211828 A JP 2019211828A
Authority
JP
Japan
Prior art keywords
image
character
skeleton
posture
control apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104659A
Other languages
English (en)
Other versions
JP7214092B2 (ja
Inventor
貴志 安川
Takashi Yasukawa
貴志 安川
椎名 誠
Makoto Shiina
誠 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M2 CO Ltd
Original Assignee
M2 CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by M2 CO Ltd filed Critical M2 CO Ltd
Priority to JP2018104659A priority Critical patent/JP7214092B2/ja
Publication of JP2019211828A publication Critical patent/JP2019211828A/ja
Application granted granted Critical
Publication of JP7214092B2 publication Critical patent/JP7214092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明の課題は、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成する技術を提供することである。【解決手段】本発明は、撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定し、前記推定した体勢に応じたポーズのキャラクタ画像を取得し、前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる。【選択図】図2

Description

本願発明は、画像制御装置、及びそのプログラムに関する。
近年、携帯端末の発展により、携帯端末に搭載されているカメラで撮影された画像にキャラクタやスタンプ等の画像コンテンツを合成して表示する技術が数多く出回っている。これらの多くは、携帯端末のカメラで撮影した画像に画像コンテンツを配置することができる携帯端末向けのアプリケーションとして普及されている。このようなアプリケーションでは、カメラで撮影した画像上に、ユーザが大きさと位置とを調整した画像コンテンツを重ねて表示画面に表示することが行われている。
別の技術として、特許文献1がある。特許文献1では、表示画面に表示されているユーザ同士の顔の距離が所定の距離より近い場合に、画像コンテンツを表示画面上に出現させて表示し、ユーザと共に撮影する技術が記載されている。
特開2018−23056号公報
例えばユーザがキャラクタの画像コンテンツとツーショット写真になるように撮影した場合、上述の携帯端末向けのアプリケーションでは、撮影したユーザの画像に合うようにユーザが大きさと位置とを調整する必要がある。
また、特許文献1の技術を用いる場合、ユーザの大きさ及び立ち位置がキャラクタに合うように、ユーザ自身が立ち位置を調整する必要がある。
そこで本願発明が解決しようとする課題は、上記問題点を解決することであり、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成する技術を提供することである。
上記課題を解決するための本願発明の画像制御装置は、撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段とを有する。
本願によると、ユーザが画像コンテンツを調整せずに、ユーザが画像コンテンツと共に写っている画像を生成することができる。
画像制御装置の概略図である。 画像制御装置のブロック図の一例である。 キャラクタデータベースの一例である。 体勢モデルデータベースの一例である。 キャラクタ画像データベースの一例である。 キーポイントを説明するための図である。 キーポイントの階層構造の一例を示した図である。 本発明の動作を説明するための図である。
本発明の特徴を説明するために、以下において、図面を参照して具体的に述べる。
本発明の画像制御装置10は、ユーザがキャラクタと一緒に写っている写真を提供するための装置である。画像制御装置1は、予め複数のポーズのキャラクタの画像を用意し、その中からユーザの体勢に合ったポーズのキャラクタの画像をユーザに合わせて調整して、キャラクタがユーザと一緒に写っている写真を生成する。尚、本発明で説明するユーザの体勢は、ユーザの体位、ポーズ、姿勢を含む上位概念である。
図1は、本発明の画像制御装置1が使用される例を示すイメージ図である。図1に示した例では、カメラを搭載したデジタルサイネージのように、人とほぼ同等の大きさの表示画面を有する装置を用いて説明するが、スマートフォンを本発明の画像制御装置のように用いても良いものとする。
画像制御装置10は、図2の画像制御装置10のブロック図に示す通り、記憶部11と、撮像部12と、推定部13と、取得部14と、表示制御部15と、深度センサ16と、画像キャプチャ部17と、表示部20を有する。表示部20は、例えばタッチパネルを搭載した表示画面21を有する。
記憶部11は、キャラクタデータベース111と体勢モデルデータ112とキャラクタ画像データベース113と、画面データベース114を有する。
キャラクタデータベース111は、図3に示す通り、キャラクタを一意に識別するキャラクタIDとキャラクタ名とが互いに対応付けられて記憶されている。
体勢モデルデータベース112は、人物の各種体勢のモデルデータが記憶されており、撮影部11が撮像した画像中の人物(ユーザ)の体勢を推定するのに用いられる。図4に示す通り、体勢モデルデータベース112は、体勢IDとモデルデータとが対応付けられて記憶されている。体勢モデルデータベース112の体勢IDはモデルデータを一意に識別する識別番号である。モデルデータには、ユーザの体勢を推定するための条件がリストで記されている。
キャラクタ画像データベース113には、図5に示す通り、異なるポーズのキャラクタ画像が体勢IDに対応付けられて、キャラクタ毎に記憶されている。
表示画面データベース114は、ユーザが撮影する際に必要となるメニュー画面の画面データが記憶されている。
撮像部12は、ユーザを撮影する為の特別な装置を設けても良いが、CCDやCMOS等を備えた一般的なデジタルカメラであっても良い。撮像部11が撮像した画像のファイル形式は本発明では問わず、JPEG(Joint Photographic Experts Group)等で良い。撮像部12は、表示装置20の表示画面の外周に沿った位置に配置されるのが好ましい。
推定部13は、撮像部12が撮像した画像から、人物の体勢を推定する。推定部13が推定する体勢は予め決められており、推定部13は推定する体勢毎に定義付けられている推定条件に基づいて体勢を推定する。画像から人物の体勢を推定する方法は本発明では特に指定しないが、一例を以下に説明する。
推定部13は、撮像部12が撮像した画像中から人物の体勢を推定するにあたって、まず人物の骨格を認識する。推定部13は、骨格を認識する際に、特徴点となりうるキーポイントを人物の画像から検出する。キーポイントは、例えば身体の部位の中心部、身体の部位同士の接続点、及び関節の少なくとも1つを含む。図6では、身体の部位の中心部、身体の部位同士の接続点、及び関節を含む以下の(1)から(19)をキーポイントとして検出する場合の例を示している。
(1)JOINT HEAD(頭中心部)
(2)JOINT NECK(頸部中心部)
(3)JOINT LEFT AND RIGHT COLLAR(胸鎖関節部)
(4)JOINT TRSO(体幹中心部)
(5)JOINT WAIST(腰中心部)
(6)JOINT RIGHT SHOLDER(右肩関節部)
(7)JOINT LEFT SHOLDER(左肩関節部)
(8)JOINT RIGHT ELBOW(右肘関節部)
(9)JOINT LEFT ELBOW(左肘関節部)
(10)JOINT RIGHT WRIST(右手首関節部)
(11)JOINT LEFT WRIST(左手首関節部)
(12)JOINT RIGHT HAND(右手関節部)
(13)JOINT LEFT HAND(左手関節部)
(14)JOINT RIGHT HIP(右股関節部)
(15)JOINT LEFT HIP(左股関節部)
(16)JOINT RIGHT KNEE(右膝関節部)
(17)JOINT LEFT KNEE(左膝関節部)
(18)JOINT RIGHT ANKLE(右足関節部)
(19)JOINT LEFT ANKLE(左脚関節部)
各キーポイントは、他のキーポイントとの間で親子関係が予め組まれて階層構造を成している。キーポイントの階層構造の一例を図7に示す。JOINT HEAD(1)は階層構造の頂点である。JOINT HEAD(1)を最上位にして、JOINT NECK(2)、JOINT LEFT AND RIGHT COLLAR(3)と、親子関係が順に下層へと繋がっていく。JOINT LEFT AND RIGHT COLLAR(3)では、子にあたるキーポイントが、JOINT TRSO(4)、JOINT RIGHT SHOLDER(6)、JOINT LEFT SHOLDER(7)の3つになる。
JOINT TRSO(4)はJOINT WAIST(5)と親子関係であり、JOINT WAIST(5)はJOINT RIGHT HIP(14)とJOINT LEFT HIP(15)と親子関係が組まれている。JOINT RIGHT HIP(14)は、自身を上位として、JOINT RIGHT KNEE(16)、JOINT RIGHT ANKLE(18)の順に親子関係が下層へと繋がっていく。JOINT LEFT HIPは、JOINT RIGHT HIP(14)同様に自身を上位として、JOINT LEFT KNEE(17)、JOINT LEFT ANKLE(19)の順に親子関係が下層へと繋がっていく。
JOINT RIGHT SHOLDER(6)は、自身を上位として、JOINT RIGHT ELBOW(8)、JOINT RIGHT WRIST(10)、JOINT RIGHT HAND(12)の順に親子関係が下層へと繋がっていく。
JOINT LEFT SHOLDER(7)は、JOINT RIGHT SHOLDER(6)同様に、JOINT LEFT ELBOW(9)、JOINT LEFT WRIST(11)、JOINT LEFT HAND(13)の順に親子関係が下層へと繋がっていく。
図7は、上述のような親子関係にあるキーポイント同士を直線で結んで木構造として示した図である。図6においても、親子関係が組まれているキーポイント間を直線で結んで示している。尚、図6及び図7にて示したキーポイント及び木構造は一例であり、キーポイント及び木構造は如何なる場所及び構造であっても本発明を適用することは可能である。
推定部13は、親子関係にあるキーポイント間の直線を骨格と認識し、所定の骨格間の角度が体勢モデルデータベース112のモデルデータに記されている条件に当てはまるかを判定する。推定部13は、所定の骨格間の角度が条件リストに一致する割合を算出し、一番高い割合に対応付けられている体勢がユーザの体勢であると推定する。即ち、認識した骨格と、モデルデータとの近似度を算出し、一番近いモデルデータの体勢をユーザの体勢であると推定する。
尚、推定部13が画像中から人物の関節を検出する方法は特定しないが、例えば機械学習装置を用いて行ってもよい。機械学習装置は、画像中の人物の関節を指定して取得した人物と関節の関係を教師データとして用いて関節を検出しても、ディープラーニングにより人物と関節の関係を取得して、これを教師データとして用いて関節を検出しても良い。
取得部14は、キャラクタ画像データベース113から、推定部13によって推定された体勢に対応付けられているポーズのキャラクタ画像を取得する。
表示制御部15は、表示画像データベース114からメニュー画面を読み出して表示画面21に表示させる。表示制御部15は、キャラクタ選択のメニュー画面を表示する際、キャラクタデータベース111のキャラクタIDを読み込む。読込んだキャラクタIDに対応付けられているキャラクタ名をキャラクタデータベース111から読み出す。更に、表示制御部15は、読込んだキャラクタIDの画像をキャラクタ画像データベース113から読み出して、先に読み出したキャラクタ名と共に並べて表示画面21に表示させる。キャラクタ画像データベース113から読み出す画像は、予め決められていてもランダムでも良い。
表示制御部15は、撮像部12が撮像した画像に、取得部14が選択したキャラクタ画像を重畳(合成)して、表示画面21に表示させる。キャラクタ画像を重畳する際、表示制御部15は、推定部13が認識した骨格の撮像画像上での垂直方向の割合に応じて、選択したキャラクタ画像の大きさを変換する。表示制御部15は、推定部13が認識した骨格の画像上での水平方向及び垂直方向(奥行)の位置の少なくとも一方に応じた位置に、大きさを変換させたキャラクタ画像を撮像画像に配置する。表示制御部15が行う、キャラクタ画像の位置決定の例を説明する。
例えば、画像を右領域と左領域等の複数領域に分け、表示制御部15は推定した骨格が位置する領域以外の領域にキャラクタ画像を配置する。また、体勢モデルデータベース112の体勢IDに、画面上のどの位置に配置するかの配置情報を予め対応付けて記憶させおき、表示制御部15はこの配置情報に基づいて、キャラクタ画像を配置する。
他の例としては、各ポーズのキャラクタ画像にも骨格を定義付けておき、キャラクタ画像データベース113の体勢IDに、認識したユーザの骨格に対するキャラクタ画像の骨格の相対位置を配置情報として対応付けて記憶させておき、表示制御部15はこの配置情報とキャラクタの骨格とユーザの骨格とに基づいて、キャラクタ画像を配置する。
本発明の表示制御部15は、上記のいずれの方法を用いてキャラクタ画像を撮像画像に配置する。尚、表示制御部15は、認識した骨格に応じて、キャラクタ画像を配置する角度を変更させて配置しても良い。
深度センサ16は、撮像部12からの撮像画像を用いて、ユーザが所定の動作を行うのを検出する。例えば、深度センサ16が定期的に対象物までの距離を測定して深度画像を生成し、その中から人物にあたるユーザの形状を検出し、その形状の時系列の変化によってユーザが所定の動作を行ったかを監視する。
画像キャプチャ部17は、深度センサがユーザの所定の動作を検出すると、表示制御部15が撮像画像にキャラクタ画像を重畳した合成画像をキャプチャする。画像キャプチャ部17は、キャプチャした画像を撮影画像として記憶部11に記憶させる。尚、深度センサがユーザの所定の動作を検出すると、セルフタイマーが起動して、カウントダウン後に画像キャプチャ部17が画像をキャプチャする構成であってもよい。
続いて、本実施の形態の動作について説明する。図8は、本発明の動作を説明するためのフロー図である。
表示制御部15は、キャラクタデータベース111とキャラクタ画像データベース113とから読み出したキャラクタ名と該キャラクタの画像と、表示画面データベース114から読み出したメニュー画面とからユーザにキャラクタを選択させるためのメニュー画面を生成して、表示画面21に表示させる(ステップ1501)。
ユーザが表示画面21に表示されているメニュー画面を用いて、キャラクタを選択すると、入力部が該キャラクタのキャラクタIDを取得部14に通知する(ステップ1502)。
キャラクタが選択されると、カメラが起動し、撮像部12が撮像した撮像画像が表示画面21に表示される(ステップ1503)。
推定部13は、撮像画像からユーザの骨格を認識する(ステップ1504)。
推定部13は、認識した骨格の所定の骨格間の角度が、体勢モデルデータベース112のモデルデータに記されている条件に一致する割合を算出する(ステップ1505)。
推定部13は、一番高い割合のモデルデータに対応付けられている体勢IDを読み出す(ステップ1506)。
取得部14は、ステップ1502で選択されたキャラクタのキャラクタIDと、推定部13が読み出した体勢IDとに基づいて、キャラクタ画像データベース113からキャラクタ画像を取得する(ステップ1507)。
表示制御部15は、ステップ1504で認識した骨格の撮像画像上での垂直方向の割合に応じて、ステップ1507で選択されたキャラクタ画像の大きさを変更する(ステップ1508)。
表示制御部15は、ステップ1504で認識した骨格の画像上での水平方向及び奥行の位置の少なくとも一方に応じた位置に、ステップ1508で大きさが変換されたキャラクタ画像を撮像画像に配置して表示画面21に表示させる(ステップ1509)。
深度センサ16は、監視を開始し、ユーザが所定の動作を行うのを検出する(ステップ1510)。
画像キャプチャ部17は、深度センサ16がユーザの所定の動作を検出すると、表示画面21に表示されている画像をキャプチャする(ステップ1511)。
画像キャプチャ部17は、キャプチャした画像を記憶部11に記憶させる(ステップ1522)。
上述した本発明を用いると、ユーザの体勢に応じてキャラクタ画像を配置するため、ユーザが画像コンテンツを調整せずに、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。
また、本発明を用いると、ユーザの画面大きさに応じてキャラクタ画像の大きさを変更するため、ユーザが立ち位置を調整することなく、ユーザがキャラクタ画像と共に写っている画像を撮ることができる。
また、本発明を用いると、ユーザの所定の動作を検出すると画面をキャプチャする構成であるため、ユーザが表示画面のタッチパネルまで移動することなく、キャラクタ画像と共に写っている画像を撮ることができる。
尚、上記説明において、体勢を推定するにあたって、所定の骨格間の角度がモデルデータに記されている角度の条件リストに当てはまる割合に基づいて推定する場合を用いて説明したが、これ以外の方法であっても良い。例えば、認識した骨格の相対的な位置関係が、モデルデータに記されている位置関係に相似している割合に基づいて推定しても良い。
また、上記説明において、取得部は、推定した体勢に対応付けられているポーズのキャラクタ画像をキャラクタ画像データベース113から取得する場合を用いて説明したが、他の方法であっても良い。例えば、取得部は、推定した体勢に対応するポーズにキャラクタの画像を変更するようにしても良い。
また、上記説明において、深度センサ16を用いてユーザが所定の動作を行うのを検出している例を用いて説明したが、他の方法であっても良い。例えば、深度センサの代わりに光学センサを用いてユーザが所定の動作を行うのを検出しても良い。他にも、推定部13が認識した骨格の時系列の変化によってユーザが所定の動作を行ったかを検出しても良い。
尚、上述した本発明の装置は、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。この場合、画像制御装置10は、プロセッサ、メモリ(ROMやRAM)、記憶装置(ハードディスク、半導体ディスクなど)、入力装置(キーボード、マウス、タッチパネル)、表示装置、通信部などのハードウェア資源を有する汎用のコンピュータによっても実現可能である。一部の機能のみをコンピュータプログラムにより実現することも可能である。
以上、好ましい実施の形態及び実施例が説明された。しかしながら、本発明は、必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形され実施できる。
以上、実施の形態及び実施例をあげて本発明を説明したが、本発明は必ずしも上記実施の形態及び実施例に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
10 画像制御装置10
11 記憶部
12 撮像部
13 推定部
14 取得部
15 表示制御部
16 深度センサ
17 画像キャプチャ部
20 表示部
21 表示画面

Claims (11)

  1. 撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、
    前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、
    前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段と、
    を有する画像制御装置。
  2. 前記人物の所定の動作を認識すると、前記重畳画像をキャプチャする画像キャプチャ手段を有する請求項1に記載の画像制御装置。
  3. 前記推定手段は、前記撮像画像から前記人物の関節の位置を含む特徴点に基づいて、前記骨格を検出する
    請求項1又は請求項2に記載の画像制御装置。
  4. 前記取得手段は、人物の体勢のモデルデータ各々に異なるポーズのキャラクタ画像が予め対応付けられている記憶部から、前記推定した体勢に対応付けられているポーズのキャラクタ画像を取得する
    請求項1から請求項3のいずれかに記載の画像制御装置。
  5. 前記取得手段は、前記キャラクタの画像を前記推定した体勢に対応するポーズに変更する
    請求項1から請求項3のいずれかに記載の画像制御装置。
  6. 前記画像制御手段は、前記検出した骨格の前記撮像画像上での水平方向の位置に応じて、前記取得したキャラクタ画像を重畳する重畳する位置を決定する
    請求項1から請求項5のいずれかに記載の画像制御装置。
  7. 前記画像制御手段は、前記モデルデータに対応付けられて記憶されている配置情報に基づいて、前記取得したキャラクタ画像を重畳する位置を決定する
    請求項1から請求項5のいずれかに記載の画像制御装置。
  8. 前記画像制御手段は、前記検出した骨格の前記撮像画像上での垂直方向の位置に応じて、前記取得したキャラクタ画像を重畳する垂直方向の位置を決定する
    請求項1から請求項7のいずれかに記載の画像制御装置。
  9. 前記所定の動作は、前記推定手段が検出した骨格の時系列の動きによって認識される請求項1から請求項8のいずれかに記載の画像制御装置。
  10. 前記所定の動作は、深度センサ又は光学センサによって認識される請求項1から請求項8のいずれかに記載の画像制御装置。
  11. 画像制御装置のプログラムであって、前記プログラムは前記画像制御装置を、
    撮像画像から検出した人物の骨格に基づいて前記人物の体勢を推定する推定手段と、
    前記推定した体勢に応じたポーズのキャラクタ画像を取得する取得手段と、
    前記取得したキャラクタ画像のサイズを前記検出した骨格の前記撮像画像上での垂直方向の割合に応じて変換し、前記変換したキャラクタ画像を前記撮像画像に重畳した重畳画像を表示させる表示制御手段と、
    して機能させるプログラム。
JP2018104659A 2018-05-31 2018-05-31 画像制御装置、及びそのプログラム Active JP7214092B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104659A JP7214092B2 (ja) 2018-05-31 2018-05-31 画像制御装置、及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104659A JP7214092B2 (ja) 2018-05-31 2018-05-31 画像制御装置、及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2019211828A true JP2019211828A (ja) 2019-12-12
JP7214092B2 JP7214092B2 (ja) 2023-01-30

Family

ID=68846797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104659A Active JP7214092B2 (ja) 2018-05-31 2018-05-31 画像制御装置、及びそのプログラム

Country Status (1)

Country Link
JP (1) JP7214092B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021242005A1 (ko) * 2020-05-29 2021-12-02 삼성전자 주식회사 전자 장치 및 사용자 아바타 기반의 이모지 스티커를 생성하는 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355567A (ja) * 2003-05-30 2004-12-16 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2005109555A (ja) * 2003-09-26 2005-04-21 Casio Comput Co Ltd 画像出力装置、画像出力方法、および画像出力処理プログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355567A (ja) * 2003-05-30 2004-12-16 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2005109555A (ja) * 2003-09-26 2005-04-21 Casio Comput Co Ltd 画像出力装置、画像出力方法、および画像出力処理プログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021242005A1 (ko) * 2020-05-29 2021-12-02 삼성전자 주식회사 전자 장치 및 사용자 아바타 기반의 이모지 스티커를 생성하는 방법

Also Published As

Publication number Publication date
JP7214092B2 (ja) 2023-01-30

Similar Documents

Publication Publication Date Title
CN103310186B (zh) 校正图像中用户的注视方向的方法和便携式终端
JP2023052914A (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
CN103140862B (zh) 用户界面系统及其操作方法
US9218781B2 (en) Information processing apparatus, display control method, and program
JP6330036B2 (ja) 画像処理装置及び画像表示装置
CN102982525A (zh) 图像处理装置、图像处理方法和程序
JP7228025B2 (ja) 多重検出を伴う拡張現実に基づく衣服の仮想試着のための方法およびデバイス
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2006350578A (ja) 画像分析装置
JP2011103561A (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
US20150002518A1 (en) Image generating apparatus
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
JP7214092B2 (ja) 画像制御装置、及びそのプログラム
JP2020091658A (ja) 撮像情報管理システム、撮像情報管理システムの制御方法及び撮像情報管理プログラム
JP2015011404A (ja) 動作認識処理装置
JP5048736B2 (ja) 画像処理システム、画像処理方法及び画像処理プログラム
JP2013186801A (ja) 画像処理装置
WO2017150292A1 (ja) 表示システム、情報処理装置、情報処理方法及びプログラム
JP2021009693A (ja) 画像選択生成装置、画像選択生成方法及び画像選択生成プログラム
KR102511495B1 (ko) 실감형 콘텐츠 생성 방법
KR20150028623A (ko) 영상 처리 방법 및 영상 처리 장치
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
JP2020177605A (ja) 画像処理装置
JP7169489B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
AU2020436767B2 (en) Markerless motion capture of hands with multiple pose estimation engines

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221017

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221129

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230110

R150 Certificate of patent or registration of utility model

Ref document number: 7214092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150