JP7473012B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7473012B2
JP7473012B2 JP2022567993A JP2022567993A JP7473012B2 JP 7473012 B2 JP7473012 B2 JP 7473012B2 JP 2022567993 A JP2022567993 A JP 2022567993A JP 2022567993 A JP2022567993 A JP 2022567993A JP 7473012 B2 JP7473012 B2 JP 7473012B2
Authority
JP
Japan
Prior art keywords
visibility
dimensional
model
skeletal model
dimensional screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022567993A
Other languages
English (en)
Other versions
JPWO2022123752A5 (ja
JPWO2022123752A1 (ja
Inventor
賢太 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022123752A1 publication Critical patent/JPWO2022123752A1/ja
Publication of JPWO2022123752A5 publication Critical patent/JPWO2022123752A5/ja
Application granted granted Critical
Publication of JP7473012B2 publication Critical patent/JP7473012B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
従来、撮像装置で撮像された人物の姿勢を2次元又は3次元空間上で可視化する手法として、骨格モデルを用いる手法が提案されている。骨格モデルは、人体の骨格を単純化して表現したモデルである。骨格モデルは、画像内で人体の頭、肩、関節等の基幹骨格が検出され、その検出された点同士を線で結んで生成される。特許文献1には、この骨格モデルを用いて、画像に写っている人物の姿勢を推定する装置が開示されている。
特許文献1では、骨格モデルを用いた姿勢の推定をコンピュータで行っている。一方で、生成された骨格モデルをディスプレイに表示して、観察者が、表示された骨格モデルを視認して、撮像された人物の姿勢を骨格モデルから判断することもある。
国際公開第2012/046392号
しかしながら、骨格モデルのみがディスプレイに表示されている場合、骨格モデルは線で表されるため、状況によっては、観察者は骨格モデルを直観的に判別することが難しいことがある。例えば、複数人が撮像された結果、複数の骨格モデルが重なって表示された場合、観察者にとって、重なった骨格モデルから骨格モデルを一つずつ判別することが難しくなる。また、撮像された人物が腕を組んでいるなど、一つの骨格モデルにおいて重なりが生じている場合も、観察者にとって、骨格モデルの姿勢を判別することが難しくなる。
本発明の目的の一例は、2次元画面内の人物の姿勢を表現する骨格モデルを、観察者に直観的に認知させる、画像処理装置、画像処理方法、及び、それを実現するためのプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における画像処理装置は、
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、視認容易度算出部と、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、視覚的特徴付加部と、
を備える、ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における画像処理方法は、
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、ステップと、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、ステップと
を備えることを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、ステップと、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、ステップと、
を実行させることを特徴とする。
以上のように本発明によれば、2次元画面内の人物の姿勢を表現する骨格モデルを、観察者に直観的に認知させることができる。
図1は、実施の形態における画像処理装置の概略構成を示す構成図である。 図2は、骨格モデルに付加する視覚的特徴を説明するための図である。 図3は、骨格モデルに付加する視覚的特徴を説明するための図である。 図4は、骨格モデルに付加する視覚的特徴を説明するための図である。 図5は、視覚的特徴の別の例を示す図である。 図6は、視覚的特徴の別の例を示す図である。 図7は、視覚的特徴の別の例を示す図である。 図8は、実施の形態の画像処理装置を備える3次元可視化装置の構成を示す構成図である。 図9は、投影方向を設定した仮想空間を示す図である。 図10は、図9において、方向D1に投影した場合の2次元画面を示す図である。 図11は、図9において、方向D2に投影した場合の2次元画面を示す図である。 図12は、図9において、方向D3に投影した場合の2次元画面を示す図である。 図13は、実施の形態における画像処理装置を含む3次元可視化装置の動作を示すフロー図である。 図14は、実施の形態における画像処理装置を含む3次元可視化装置の動作を示すフロー図である。 図15は、投影方向を変更する前後の表示装置の表示画面を示す図である。 図16は、2次元画面上に、領域を指定する例を説明するための図である。 図17は、表示領域を変更する前後の表示装置の表示画面を示す図である。 図18は、3次元スケルトン情報に、拡大率を指定した例を説明するための図である。 図19は、拡大率を変更する前後の表示装置の表示画面を示す図である。 図20は、実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
以下、本発明の実施の形態における画像処理装置について、図面を参照しながら説明する。
[装置構成]
最初に、実施の形態における画像処理装置の概略構成について図1を用いて説明する。図1は、本実施の形態における画像処理装置の概略構成を示す構成図である。
図1に示すように、画像処理装置1は、視認容易度算出部2と、視覚的特徴付加部3とを備えている。
視認容易度算出部2は、人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された人物の骨格モデルについて、視認容易度を算出する。視認容易度は、3次元の骨格モデルを2次元画面上に投影した場合における2次元画面上での骨格モデルの視認の容易性を示す値である。視認容易度の算出方法については、後述する。
視覚的特徴付加部3は、視認容易度に応じて、骨格モデルに、視覚的特徴を付加する。
ここで、視覚的特徴付加部3が骨格モデルに付加する視覚的特徴について説明する。図2、図3及び図4は、骨格モデルに付加する視覚的特徴を説明するための図である。
視覚的特徴とは例えば色彩、線の太さ、線の種類、透過度を指し、本実施の形態では、視覚的特徴を色彩として説明する。図2~図4は、3次元の骨格モデルを2次元画面に投影した場合における2次元画面上での骨格モデルを示す。また、図2~図4において、図中左は視覚的特徴を付加していない骨格モデルを示し、図中右は視覚的特徴を付加した骨格モデルを示す。さらに、図2~図4において、実線と破線とは、色彩が異なることを意味している。骨格モデルは、図に示すように、人物の関節に相当する関節点と、その関節点間を結ぶリンクとを有している。
2次元画面上の骨格モデルに重なりがある場合に、その2次元画面を表示装置に表示すると、観察者にとって、骨格モデルの姿勢を直観的に判別することが難しいことがある。そこで、視覚的特徴付加部3は、骨格モデルに色彩を付加する。例えば、図2は、腕組みをした人物の骨格モデルを示す。この場合、視覚的特徴付加部3は、左半身の関節点及びリンクと、右半身の関節点及びリンクとで、異なる色彩を付加する。これにより、観察者にとって、腕の重なりを直観的に認知できるようなり、骨格モデルの姿勢が判別しやすくなる。
図3は、上げた脚と手とが重なり合った人物の骨格モデルを示す。この場合、視覚的特徴付加部3は、下半身の関節点及びリンクと、上半身の関節点及びリンクとで、異なる色彩を付加する。これにより、観察者にとって、脚と手との重なりを直観的に認知できるようになり、その骨格モデルの姿勢が判別しやすくなる。
図4は、2つの骨格モデルが重なっている状態を示す。この場合、視覚的特徴付加部3は、一の骨格モデルの全関節点及び全リンクと、他の骨格モデルの全関節点及び全リンクとで、異なる色彩を付加する。これにより、観察者にとって、2つの骨格モデル同士の重なりを直観的に認知できるようになり、2つの骨格モデルそれぞれの姿勢を判別しやすくなる。
このように、画像処理装置1は、3次元の骨格モデルを投影した2次元画面を表示した場合に、観察者が、その2次元画面上での骨格モデルの姿勢を直観的に認知可能なように、3次元の骨格モデルに色彩を付加する。この画像処理装置1によれば、2次元画面内の人物の姿勢を表現する骨格モデルを、観察者に直観的に認知させることができる。
なお、視覚的特徴を付加する別の例として、視覚的特徴付加部3は、骨格モデルの線の太さを変えてもよいし、線の透明度を変えてもよい。また、視覚的特徴付加部3は、骨格モデルの線を二重線にしてもよいし、点線にしてもよい。さらに、視覚的特徴付加部3は、骨格モデルの間接点のみ、又は、リンクのみに、視覚的特徴を付加するようにしてもよい。
図5、図6、及び図7は、視覚的特徴の別の例を示す図である。図5、図6、及び図7は、図2と同様、腕組みをした人物の骨格モデルを示す。
例えば、図5に示すように、視覚的特徴付加部3は、骨格モデルの間接点のみ視覚的特徴を付加するようにしてもよい。図5の例では、視覚的特徴付加部3は、左半身の関節点と、右半身の関節点とを、異なる形状で表している。詳しくは、視覚的特徴付加部3は、左半身の関節点を丸形状で表し、右半身の関節点を星形状で表している。
また、図6及び図7に示すように、視覚的特徴付加部3は、骨格モデルのリンクのみ視覚的特徴を付加するようにしてもよい。図6の例では、視覚的特徴付加部3は、右半身のリンクと、左半身のリンクとを、異なる太さで表している。詳しくは、視覚的特徴付加部3は、右半身のリンクを、左半身のリンクよりも太い線種で表している。図7の例では、視覚的特徴付加部3は、右半身のリンクと左半身とのリンクとを、異なる線種で表している。詳しくは、視覚的特徴付加部3は、右半身のリンクを破線で表し、左半身のリンクを二重線で表している。
続いて、図8~図15を用いて、本実施の形態における画像処理装置1の構成及び機能について具体的に説明する。以下では、画像処理装置1を備えた、3次元可視化装置を例に挙げて説明する。図8は、本実施の形態の画像処理装置1を備える3次元可視化装置10の構成を示す構成図である。
3次元可視化装置10には、表示装置20が接続される。表示装置20には、仮想空間上に構築された3次元の骨格モデルを2次元画面に投影した場合における、2次元画面が表示される。
3次元可視化装置10は、画像処理装置1と、3次元スケルトン情報生成部11、投影方向設定部12及び操作受付部13とを備える。なお、3次元スケルトン情報生成部11、投影方向設定部12及び操作受付部13は、画像処理装置1が備えていてもよい。
3次元スケルトン情報生成部11は3次元スケルトン情報を生成する。3次元スケルトン情報は、撮像装置で撮像された人物の関節を、3次元の仮想空間上で特定するための情報である。撮像装置は、例えば、CCDセンサ、又はCMOSセンサなどの撮像素子を有したカメラである。3次元スケルトン情報生成部11は、撮像装置で撮像された人物の2次元画像から、3次元スケルトン情報を生成する。以下、3次元スケルトン情報を生成する方法について説明する。
3次元スケルトン情報生成部11は、撮像装置で撮像された人物の2次元画像から、その2次元画像の座標系で記述された2次元骨格情報を生成する。2次元骨格情報は、2次元画像の座標系における人物の関節位置の情報である。次に、3次元スケルトン情報生成部11は、2次元骨格情報を、骨格モデル座標系で記述された骨格モデル記述情報に変換する。骨格モデル座標系は、2次元骨格情報の骨格モデルに存在する関節の一つを原点とし、又は、関節を繋いだ直線上の一点を原点とし、2つの関節を通る直線に平行で原点を通る軸をX軸、そのX軸に直交する直線をY軸とする座標系である。
3次元スケルトン情報生成部11は、骨格モデル記述情報に変換する際、関節長と、関節角度とを算出する。
関節長とは、関節点と関節点とを繋ぐ直線の長さである。3次元スケルトン情報生成部11は、例えば肩ライン(右肩と左肩とを繋ぐ線分)の長さを1とし、他の関節長を、肩ラインに対する比率で求める。
関節角度は、互いに隣接する、関節点と関節点とを繋ぐ線分がなす角度である。例えば、右肩と右ひじとを繋ぐ線分の角度は、右肩と左肩とを繋ぐ線分と、右肩と右ひじとを繋ぐ線分とのなす角度で表される。
このようにして、3次元スケルトン情報生成部11は、2次元骨格情報を、骨格モデル記述情報に変換する。
また、不図示の記憶部には、予め、例えばモーションキャプチャによって取得された3次元の骨格モデルと、その3次元の骨格モデルから生成された2次元の骨格モデルとが格納されている。この2次元の骨格モデルは、骨格モデル座標系で記述された骨格モデル記述情報である。3次元スケルトン情報生成部11は、生成した骨格モデル記述情報と、記憶部に格納される2次元の骨格モデルとの類似度に基づいて、2次元の骨格モデルのうちいずれかを、撮像装置で撮像した人物の姿勢に対応する2次元の骨格モデルとして選択する。そして、3次元スケルトン情報生成部11は、選択した2次元の骨格モデルに対応する3次元の骨格モデルの情報を、3次元スケルトン情報として、取得する。3次元スケルトン情報生成部11は、上記の処理を行うことで、3次元スケルトン情報を生成する。
なお、3次元スケルトン情報を生成する方法は、これに限定されない。例えば、3次元スケルトン情報生成部11は、撮像装置で撮像した人物の2次元画像を入力として、画像中の関節位置と、関節位置のカメラからの奥行とを直接推定(ディープラーニング)することで3次元スケルトン情報を生成してもよい。また、人物を撮像する撮像装置を、深度センサを用いた撮像装置として、3次元スケルトン情報生成部11は、その撮像装置による撮像結果から3次元スケルトン情報を生成してもよい。
投影方向設定部12は、3次元スケルトン情報生成部11が生成した、3次元スケルトン情報を用いて仮想空間上に構築した3次元の骨格モデルを2次元画面上に投影する際の投影方向を設定する。図9は、投影方向を設定した仮想空間を示す図である。投影方向は、図9に示すように、それぞれが異なる方向であれば、特に限定されない。図10は、図9において、方向D1に投影した場合の2次元画面を示す図である。図11は、図9において、方向D2に投影した場合の2次元画面を示す図である。図12は、図9において、方向D3に投影した場合の2次元画面を示す図である。また、投影方向設定部12が設定する投影方向の数は1つであってもよいし、2つであってもよいし、4つ以上であってもよい。
操作受付部13は、観察者による操作を受け付ける。詳しくは、操作受付部13は、仮想空間上に設定された投影方向の中から観察者が選択する操作を受け付ける。投影方向設定部12は、操作受付部13が受け付けた選択操作に基づいて、設定した投影方向のなかから選択する。また、操作受付部13は、設定した投影方向の変更を受け付ける。つまり、操作受付部13は、投影方向を変更する変更手段である。
画像処理装置1は、視認容易度算出部2、視覚的特徴付加部3、及び表示部4を備えている。
視認容易度算出部2は、3次元の骨格モデルを2次元画面上に投影した場合に、その2次元画面上での骨格モデルの視認容易度を算出する。視認容易度は、上記したように、2次元画面上での骨格モデルの視認の容易性を示す値である。視認容易度算出部2は、投影方向設定部12により選択された方向に投影した2次元画面上での骨格モデルの視認容易度を算出する。例えば、視認容易度算出部2は、図9において、投影方向に方向D1が選択された場合、図10に示す2次元画面上の骨格モデルの視認容易度を算出する。また、視認容易度算出部2は、投影方向に方向D2が選択された場合、図11に示す2次元画面上の骨格モデルの視認容易度を算出する。また、視認容易度算出部2は、投影方向に方向D3が選択された場合、図12に示す2次元画面上の骨格モデルの視認容易度を算出する。なお、視認容易度算出部2は、選択されていない方向に投影した2次元画面上の骨格モデルの視認容易度も算出するようにしてもよい。
以下に、3通りの視認容易度の算出方法について説明する。
(視認容易度の算出方法1)
視認容易度算出部2は、2次元画面内の鉛直方向(y軸座標)での全ての関節点の分散値を求める。また、視認容易度算出部2は、2次元画面内の水平方向(x軸座標)での全ての関節点の分散値を求める。2次元画面内において、各関節点それぞれの座標を(x、y)(i=1、2、…N,N:関節点数)で表す。x方向の分散値は、以下の式(1)で算出される。また、y方向の分散値は、以下の式(2)で算出される。
Figure 0007473012000001
視認容易度算出部2は、x方向において求めた分散値σ と、y方向において求めた分散値σ とに基づいて視認容易度を算出する。例えば、視認容易度算出部2は、分散値σ 又は分散値σ の小さい方を視認容易度とする。または、視認容易度算出部2は、分散値σ 及び分散値σ の平均値を視認容易度とする。
(視認容易度の算出方法2)
視認容易度算出部2は、2次元画面上でリンク同士が交差している回数を算出する。例えば、視認容易度算出部2は、2次元画面上での座標系において、リンクの直線式を算出し、交点を算出することで、リンク同士が交差している回数を算出する。又は、視認容易度算出部2は、2次元画面上においてコーナー検出処理を行うことで、リンク同士が交差している回数を算出する。そして、視認容易度算出部2は、算出した回数に基づき視認容易度を算出する。例えば、視認容易度算出部2は、1/回数、を視認容易度とする。
(視認容易度の算出方法3)
視認容易度算出部2は、訓練データを用いて機械学習を行って構築された、骨格モデルと視認容易度との関係を示すモデルに、2次元画面上に投影した骨格モデルを適用することによって、視認容易度を算出する。機械学習の手法としては、ディープラーニングが挙げられる。訓練データとしては、3次元の骨格モデルを2次元画面上に投影して得られる情報と、その情報に対応する視認容易度を示すラベル(正解ラベル)とが挙げられる。骨格モデルを2次元画面上に投影して得られる情報は、例えば、2次元画面上に投影された骨格モデルの関節点の座標である。
機械学習によるモデルの構築方法は、まず、訓練データに含まれる、骨格モデルを2次元画面上に投影して得られる情報を、そのモデルに入力し、出力結果を取得する。そして、訓練データとして、取得した出力結果と、入力した情報と、上記算出方法1、2を用いて設定した正解ラベルと、を用いて、機械学習を行って、骨格モデルと視認容易度との関係を示すモデルを生成する。
視認容易度算出部2は、構築されたモデルに、2次元画面上の関節点の座標を入力して、その出力結果である視認容易度を取得する。
なお、視認容易度算出部2は、全骨格モデルについての視認容易度を算出することもあるし、骨格モデルの一部についての視認容易度を算出することもある。骨格モデルの一部についての視認容易度とは、例えば、一の骨格モデルの上半身、下半身、右半身、又は左半身などについての視認容易度である。
視覚的特徴付加部3は、視認容易度算出部2が算出した視認容易度に応じて、3次元の骨格モデルに、視覚的特徴を付加する。視覚的特徴は、図2~図7で説明したように、関節点及びリンクに付加する色彩である。視覚的特徴付加部3は、例えば、一の骨格モデルにおける上半身と下半身とで、異なる色彩を関節点及びリンクに付加する。この3次元の骨格モデルを投影した2次元画面を表示装置20に表示する場合、図3の右側に示す骨格モデルが表示される。また、視覚的特徴付加部3は、例えば、一の骨格モデルと、他の骨格モデルとで、異なる色彩を関節点及びリンクに付加する。この3次元の骨格モデルを投影した2次元画面を表示装置20に表示する場合、図4の右側に示す骨格モデルが表示される。なお、視覚的特徴付加部3は、例えば、右腕のみ、又は右足のみなど、一部の部位の関節点及びリンクを、他の関節点及びリンクと異なる色彩を付加するようにしてもよい。視覚的特徴付加部3が視覚的特徴を付加するルールについては、後に詳述する。
本実施の形態では、視覚的特徴付加部3は、3次元の骨格モデルに視覚的特徴を付加しているが、2次元画面に投影した骨格モデルに対して視覚的特徴を付加するようにしてもよい。また、視覚的特徴を付加する別の例として、図5~図7などで説明したように、視覚的特徴付加部3は、骨格モデルの線の太さを変えてもよいし、線の透明度、線の種類を変えてもよい。さらに、視覚的特徴付加部3は、骨格モデルの関節点のみ、又は、リンクのみに視覚的特徴を付加するようにしてもよい。
表示部4は、視覚的特徴を付加された3次元の骨格モデルが投影された、2次元画面を表示装置20へ表示する。
[装置動作]
次に、実施の形態における画像処理装置の動作について図13及び図14を用いて説明する。図13及び図14は、本実施の形態における画像処理装置1を含む3次元可視化装置10の動作を示すフロー図である。以下の説明においては、適宜図1~図12を参照する。また、実施の形態では、画像処理装置1を動作させることによって、画像処理方法が実施される。よって、本実施の形態における画像処理方法の説明は、以下の画像処理装置1の動作説明に代える。
3次元スケルトン情報生成部11は、3次元スケルトン情報を生成する(S1)。3次元スケルトン情報生成部11は、上記のように、撮像装置で撮像された人物の2次元画像から、3次元スケルトン情報を生成する。次に、投影方向設定部12は、3次元の骨格モデルを2次元画面上に投影する際の投影方向を設定し、設定した投影方向のなかから観察者に選択された投影方向を選択する(S2)。
画像処理装置1の視認容易度算出部2は、3次元スケルトン情報を用いて仮想空間上に構築された3次元の骨格モデルについて、選択された投影方向に投影した2次元画面上での視認容易度を算出する(S3)。S3では、視認容易度算出部2は、2次元画面内の全骨格モデルについて視認容易度を算出する。
視覚的特徴付加部3は、S3で算出された視認容易度が閾値を超えているか否かを判定する(S4)。閾値は、2次元画面を表示装置20に表示した際に、観察者が、2次元画面内の骨格モデルの姿勢が視認し易いかを決めるための基準値である。閾値は、予め設定された値であり、例えば経験則によって設定される。S4では、視認容易度が上記した分散値である場合、視覚的特徴付加部3は、その分散値が閾値を超えているかを判定する。また、S4では、視認容易度がリンクの交差回数である場合、視覚的特徴付加部3は、1/回数が閾値を超えているかを判定する。
視認容易度が閾値を超えている場合(S4:YES)、視覚的特徴付加部3は、2次元画面に骨格モデルが複数含まれているかを判定する(S5)。骨格モデルが複数含まれている場合(S5:YES)、視覚的特徴付加部3は、図4で説明したように、骨格モデル毎に異なる色彩を付加する(S6)。骨格モデルが複数含まれていない場合(S5:NO)、視覚的特徴付加部3は、骨格モデルの関節毎に異なる色彩を付加する(S7)。例えば、視覚的特徴付加部3は、左腕、右腕、左足、右足、胴体それぞれの関節点及びリンクに異なる色彩を付加する。表示部4は、視覚的特徴が付加された3次元の骨格モデルを2次元画面に投影し、その2次元画面を表示装置20へ表示する(S8)。
S4において、S3で算出された視認容易度が閾値を超えていない場合(S4:NO)、視覚的特徴付加部3は、2次元画面に骨格モデルが複数含まれているかを判定する(S10)。骨格モデルが複数含まれていない場合(S10:NO)、処理は後述のS13に移る。骨格モデルが複数含まれている場合(S10:YES)、視認容易度算出部2は、ペア間の視認容易度を算出する(S11)。ペア間の視認容易度とは、2次元画面に含まれる複数の骨格モデルのうち、任意の、又は、観察者に指定された2つの骨格モデルについての視認容易度である。なお、ペア間の視認容易度は、3つ以上の骨格モデルについての視認容易度であってもよい。
視覚的特徴付加部3は、ペア間の視認容易度が閾値を超えているかを判定する(S12)。ペア間の視認容易度が閾値を超えている場合とは、例えば、一の骨格モデルが他の骨格モデルと重なっていない場合、又は重なりが少ない場合である。ここでの閾値は、S4での閾値と同じであってもよいし、別の値であってもよい。ペア間の視認容易度が閾値を超えていない場合(S12:NO)、視覚的特徴付加部3は、骨格モデル毎に異なる色彩を付加する(S6)。
ペア間の視認容易度が閾値を超えている場合(S12:YES)、視認容易度算出部2は、2次元画面に含まれる骨格モデルそれぞれの部位毎の視認容易度をさらに算出する(S13)。ここで、部位毎の視認容易度とは、上半身についての視認容易度、下半身についての視認容易度、左半身についての視認容易度、及び右半身についての視認容易度、である。なお、この例では、上下半身、左右半身についての視認容易度としているが、これに限定されない。例えば、腕、脚などについての視認容易度としてもよい。
ただし、S13以降の処理は、2次元画面に含まれる骨格モデルそれぞれについて行われる。例えば、2次元画面に2つの骨格モデルが含まれている場合、視認容易度算出部2は、一の骨格モデルの上半身についての視認容易度、下半身についての視認容易度、左半身についての視認容易度、及び右半身についての視認容易度を算出する。また、視認容易度算出部2は、他の骨格モデルの上半身についての視認容易度、下半身についての視認容易度、左半身についての視認容易度、及び右半身についての視認容易度を算出する。そして、視覚的特徴付加部3は、一の骨格モデルについて、S14以降の処理を実行し、他の骨格モデルについても、S14以降の処理を実行する。
視覚的特徴付加部3は、2次元画面に含まれる一の骨格モデルにおける、上半身又は下半身についての視認容易度が閾値を超え、かつ、左半身又は右半身についての視認容易度が閾値を超えているか否かを判定する(S14)。S14の閾値は、S4での閾値と同じであってもよいし、別の値であってもよい。上半身又は下半身についての視認容易度が閾値を超え、かつ、左半身又は右半身についての視認容易度が閾値を超えている場合(S14:YES)、視覚的特徴付加部3は、その一の骨格モデルに、他の骨格モデルとは異なる色彩を付加する(S6)。
上半身又は下半身についての視認容易度が閾値を超えず、又は、左半身又は右半身についての視認容易度が閾値を超えていない場合(S14:NO)、視覚的特徴付加部3は、2次元画面に含まれる一の骨格モデルにおける、上半身又は下半身についての視認容易度が閾値以下であり、かつ、左半身又は右半身についての視認容易度が閾値を超えているかを判定する(S15)。S15の閾値は、S14での閾値と同じである。上半身又は下半身についての視認容易度が閾値以下であり、かつ、左半身又は右半身についての視認容易度が閾値を超えている場合(S15:YES)、視覚的特徴付加部3は、その一の骨格モデルの左半身と右半身とで異なる色彩を付加する(S17)。そして、表示部4は、視覚的特徴が付加された3次元の骨格モデルを2次元画面に投影し、その2次元画面を表示装置20へ表示する(S8)。
上半身又は下半身についての視認容易度が閾値以下でない、又は、左半身又は右半身についての視認容易度が閾値を超えていない場合(S15:NO)、視覚的特徴付加部3は、2次元画面に含まれる一の骨格モデルにおける、上半身又は下半身についての視認容易度が閾値を超え、かつ、左半身又は右半身についての視認容易度が閾値以下であるかを判定する(S16)。S16の閾値は、S14での閾値と同じである。上半身又は下半身についての視認容易度が閾値を超え、かつ、左半身又は右半身についての視認容易度が閾値以下である場合(S16:YES)、視覚的特徴付加部3は、その一の骨格モデルの上半身と下半身とで異なる色彩を付加する(S18)。表示部4は、視覚的特徴が付加された3次元の骨格モデルを2次元画面に投影し、その2次元画面を表示装置20へ表示する(S8)。
上半身又は下半身についての視認容易度が閾値を超えず、又は、左半身又は右半身についての視認容易度が閾値以下でない場合(S16:NO)、視覚的特徴付加部3は、その一の骨格モデルの上半身と下半身と左半身と右半身とで異なる色彩を付加する(S19)。表示部4は、視覚的特徴が付加された3次元の骨格モデルを2次元画面に投影し、その2次元画面を表示装置20へ表示する(S8)。
なお、S8において、2次元画面を表示した後、S2の投影方向の選択を可能とし、選択された投影方向に基づいて視認容易度を再度算出して、3次元の骨格モデルに色彩を付加するようにしてもよい。このとき、視覚的特徴付加部3は、投影方向を変更する前の3次元の骨格モデルと、投影方向を変更した後の3次元の骨格モデルと、で付加する視覚的特徴(色彩)を変える。これにより、図15に示すように、表示装置20には、画面の切り替え前後で、異なる視覚的特徴が付加された骨格モデルが表示されるようになる。図15は、投影方向を変更する前後の表示装置20の表示画面を示す図である。図15の上図は、投影方向を変更する前の表示画面、下図は投影方向を変更した後の表示画面である。このように、観察者の投影方向の選択操作に応じて、表示装置20の表示画面を適宜切り替えることができる。
以上のように本実施の形態によれば、骨格モデルの関節点及びリンクに色彩を付加することで、2次元画面内の人物の姿勢を表現する骨格モデルを、観察者に直観的に認知させることができる。
(変形例1)
2次元画面上において、視認容易度を算出して視覚的特徴を付加する領域を指定できるようにしてもよい。図16は、2次元画面上に、領域を指定する例を説明するための図である。例えば、表示部4が、複数の骨格モデルが含まれている2次元画面を表示装置20に表示する。このとき、3次元可視化装置10は、その2次元画面において、領域指定を可能にする。操作受付部13は、2次元画面に領域を指定する操作を受け付ける。
操作受付部13が、2次元画面上の一の骨格モデルのみが含まれる領域30の指定を受け付けた場合、視認容易度算出部2は、領域30に含まれる一の骨格モデルについてのみ視認容易度を算出する。視覚的特徴付加部3は、図13及び図14のフロー図で説明したように、算出された視認容易度と、指定された領域30内の骨格モデルの数(この例では1つ)とに基づいて、領域30内の骨格モデルに付加する視覚的特徴を決定する。そして、視覚的特徴付加部3は、領域30内の骨格モデルに対応する3次元の骨格モデルに、決定した視覚的特徴を付加する。表示部4は、視覚的特徴が付加された骨格モデルを投影した2次元画面を表示装置20に表示する。これにより、必要な骨格モデルの姿勢のみを、観察者に直観的に認知させることができることがある。
また、指定された領域30について視覚的特徴を付加した後、再度、領域の指定を受付可能としてもよい。この場合、操作受付部13は、指定した領域の変更を受け付ける。つまり、操作受付部13は、領域を変更する変更手段である。視認容易度算出部2は、再度指定された領域について、視認容易度を算出する。そして、視覚的特徴付加部3は、指定された領域の骨格モデルに付加する視覚的特徴を決定する。視覚的特徴付加部3は、決定した視覚的特徴を、3次元の骨格モデルに付加する。このとき、視覚的特徴付加部3は、領域を変更する前の骨格モデルと、領域を変更した後の骨格モデルと、付加する視覚的特徴を変える。これにより、図17に示すように、表示装置20には、画面の切り替え前後で、異なる視覚的特徴が付加された骨格モデルが表示されるようになる。図17は、領域を変更する前後の表示装置20の表示画面を示す図である。図17の上図は、領域を変更する前の表示画面、下図は領域を変更した後の表示画面である。このように、観察者の領域指定の操作に応じて、表示装置20の表示画面を適宜切り替えることができる。
(変形例2)
3次元スケルトン情報において、2次元画面に投影する拡大率を指定できるようにしてもよい。図18は、3次元スケルトン情報に、拡大率を指定した例を説明するための図である。この例では、操作受付部13は、拡大率の指定を受け付ける。図18の上図の3次元の仮想空間に対して、操作受付部13が、拡大率「2倍」の指定を受け付けると、下図のように、骨格モデルを2倍に拡大して2次元画面に投影される。視認容易度算出部2は、拡大されて投影された2次元画面の骨格モデルについて視認容易度を算出する。そして、視覚的特徴付加部3は、算出された視認容易度に基づいて、仮想空間上の3次元の骨格モデルに視覚的特徴を付加する。この場合、骨格モデルを拡大することで、視認容易性が向上することがあるため、2次元画面内の骨格モデルを、観察者により直観的に認知させることができることがある。
また、指定された拡大率で投影された2次元画面について視覚的特徴を付加した後、再度、拡大率の指定を受付可能としてもよい。この場合、操作受付部13は、指定した拡大率の変更を受け付ける。つまり、操作受付部13は、拡大率を変更する変更手段である。視認容易度算出部2は、変更された拡大率で投影した2次元画面に基づいて視認容易度を再度算出する。そして、視覚的特徴付加部3は、算出された視認容易度に基づいて、3次元の骨格モデルに視覚的特徴を付加する。この場合、視覚的特徴付加部3は、拡大率を変更する前の骨格モデルと、拡大率を変更した後の骨格モデルと、で付加する視覚的特徴を変える。これにより、図19に示すように、表示装置20には、画面の切り替え前後で、異なる視覚的特徴が付加された骨格モデルが表示されるようになる。図19は、拡大率を変更する前後の表示装置20の表示画面を示す図である。図17の上図は、拡大率を変更する前の表示画面、下図は拡大率を変更した後の表示画面である。このように、観察者の拡大率指定の操作に応じて、表示装置20の表示画面を適宜切り替えることができる。
[プログラム]
実施の形態におけるプログラムは、コンピュータに、図13及び図14に示すステップS3~S19を実行させるプログラムであれば良い。コンピュータは、CPU(例えば、複数のプロセッサコアを実装したマルチ・プロセッサなど)、GPU(Graphics Processing Units)、DSP(Digital Signal Processors)、FPGA(Field-Programmable Gate Arrays)、などのハードウェアを組み合わせることによって構成される。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における画像処理装置と画像処理方法とを実現することができる。この場合、コンピュータのプロセッサは、視認容易度算出部2、視覚的特徴付加部3及び表示部4として機能し、処理を行なう。
また、コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ視認容易度算出部2、視覚的特徴付加部3及び表示部4のいずれかとして機能しても良い。
[物理構成]
ここで、本実施の形態におけるプログラムを実行することによって、画像処理装置を実現するコンピュータについて図20を用いて説明する。図20は、本実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
図20に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。
CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。
また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における画像処理装置1は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、画像処理装置1は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記30)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、視認容易度算出部と、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、視覚的特徴付加部と、
を備える、画像処理装置。
(付記2)
前記骨格モデルは、前記人物の関節に相当する関節点を有し、
前記視認容易度算出部は、
前記骨格モデルを前記2次元画面上に投影した場合における、
前記2次元画面内の鉛直方向での全ての前記関節点の分散値を求め、前記2次元画面内の水平方向での全ての前記関節点の分散値を求め、前記鉛直方向において求めた分散値と、前記水平方向において求めた分散値とに基づいて前記視認容易度を算出する、
付記1に記載の画像処理装置。
(付記3)
前記骨格モデルは、前記人物の関節に相当する関節点と、前記関節点間を結ぶリンクとを有し、
前記視認容易度算出部は、
前記骨格モデルを前記2次元画面上に投影した場合における、前記2次元画面上で前記リンク同士が交差している回数を算出し、算出した前記回数に基づいて前記視認容易度を算出する、
付記1に記載の画像処理装置。
(付記4)
前記視認容易度算出部は、
前記骨格モデルを前記2次元画面上に投影して得られる情報と、前記情報に対応する視認容易度を示すラベルとを、訓練データとする機械学習によって構築された、前記骨格モデルと前記視認容易度との関係を示すモデルに、前記2次元画面上に投影した前記骨格モデルを適用することによって、前記視認容易度を算出する、
付記1に記載の画像処理装置。
(付記5)
前記視認容易度算出部は、
前記2次元画面において特定の領域が指定された場合に、
前記特定の領域に投影された人物の骨格モデルに対して前記視認容易度を算出し、
前記視覚的特徴付加部は、
前記特定の領域に投影される人物の数と、前記特定の領域に投影された人物の骨格モデルに対する前記視認容易度とに基づいて、前記特定の領域に投影される人物の骨格モデルに付加する視覚的特徴を決定し、決定した前記視覚的特徴を前記骨格モデルに付加する、
付記1から付記4のいずれか一つに記載の画像処理装置。
(付記6)
前記視認容易度算出部は、
前記2次元画面上において、前記骨格モデルの部位毎に、前記視認容易度を算出し、
前記視覚的特徴付加部は、
前記部位毎に算出された前記視認容易度に基づいて、前記部位毎に異なる視覚的特徴を付加する、
付記1から付記5のいずれか一つに記載の画像処理装置。
(付記7)
前記視覚的特徴が付加された前記骨格モデルが投影されている2次元画面を表示する表示部、
を備える、付記1から付記6のいずれか一つに記載の画像処理装置。
(付記8)
前記視認容易度算出部は、前記骨格モデルを前記2次元画面上に投影する際の投影方向が指定された場合に、前記骨格モデルを指定された投影方向に投影された場合について、前記視認容易度を算出し、
前記視覚的特徴付加部は、指定された投影方向における前記2次元画面上で、算出された前記視認容易度に応じて、前記骨格モデルに、前記視覚的特徴を付加し、
前記表示部は、指定された投影方向において、前記視覚的特徴が付加された前記骨格モデルが投影されている、前記2次元画面を表示する、
付記7に記載の画像処理装置。
(付記9)
前記視覚的特徴付加部は、前記視覚的特徴として、前記骨格モデルに、部分毎に異なる色彩、または他の骨格モデルとは異なる色彩を付加する、
付記1から付記8のいずれか一つに記載の画像処理装置。
(付記10)
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記仮想空間上に設定された所定の方向に基づき前記骨格モデルを2次元画面上に投影する表示部と、
前記所定の方向を変更する変更部と、
前記骨格モデルに視覚的特徴を付加する視覚的特徴付加部と、を備え、
前記視覚的特徴付加部は、前記所定の方向を変更する前に2次元画面上に投影される前記骨格モデルと、前記所定の方向を変更した後に前記2次元画面上に投影される前記骨格モデルと、で付加する視覚的特徴を変える、
画像処理装置。
(付記11)
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記仮想空間上に設定された拡大率に基づき前記骨格モデルを2次元画面上に投影する表示部と、
前記拡大率を変更する変更部と、
前記骨格モデルに視覚的特徴を付加する視覚的特徴付加部と、を備え、
前記視覚的特徴付加部は、前記拡大率を変更する前に2次元画面上に投影される前記骨格モデルと、前記拡大率を変更した後に前記2次元画面上に投影される前記骨格モデルと、で付加する視覚的特徴を変える、
画像処理装置。
(付記12)
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記仮想空間上に設定された特定の領域に基づき前記骨格モデルを2次元画面上に投影する表示部と、
前記特定の領域を変更する変更部と、
前記骨格モデルに視覚的特徴を付加する視覚的特徴付加部と、を備え、
前記視覚的特徴付加部は、前記特定の領域を変更する前に2次元画面上に投影される前記骨格モデルと、前記特定の領域を変更した後に前記2次元画面上に投影される前記骨格モデルと、で付加する視覚的特徴を変える、
画像処理装置。
(付記13)
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、ステップと、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、ステップと、
を備える、画像処理方法。
(付記14)
前記骨格モデルは、前記人物の関節に相当する関節点を有し、
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影した場合における、
前記2次元画面内の鉛直方向での全ての前記関節点の分散値を求め、前記2次元画面内の水平方向での全ての前記関節点の分散値を求め、前記鉛直方向において求めた分散値と、前記水平方向において求めた分散値とに基づいて前記視認容易度を算出する、
付記13に記載の画像処理方法。
(付記15)
前記骨格モデルは、前記人物の関節に相当する関節点と、前記関節点間を結ぶリンクとを有し、
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影した場合における、前記2次元画面上で前記リンク同士が交差している回数を算出し、算出した前記回数に基づいて前記視認容易度を算出する、
付記13に記載の画像処理方法。
(付記16)
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影して得られる情報と、前記情報に対応する視認容易度を示すラベルとを、訓練データとする機械学習によって構築された、前記骨格モデルと前記視認容易度との関係を示すモデルに、前記2次元画面上に投影した前記骨格モデルを適用することによって、前記視認容易度を算出する、
付記13に記載の画像処理方法。
(付記17)
前記視認容易度を算出するステップでは、
前記2次元画面において特定の領域が指定された場合に、
前記特定の領域に投影された人物の骨格モデルに対して前記視認容易度を算出し、
前記視覚的特徴を付加するステップでは、
前記特定の領域に投影される人物の数と、前記特定の領域に投影された人物の骨格モデルに対する前記視認容易度とに基づいて、前記特定の領域に投影される人物の骨格モデルに付加する視覚的特徴を決定し、決定した前記視覚的特徴を前記骨格モデルに付加する、
付記13から付記16のいずれか一つに記載の画像処理方法。
(付記18)
前記視認容易度を算出するステップでは、
前記2次元画面上において、前記骨格モデルの部位毎に、前記視認容易度を算出し、
前記視覚的特徴を付加するステップでは、
前記部位毎に算出された前記視認容易度に基づいて、前記部位毎に異なる視覚的特徴を付加する、
付記13から付記17のいずれか一つに記載の画像処理方法。
(付記19)
前記視覚的特徴が付加された前記骨格モデルが投影されている2次元画面を表示するステップ、
を備える、付記13から付記18のいずれか一つに記載の画像処理方法。
(付記20)
前記視認容易度を算出するステップでは、前記骨格モデルを前記2次元画面上に投影する際の投影方向が指定された場合に、前記骨格モデルを指定された投影方向に投影された場合について、前記視認容易度を算出し、
前記視覚的特徴を付加するステップでは、指定された投影方向における前記2次元画面上で、算出された前記視認容易度に応じて、前記骨格モデルに、前記視覚的特徴を付加し、
前記表示するステップでは、指定された投影方向において、前記視覚的特徴が付加された前記骨格モデルが投影されている、前記2次元画面を表示する、
付記19に記載の画像処理方法。
(付記21)
前記視覚的特徴を付加するステップでは、前記視覚的特徴として、前記骨格モデルに、部分毎に異なる色彩、または他の骨格モデルとは異なる色彩を付加する、
付記13から付記20のいずれか一つに記載の画像処理方法。
(付記22)
コンピュータに、
人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、ステップと、
前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、ステップと、
を実行させるプログラム。
(付記23)
前記骨格モデルは、前記人物の関節に相当する関節点を有し、
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影した場合における、
前記2次元画面内の鉛直方向での全ての前記関節点の分散値を求め、前記2次元画面内の水平方向での全ての前記関節点の分散値を求め、前記鉛直方向において求めた分散値と、前記水平方向において求めた分散値とに基づいて前記視認容易度を算出する、
付記22に記載のプログラム
(付記24)
前記骨格モデルは、前記人物の関節に相当する関節点と、前記関節点間を結ぶリンクとを有し、
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影した場合における、前記2次元画面上で前記リンク同士が交差している回数を算出し、算出した前記回数に基づいて前記視認容易度を算出する、
付記22に記載のプログラム
(付記25)
前記視認容易度を算出するステップでは、
前記骨格モデルを前記2次元画面上に投影して得られる情報と、前記情報に対応する視認容易度を示すラベルとを、訓練データとする機械学習によって構築された、前記骨格モデルと前記視認容易度との関係を示すモデルに、前記2次元画面上に投影した前記骨格モデルを適用することによって、前記視認容易度を算出する、
付記22に記載のプログラム
(付記26)
前記視認容易度を算出するステップでは、
前記2次元画面において特定の領域が指定された場合に、
前記特定の領域に投影された人物の骨格モデルに対して前記視認容易度を算出し、
前記視覚的特徴を付加するステップでは、
前記特定の領域に投影される人物の数と、前記特定の領域に投影された人物の骨格モデルに対する前記視認容易度とに基づいて、前記特定の領域に投影される人物の骨格モデルに付加する視覚的特徴を決定し、決定した前記視覚的特徴を前記骨格モデルに付加する、
付記22から付記25のいずれか一つに記載のプログラム
(付記27)
前記視認容易度を算出するステップでは、
前記2次元画面上において、前記骨格モデルの部位毎に、前記視認容易度を算出する、
前記視覚的特徴を付加するステップでは、
前記部位毎に算出された前記視認容易度に基づいて、前記部位毎に異なる視覚的特徴を付加する、
付記22から付記26のいずれか一つに記載のプログラム
(付記28)
前記プログラムは、
前記コンピュータに、
前記視覚的特徴が付加された前記骨格モデルが投影されている2次元画面を表示するステップ、
を実行させる命令を含む、付記22から付記27のいずれか一つに記載のプログラム
(付記29)
前記視認容易度を算出するステップでは、前記骨格モデルを前記2次元画面上に投影する際の投影方向が指定された場合に、前記骨格モデルを指定された投影方向に投影された場合について、前記視認容易度を算出し、
前記視覚的特徴を付加するステップでは、指定された投影方向における前記2次元画面上で、算出された前記視認容易度に応じて、前記骨格モデルに、前記視覚的特徴を付加し、
前記表示するステップでは、指定された投影方向において、前記視覚的特徴が付加された前記骨格モデルが投影されている、前記2次元画面を表示する、
付記28に記載のプログラム
(付記30)
前記視覚的特徴を付加するステップでは、前記視覚的特徴として、前記骨格モデルに、部分毎に異なる色彩、または他の骨格モデルとは異なる色彩を付加する、
付記22から付記29のいずれか一つに記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明によれば、2次元画面内の人物の姿勢を表現する骨格モデルを、観察者に直観的に認知させることができる。本発明は、3次元の骨格モデルを2次元画面上に投影して、その2次元画面を観察する際に有用である。
1 画像処理装置
2 視認容易度算出部
3 視覚的特徴付加部
4 表示部
10 3次元可視化装置
11 3次元スケルトン情報生成部
12 投影方向設定部
13 操作受付部
20 表示装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (10)

  1. 人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出する、視認容易度算出と、
    前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、視覚的特徴付加と、
    を備える、画像処理装置。
  2. 前記骨格モデルは、前記人物の関節に相当する関節点を有し、
    前記視認容易度算出は、
    前記骨格モデルを前記2次元画面上に投影した場合における、
    前記2次元画面内の鉛直方向での全ての前記関節点の分散値を求め、前記2次元画面内の水平方向での全ての前記関節点の分散値を求め、前記鉛直方向において求めた分散値と、前記水平方向において求めた分散値とに基づいて前記視認容易度を算出する、
    請求項1に記載の画像処理装置。
  3. 前記骨格モデルは、前記人物の関節に相当する関節点と、前記関節点間を結ぶリンクとを有し、
    前記視認容易度算出は、
    前記骨格モデルを前記2次元画面上に投影した場合における、前記2次元画面上で前記リンク同士が交差している回数を算出し、算出した前記回数に基づいて前記視認容易度を算出する、
    請求項1に記載の画像処理装置。
  4. 前記視認容易度算出は、
    前記骨格モデルを前記2次元画面上に投影して得られる情報と、前記情報に対応する視認容易度を示すラベルとを、訓練データとする機械学習によって構築された、前記骨格モデルと前記視認容易度との関係を示すモデルに、前記2次元画面上に投影した前記骨格モデルを適用することによって、前記視認容易度を算出する、
    請求項1に記載の画像処理装置。
  5. 前記視認容易度算出は、
    前記2次元画面において特定の領域が指定された場合に、
    前記特定の領域に投影された人物の骨格モデルに対して前記視認容易度を算出し、
    前記視覚的特徴付加は、
    前記特定の領域に投影される人物の数と、前記特定の領域に投影された人物の骨格モデルに対する前記視認容易度とに基づいて、前記特定の領域に投影される人物の骨格モデルに付加する視覚的特徴を決定し、決定した前記視覚的特徴を前記骨格モデルに付加する、
    請求項1から請求項4のいずれか一つに記載の画像処理装置。
  6. 前記視認容易度算出は、
    前記2次元画面上において、前記骨格モデルの部位毎に、前記視認容易度を算出し、
    前記視覚的特徴付加は、
    前記部位毎に算出された前記視認容易度に基づいて、前記部位毎に異なる視覚的特徴を付加する、
    請求項1に記載の画像処理装置。
  7. 前記視覚的特徴が付加された前記骨格モデルが投影されている2次元画面を表示する表示
    を備える、請求項1に記載の画像処理装置。
  8. 前記視認容易度算出は、前記骨格モデルを前記2次元画面上に投影する際の投影方向が指定された場合に、前記骨格モデルを指定された投影方向に投影された場合について、前記視認容易度を算出し、
    前記視覚的特徴付加は、指定された投影方向における前記2次元画面上で、算出された前記視認容易度に応じて、前記骨格モデルに、前記視覚的特徴を付加し、
    前記表示は、指定された投影方向において、前記視覚的特徴が付加された前記骨格モデルが投影されている、前記2次元画面を表示する、
    請求項7に記載の画像処理装置。
  9. 人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出し、
    前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加する、
    画像処理方法。
  10. コンピュータに、
    人物の関節の3次元座標を特定する3次元スケルトン情報を用いて仮想空間上に構築された前記人物の骨格モデルについて、前記骨格モデルを2次元画面上に投影した場合における前記2次元画面上での視認の容易性を示す、視認容易度を算出させ、
    前記視認容易度に応じて、前記骨格モデルに、視覚的特徴を付加させる、
    ログラム。
JP2022567993A 2020-12-10 2020-12-10 画像処理装置、画像処理方法、及びプログラム Active JP7473012B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/046157 WO2022123752A1 (ja) 2020-12-10 2020-12-10 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体

Publications (3)

Publication Number Publication Date
JPWO2022123752A1 JPWO2022123752A1 (ja) 2022-06-16
JPWO2022123752A5 JPWO2022123752A5 (ja) 2023-08-23
JP7473012B2 true JP7473012B2 (ja) 2024-04-23

Family

ID=81973477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022567993A Active JP7473012B2 (ja) 2020-12-10 2020-12-10 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240029379A1 (ja)
JP (1) JP7473012B2 (ja)
WO (1) WO2022123752A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222504A (ja) 2004-01-07 2005-08-18 Oki Electric Ind Co Ltd 情報表示装置
WO2014080733A1 (ja) 2012-11-21 2014-05-30 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052202A (ja) * 1999-08-09 2001-02-23 Osaka Gas Co Ltd 人体動作可視化装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222504A (ja) 2004-01-07 2005-08-18 Oki Electric Ind Co Ltd 情報表示装置
WO2014080733A1 (ja) 2012-11-21 2014-05-30 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法

Also Published As

Publication number Publication date
JPWO2022123752A1 (ja) 2022-06-16
US20240029379A1 (en) 2024-01-25
WO2022123752A1 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
JP4829141B2 (ja) 視線検出装置及びその方法
CN107484428B (zh) 用于显示对象的方法
JP2021514512A (ja) 動作の識別および動作情報を用いた規範的な分析の生成
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
JP7042561B2 (ja) 情報処理装置、情報処理方法
JP2017191576A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7378232B2 (ja) 画像処理装置およびその制御方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
WO2021175208A1 (zh) 人体模型的建模方法、建模装置、电子设备及存储介质
JPWO2019012632A1 (ja) 認識処理装置、認識処理方法及びプログラム
JP7490072B2 (ja) マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム
CN113129362B (zh) 一种三维坐标数据的获取方法及装置
CN111681302A (zh) 一种3d虚拟形象的生成方法、装置、电子设备及存储介质
JP7473012B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
JP7029253B2 (ja) 情報処理装置及びその方法
CN112292656A (zh) 影像显示系统、影像显示方法及计算机程序
JP3642923B2 (ja) 映像生成処理装置及びその装置で用いられる構造化データを作成する構造化データ作成装置
JP2022064506A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2024009888A1 (ja) 情報処理装置及びその制御方法及びプログラム
JPWO2020111139A1 (ja) 座標算出装置、座標算出方法、及びプログラム
JP2020187626A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7261342B1 (ja) 情報処理装置、方法、プログラム、およびシステム
JP7501543B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6873326B2 (ja) 眼3次元座標取得装置及びジェスチャ操作装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7473012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150