JP2022054247A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2022054247A JP2022054247A JP2020161325A JP2020161325A JP2022054247A JP 2022054247 A JP2022054247 A JP 2022054247A JP 2020161325 A JP2020161325 A JP 2020161325A JP 2020161325 A JP2020161325 A JP 2020161325A JP 2022054247 A JP2022054247 A JP 2022054247A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- information processing
- image
- attention
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像における被写体の選択技術に関するものである。 The present invention relates to a technique for selecting a subject in an image.
時系列的に供給される画像から特定の被写体像を抽出して被写体を追跡する技術では、動画像における人間の顔領域や人体領域の特定などを行っている。被写体追跡技術は、例えば、通信会議、マン・マシン・インターフェイス、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用可能である。 In the technique of extracting a specific subject image from the images supplied in time series and tracking the subject, the human face region and the human body region in the moving image are specified. Subject tracking techniques can be used in many areas, such as communication conferencing, man-machine interfaces, security, monitor systems for tracking arbitrary subjects, and image compression.
デジタルスチルカメラやデジタルビデオカメラでは、タッチパネルなどを用いた操作により指定される画像内の被写体像を抽出して追跡し、被写体に対する焦点状態や露出状態を最適化する技術が提案されている。 For digital still cameras and digital video cameras, a technique has been proposed in which a subject image in an image specified by an operation using a touch panel or the like is extracted and tracked to optimize the focus state and exposure state for the subject.
特許文献1には、画像内の被写体の動きベクトルを算出し、移動量が所定値以上の被写体のうち、コントラストが最も高い被写体を追尾対象として選択する撮像装置が開示されている。 Patent Document 1 discloses an image pickup device that calculates a motion vector of a subject in an image and selects a subject having the highest contrast among subjects having a movement amount of a predetermined value or more as a tracking target.
特許文献1に開示されている被写体選択方法では、被写体の移動量とコントラストに基づいて被写体を選択しているが、被写体が複数あり、撮影者が選択したい被写体の移動量が小さい場合やコントラストが最大でない場合は、被写体の選択精度が低下する。本発明は、撮像画像における被写体のうちユーザが所望する被写体の選択可能にするための技術を提供する。 In the subject selection method disclosed in Patent Document 1, the subject is selected based on the movement amount and contrast of the subject, but when there are a plurality of subjects and the movement amount of the subject desired to be selected by the photographer is small or the contrast is high. If it is not the maximum, the selection accuracy of the subject is reduced. The present invention provides a technique for enabling a user to select a desired subject among subjects in a captured image.
本発明の一様態は、撮像部により撮像された撮像画像を取得する取得手段と、前記取得手段に取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する選択手段とを備えることを特徴とする。 The uniform state of the present invention relates to the acquisition means for acquiring the captured image captured by the imaging unit, the movement of the subject in the captured image acquired by the acquisition unit, and the visual field of the imaging unit or the captured image. It is characterized by comprising information related to a browsing operation and selection means for selecting one or more subjects as a selection subject based on the information.
本発明により、撮像画像における被写体のうちユーザが所望する被写体の選択可能にするための技術を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a technique for enabling a user to select a desired subject among subjects in a captured image.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.
[第1の実施形態]
まず、本実施形態に係るシステムの構成例について、図1(b)のブロック図を用いて説明する。図1(b)に示す如く、本実施形態に係るシステムは、撮像部150と、情報処理装置100と、を有し、撮像部150と情報処理装置100との間は、無線および/または無線のネットワークを介して互いにデータ通信が可能なように構成されている。ここで、撮像部150は、ネットワークカメラであるとする。
[First Embodiment]
First, a configuration example of the system according to the present embodiment will be described with reference to the block diagram of FIG. 1 (b). As shown in FIG. 1 (b), the system according to the present embodiment has an
まず、撮像部150について説明する。撮像部150は、動画像を撮像し、該動画像における各フレームの画像を撮像画像として出力する。なお、撮像部150は、定期的もしくは不定期的に静止画像を撮像し、該静止画像を撮像画像として出力する装置であっても良い。いずれにせよ、撮像部150からは撮像画像のシーケンスが出力される。撮像部150は、情報処理装置100からの制御に基づいて、パン方向または/およびチルト方向に撮像方向を変化することができる。このように、撮像部150は、視野を変化させることができる撮像装置である。なお、図1(b)では、撮像部150は情報処理装置100とは別個の装置としているが、撮像部150と情報処理装置100とを一体化させて1台の撮像機能付き情報処理装置を構成しても良い。
First, the
次に、情報処理装置100について説明する。画像取得部121は、撮像部150から出力された撮像画像を取得する。情報取得部122は、撮像時における撮像部150の視野に関する情報を視野制御情報として取得する。検出部123は、画像取得部121が取得した撮像画像から被写体(本実施形態では人とする)を検出する。動き算出部124は、検出部123が検出したそれぞれの被写体の撮像画像における動きを求める。注目度算出部125は、情報取得部122が取得した視野制御情報と、動き算出部124が算出した「それぞれの被写体の撮像画像における動き」と、に基づいて、該被写体に対する注目度を算出する。学習部127は、注目度算出部125の動作パラメータを更新(学習)する。選択部126は、検出部123が検出したそれぞれの被写体について注目度算出部125が算出した注目度に基づいて、該それぞれの被写体から1以上の被写体を選択する。
Next, the
次に、画像取得部121が取得する撮像画像のシーケンスの一例について、図2(c)を用いて説明する。撮像画像250は、撮像部150が時刻t1において撮像した撮像画像であり、該撮像画像250には歩行中の被写体251および被写体252が含まれている。(x11,y11)は撮像画像250における被写体251の重心位置(画像座標)であり、(x21,y21)は撮像画像250における被写体252の重心位置(画像座標)を示す。
Next, an example of the sequence of the captured images acquired by the
撮像画像260は、撮像部150が、撮像画像250の撮像後、撮像方向を変えて(撮像部150を回転させて)時刻t2(時刻t1よりも後の時刻)において撮像した撮像画像である。撮像画像260には歩行中の被写体251および被写体252が含まれている。(x12,y12)は撮像画像260における被写体251の重心位置(画像座標)であり、(x22,y22)は撮像画像260における被写体252の重心位置(画像座標)を示す。次に、情報処理装置100の動作について、図2(a)のフローチャートに従って説明する。
The captured
<ステップS201>
画像取得部121が撮像部150から出力された撮像画像を取得する。なお、画像取得部121は撮像画像を撮像部150から取得することに限らない。例えば、画像取得部121は、撮像部150により撮像された撮像画像群を保持している記憶装置から撮像画像を取得するようにしても良い。
<Step S201>
The
<ステップS202>
情報取得部122は、「ステップS201で取得した撮像画像の撮像時における撮像部150の視野制御情報」として「ステップS201で取得した撮像画像の撮像時における撮像部150の回転量」を取得する。撮像部150の回転量は、撮像部150が有するジャイロセンサが測定した該撮像部150の角速度から算出することができる。時刻tにおける撮像部150の角速度をw(t)とすると、時刻t1から時刻t2までの間の撮像部150の回転量Δθは以下の式を計算することで算出することができる。
<Step S202>
The
よって、情報取得部122は、撮像部150のジャイロセンサから出力される「各時刻における撮像部150の角速度」を用いて上記の式を計算することで、「ステップS201で取得した撮像画像の撮像時における撮像部150の回転量」を求める。
Therefore, the
なお、撮像部150の視野制御情報は、該撮像部150の回転量に限らない。例えば、撮像部150の加速度センサによる測定結果、撮像部150の測距センサによる測定結果、撮像部150の絞りの情報、撮像部150が載置されている雲台のパン、チルト、であっても良い。また、撮像部150がネットワークカメラ(情報処理装置100からネットワークを介して遠隔操作可能なカメラ)である場合、撮像部150の視野制御情報は、撮像部150のパン、チルト、ズームの制御情報であっても良い。
The visual field control information of the
また、情報取得部122は、「ステップS201で取得した撮像画像に添付されている視野制御情報」を、「ステップS201で取得した撮像画像の撮像時における撮像部150の視野制御情報」として取得するようにしても良い。このように、情報取得部122による視野制御情報の取得方法は特定の取得方法に限らないし、また、視野制御情報として利用可能な情報は上記の情報に限らない。
Further, the
<ステップS203>
検出部123は、ステップS201で取得した撮像画像から被写体を検出する。撮像画像から被写体を検出する方法としては、例えば、上記の非特許文献1に記載の方法がある。非特許文献1に記載の方法では、画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、該抽出した特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別する。なお、撮像画像から被写体を検出するための方法は、非特許文献1に開示されている方法に限らない。例えば、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar-like特徴、LBPH特徴(Local Binary Pattern Histogram)等を用いても良いし、それらを組み合せても良い。また、人を識別するモデルはサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いても良い。
<Step S203>
The
そして検出部123は、撮像画像から検出した被写体ごとに、該被写体の画像領域(被写体領域)の位置情報と、該被写体領域に対する尤度と、を求める。「被写体領域の位置情報」は、該被写体領域が矩形領域の場合には、該被写体領域の四隅の画像座標であっても良いし、対向する2つの頂点のそれぞれの画像座標であっても良い。また、「被写体領域の位置情報」は、被写体領域の形状にかかわらず、該被写体領域の重心位置(画像座標)であっても良い。「被写体領域に対する尤度」は、該被写体領域から抽出された特徴量と、被写体を識別するためのモデルと、の一致度(人としての確度)を表す。そして検出部123は、所定値以上の尤度を求めた被写体領域に対応する被写体を候補被写体とする。
Then, the
<ステップS204>
動き算出部124は、それぞれの候補被写体について、該候補被写体の撮像画像における動きを算出する。「候補被写体の撮像画像における動き」は、例えば、撮像画像間における候補被写体の重心位置のずれとして求める。図2(c)を例にとると、撮像画像260と撮像画像250との間における被写体251の動きは、以下の式を用いて求めることができる。
<Step S204>
The
V(x、y)=((x12-x11)/(t2-t1),(y12-y11)/(t2-t1))
V(x、y)は、「撮像画像260と撮像画像250との間における被写体251の動き」を表すベクトル(動きベクトル)を表している。なお、撮像画像における被写体の動きを求める方法は特定の方法に限らず、例えば、上記の非特許文献2に開示されているオプティカルフロー等の各画素における速度ベクトルを求めるようにしても良い。
V (x, y) = ((x12-x11) / (t2-t1), (y12-y11) / (t2-t1))
V (x, y) represents a vector (motion vector) representing "movement of the subject 251 between the captured
<ステップS205>
注目度算出部125は、ステップS202で取得した視野制御情報と、ステップS204で候補被写体ごとに算出した動きと、に基づいて、該候補被写体に対する注目度を算出する。
<Step S205>
The attention
例えば、注目度算出部125は、予め機械学習により学習された学習済みモデルを用いる。学習済みモデルは、例えば、NN(Neural Network)モデルで構成可能である。例えば、NNモデルとして、候補被写体の動きと、撮像部150の視野制御情報と、を入力すると、該候補被写体の注目度を出力するように学習された学習済みモデルを予め作成しておく。そして、注目度算出部125は、ステップS202で取得した視野制御情報と、ステップS204で候補被写体ごとに算出した動きと、を該学習済みモデルに入力し、該学習済みモデルの出力を「該候補被写体に対する注目度」として算出する。
For example, the attention
ここで、学習済みモデルとして用いるNNモデルの具体例を、図3(a)を用いて説明する。図3(a)のNNモデルは、入力層302、中間層303、出力層304の3つの全結合層を有し、各層は、互いに異なる複数のニューロン305を有している。入力層302の各ニューロンには、撮像部150の回転量と候補被写体の動きとが入力され、入力層302に入力されたこれらの情報は中間層303、出力層304に伝達され、出力層304からは該候補被写体に対する注目度(推定注目度306)が出力される。なお、図3(a)では全結合層は1層だけであるが、複数あっても良い。また、NNモデルは、中間層が無く入力層と出力層のみで構成されていても良い。
Here, a specific example of the NN model used as the trained model will be described with reference to FIG. 3A. The NN model of FIG. 3A has three fully connected layers, an
なお、学習済みモデルとして、様々な入力に対して注目度の算出が可能な汎用的な学習済みモデルを使用しても良く、入力に応じて学習済みモデルを使い分けても良い。例えば、撮像画像中の候補被写体の数に応じて学習済みモデルを使い分ける方法がある。なお、学習済みモデルはNNモデルに限らず、SVR(Support Vector Regression)等の他の機械学習モデルで構成しても良いし、候補被写体と撮像部150の位置の夫々の時間変化の相関を注目度として算出することも可能である。あるいは、再帰型のNNモデルとして、RNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いても良い。
As the trained model, a general-purpose trained model capable of calculating the degree of attention for various inputs may be used, or the trained model may be used properly according to the inputs. For example, there is a method of properly using the trained model according to the number of candidate subjects in the captured image. The trained model is not limited to the NN model, but may be composed of other machine learning models such as SVR (Support Vector Regression), and attention should be paid to the correlation between the time change of the candidate subject and the position of the
<ステップS206>
選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の候補被写体を選択被写体として選択する。例えば、選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度のうち最も値が大きい注目度に対応する候補被写体を選択被写体として選択する。また例えば、選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度のうち閾値以上の注目度に対応する候補被写体を選択被写体として選択する。また例えば、選択部126は、ステップS205で算出した注目度が何れも閾値を超えない場合は、何れの候補被写体も選択被写体として選択しない、としても良い。また例えば、選択部126は、複数フレームに渡って、候補被写体ごとに注目度の平均値を求め、最も値が大きい平均値に対応する候補被写体を選択被写体として選択するようにしても良い。
<Step S206>
The
なお、選択部126は選択被写体の選択後、該選択被写体に関する情報を出力するが、出力する情報や該情報の出力先については様々な形態が考えられ、特定の形態に限らない。
After selecting the selected subject, the
次に、注目度算出部125の動作パラメータを更新(学習)するために情報処理装置100が行う処理について、図2(b)のフローチャートに従って説明する。図2(b)において、図2(a)に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
Next, the process performed by the
情報処理装置100は、撮像画像から選択被写体を選択する場合には、図2(a)のフローチャートに従った処理を行い、注目度算出部125の動作パラメータを更新(学習)する場合には、図2(b)のフローチャートに従った処理を行う。なお、情報処理装置100は、上記のステップS206の処理の後、図2(b)のステップS1211に処理を移行しても良い。
The
<ステップS1211>
学習部127は、ステップS205で算出した候補被写体の注目度と、該候補被写体について設定されている正解注目度と、の差分(誤差)を算出する。注目度と正解注目度との誤差の求め方は特定の求め方に限らず、注目度と正解注目度との差の二乗、注目度と正解注目度との差の絶対値、など、様々な求め方が適用可能である。ここで、候補被写体の正解注目度の設定について説明する。例えば、学習部127は、上記のステップS201で取得した撮像画像を表示画面に表示させる。
<Step S1211>
The
表示画面における撮像画像の表示例を図3(c)に示す。図3(c)の撮像画像350には候補被写体351および候補被写体352が含まれている。図3(c)ではユーザは、候補被写体351を「所望の候補被写体」として選択するべく、マウスを操作してカーソル353を候補被写体351付近に移動させ、そこでドラッグ操作を行って枠354内に候補被写体351が収まるように枠354を制御している。そして図3(c)に示す如く、枠354内に候補被写体351が収まった状態でユーザがマウスを操作して決定指示を入力すると、学習部127は、候補被写体351の正解注目度を「1」に設定する(全ての候補被写体の正解注目度の初期値は「0」である)。なお、複数の候補被写体を所望の候補被写体として選択することで、該複数の候補被写体のそれぞれの正解注目度を「1」に設定することができる。
FIG. 3C shows an example of displaying the captured image on the display screen. The captured
なお、被写体が選択されて所定時間以内に再選択操作を受け付けた場合は、初めに選択された被写体の正解注目度を「0」としても良い。また、画像取得部121が取得する撮像画像のシーケンスにおいて最初の撮像画像に対して所望の候補被写体の選択操作を行った場合、以降のそれぞれの撮像画像から検出された候補被写体と該所望の候補被写体とのテンプレートマッチングを行う。そして、該所望の候補被写体との一致度が閾値以上の候補被写体の正解注目度を「1」に設定する。なお、該所望の候補被写体との一致度が閾値以上の候補被写体がない撮像画像は学習に用いなくても良い。
If the subject is selected and the reselection operation is accepted within a predetermined time, the correct answer attention level of the initially selected subject may be set to "0". Further, when a desired candidate subject is selected for the first captured image in the sequence of captured images acquired by the
<ステップS1212>
学習部127は、ステップS1211で算出した誤差に基づいて注目度算出部125の動作パラメータを更新(学習)する。本実施形態では、学習部127は、ステップS1211で算出した誤差に基づいて、注目度算出部125が使用する学習済みモデルの動作パラメータを更新(学習)する。
<Step S1212>
The
例えば、注目度算出部125が図3(a)に示す構成を有する学習済みモデルを用いる場合、学習部127は、候補被写体について出力層304から出力された推定注目度306と、該候補被写体の正解注目度316と、の誤差を求める。そして学習部127は、該求めた誤差を全結合層(出力層304、中間層303、入力層302)に順番に逆伝搬させていき、ニューロン間の重みを更新する。
For example, when the attention
なお、撮像画像のレーティングの評価値に基づいてパラメータの更新量に重み付けしても良い。例えば、撮像画像のレーティングの評価値が高いほどパラメータの更新量を大きくする方法がある。 The parameter update amount may be weighted based on the evaluation value of the rating of the captured image. For example, there is a method of increasing the amount of parameter update as the evaluation value of the rating of the captured image is higher.
<変形例1>
第1の実施形態では、情報取得部122、検出部123、動き算出部124、注目度算出部125のそれぞれは独立した機能部としていたが、これらの機能部を1つの機能部に統合しても良い。例えば、これらの機能部の動作をCNN(Convolutional Neural Network)を用いて一括で実施するようにしても良い。
<Modification 1>
In the first embodiment, the
情報取得部122、検出部123、動き算出部124、注目度算出部125の機能をCNNを用いて実施する構成について、図3(b)を用いて説明する。図3(b)に示す構成を用いて、情報取得部122、検出部123、動き算出部124、注目度算出部125の機能を一括で実施する。
A configuration in which the functions of the
図3(b)に示す構成のNNモデルは、3種類のCNN(CNN321、322、323)を有する。CNN321は、画像取得部121が取得した撮像画像331から候補被写体の位置と大きさを示す特徴量332を推定するモデルである。CNN322は上記の非特許文献3に開示されているような複数の画像からオプティカルフローを算出するモデルである。さらにCNN322は、オプティカルフローから候補被写体の動きと背景の動きを算出し、背景の動きに基づいて視野制御情報を特徴量333として算出する。連結器324は、特徴量332と特徴量333とを連結した特徴量334を算出する。CNN323は、特徴量334から撮像画像331における各領域の注目度のマップ(注目度マップ335)を算出するモデルである。そして本変形例では、選択部126は、注目度マップ335におけるそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の選択被写体を選択する。このようにすることで、学習可能なモデルで被写体を検出することができる。
The NN model having the configuration shown in FIG. 3B has three types of CNNs (CNN321, 322, 323). The
<変形例2>
着目フレームの撮像画像において選択被写体を選択し、該着目フレーム以降、該選択被写体を追尾するような場合、該着目フレーム以降のあるフレームの撮像画像において該選択被写体の注目度が閾値未満になれば、該選択被写体以外の他候補被写体の注目度に基づき、該他候補被写体から改めて選択被写体を選択するようにしても良い。このようにすることで、一度選択した被写体を追尾する場合に、途中で他の被写体に誤って追尾が移った場合に、正しい被写体を再選択することができる。
<Modification 2>
When a selected subject is selected in the captured image of the frame of interest and the selected subject is tracked after the frame of interest, if the degree of attention of the selected subject is less than the threshold value in the captured image of a frame after the frame of interest. , The selected subject may be selected again from the other candidate subjects based on the degree of attention of the other candidate subjects other than the selected subject. By doing so, when tracking a once selected subject, if the tracking is mistakenly transferred to another subject in the middle, the correct subject can be reselected.
<変形例3>
第1の実施形態では、選択部126は、それぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の選択被写体を選択していたが、選択被写体の選択はユーザ操作に応じて行っても良い。本変形例では、情報処理装置100が撮像部150を含む撮像装置であるケースを例にとり説明する。
<Modification 3>
In the first embodiment, the
本実施形態に係る撮像装置の外観例を図4(a)に示す。本実施形態に係る撮像装置450は、各種の表示を行う表示部451と、ユーザが各種の操作入力を行うために操作するスイッチ452およびダイアル453と、を有する。
FIG. 4A shows an example of the appearance of the image pickup apparatus according to the present embodiment. The
表示部451における表示例を図4(b)に示す。以下では、表示部451における表示制御は選択部126が行うものとする。図4(b)に示す如く、表示部451には、候補被写体401および候補被写体402を含む撮像画像400が表示されている。また、撮像装置450は、図4(b)の右側に示す如く、候補被写体401について求めた注目度「0.6」および候補被写体402について求めた注目度「0.4」が登録されたテーブル420を保持している。
A display example on the
選択部126は、候補被写体401を包含する枠411および候補被写体402を包含する枠412を表示しているが、枠411および枠412のそれぞれは、候補被写体401の注目度および候補被写体402の注目度に応じた表示形態となっている。図4(b)では、候補被写体402よりも注目度が高い候補被写体401の枠411は実線の枠として表示されており、候補被写体401よりも注目度が低い候補被写体402の枠412は点線の枠として表示されている。なお、注目度に応じた枠の表示形態には様々な表示形態があり、特定の表示形態に限らない。例えば、注目度に応じて枠の色、線の太さ等を制御しても良い。また、枠ではなく、半透明色の矩形を候補被写体に重ねて表示しても良く、その場合、注目度に応じて矩形の表示形態を制御する。このように、枠以外に、「候補被写体をユーザに通知するための情報」であれば、いかなる情報を表示しても良い。
The
ユーザがスイッチ452を押下すると、選択部126は、実線の枠である枠411で囲まれている候補被写体401(選択対象)を選択被写体として選択する。ユーザがダイアル453を一方側に回すと、枠411は点線の枠として表示され、「現在実線の枠で囲まれている候補被写体の次に注目度が高い候補被写体」である候補被写体402の枠412が実線で表示される。つまりユーザはダイアル453を操作することで、選択対象を注目度に応じた順序(注目度が高い順でも良いし、低い順でも良い)で切り替えることができる。このような選択被写体の選択により、注目度が高い候補被写体が複数ある場合に、ユーザの所望の候補被写体を選択被写体として選択することができる。
When the user presses the
<第1の実施形態の効果>
第1の実施形態によれば、撮像画像中に候補被写体が複数あり、ユーザが選択したい被写体の移動量が小さい場合や、コントラストが最大でない場合においても、候補被写体の動きと撮像部の視野制御情報に基づいて所望の被写体を選択することができる。さらに、第1の実施形態によれば、多様な候補被写体の動きや撮像部の視野制御情報に対して被写体を選択することができる。
<Effect of the first embodiment>
According to the first embodiment, even when there are a plurality of candidate subjects in the captured image and the movement amount of the subject desired by the user is small or the contrast is not the maximum, the movement of the candidate subject and the field of view control of the image pickup unit are controlled. The desired subject can be selected based on the information. Further, according to the first embodiment, the subject can be selected for various movements of the candidate subject and the visual field control information of the imaging unit.
なお、ネットワークカメラとして例示した撮像部150において、視野により注目すべき被写体の位置は変わることが考えられる。例えば、商店の防犯カメラとして撮像部150を設定した場合を考える。この場合、撮像部150が出入り口を撮像方向としている場合と、商品棚の近くを撮像方向としている場合とで注目すべき被写体の位置は変わるため、撮像方向と注目すべき被写体の位置とは相関関係がある。このように、撮像方向である視野制御情報を入力とすることでより高精度に注目すべき被写体を選択するための出力を得ることが可能となる。
In the
[第2の実施形態]
本実施形態を含む以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、候補被写体の動きと視野制御情報とに基づいて選択被写体を選択した。このような第1の実施形態では、注目度が高い特定の被写体の近くにある被写体を選択する場合、該特定の被写体の近くにある被写体が変わるたびに、被写体の再選択が必要になる。
[Second Embodiment]
Each of the following embodiments including the present embodiment describes the difference from the first embodiment, and is the same as the first embodiment unless otherwise specified below. In the first embodiment, the selected subject is selected based on the movement of the candidate subject and the visual field control information. In such a first embodiment, when a subject near a specific subject having a high degree of attention is selected, it is necessary to reselect the subject every time the subject near the specific subject changes.
本実施形態では、それぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から特定の候補被写体を注目点として特定し、それぞれの候補被写体について、注目点との相対的な位置の変化に基づいて追尾度を算出する。追尾度とは、候補被写体が注目点に接近している度合いである。 In the present embodiment, a specific candidate subject is specified as a point of interest from each candidate subject based on the degree of attention of each candidate subject, and the position of each candidate subject changes relative to the point of interest. The tracking degree is calculated based on this. The tracking degree is the degree to which the candidate subject is close to the point of interest.
本実施形態では、サッカーの試合を撮像した撮像画像のシーケンスが情報処理装置100に入力されるケースを例にとり説明する。この場合、情報処理装置100は、該撮像画像中のボールを注目点として選択し、該撮像画像中のそれぞれの候補被写体(注目点以外の候補被写体)について、ボールとの相対的な位置の変化に基づいて追尾度を算出し、該追尾度に基づいて選択被写体を選択する。これにより、特定の注目点の近くで注目点に近接している被写体を選択しやすくなる。
In the present embodiment, a case where a sequence of captured images of a soccer game is input to the
次に、撮像部150が撮像した撮像画像の一例について、図5(c)を用いて説明する。撮像部150により撮像された撮像画像550には、矢印の方向に移動している被写体551および被写体552と、矢印の方向に移動しているボール553と、が含まれている。(x1,y1)は撮像画像550における被写体551の重心位置(画像座標)を示し、(x2,y2)は撮像画像550における被写体552の重心位置(画像座標)を示している。また、(xb,yb)は撮像画像550におけるボール553の重心位置(画像座標)を示している。
Next, an example of the captured image captured by the
次に、本実施形態に係るシステムの機能構成例について、図5(a)のブロック図を用いて説明する。情報処理装置500は、上記の情報処理装置100に注目点算出部501および追尾度算出部502を加えた構成を有する。
Next, an example of the functional configuration of the system according to the present embodiment will be described with reference to the block diagram of FIG. 5A. The
注目点算出部501は、注目度算出部125が求めたそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から特定の候補被写体を注目点として選択する。追尾度算出部502は、注目点に対する候補被写体(注目点以外の候補被写体)の相対的な位置の変化に基づいて、該候補被写体に対して追尾度を算出する。
The attention
次に、情報処理装置500の動作について、図5(b)のフローチャートに従って説明する。図5(b)において、図2(a)の処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。図5(b)のフローチャートでは、ステップS205における処理の後、ステップS1501に進む。
Next, the operation of the
<ステップS1501>
注目点算出部501は、ステップS205で算出したそれぞれの候補被写体の注目度のうち最も値が大きい注目度を特定し、該特定した注目度の候補被写体を注目点として選択する。以下では具体的な説明を行うために、図5(c)の被写体551、被写体552、ボール553の3つの候補被写体のそれぞれの注目度のうち、ボール553の注目度が最も値が大きいとし、その結果、注目点としてボール553が選択されたものとする。
<Step S1501>
The attention
<ステップS1502>
選択部126は、注目点を選択被写体として選択するか否かを判断する。注目点を選択被写体として選択するか否かを判断する判断方法には様々な判断方法があり、特定の判断方法に限らない。本実施形態では、検出部123は、上記の非特許文献2に記載の物体検出(被写体の検出)と並行して物体の属性分類(該被写体の属性の分類)を行う。そして選択部126は、注目点の属性が「人物」であれば、該注目点を選択被写体として選択するものと判断し、処理はステップS206に進む。一方、選択部126は、注目点の属性が「人物」ではない場合には、該注目点は選択被写体として選択しないものと判断し、処理はステップS1503に進む。
<Step S1502>
The
なお、注目点を選択被写体として選択するか否かは、ユーザに判断させてもよい。例えば、注目点を選択被写体として選択するか否かを示す設定情報をユーザが情報処理装置500に事前に設定しておいても良い。また例えば、ステップS1502において、注目点を選択被写体として選択するか否かをユーザに問い合わせても良い。そして、ユーザから「注目点を選択被写体として選択する」旨の操作入力があれば、処理はステップS206に進み、ユーザから「注目点を選択被写体として選択しない」旨の操作入力があれば、処理はステップS1503に進む。
The user may decide whether or not to select the point of interest as the selected subject. For example, the user may set in advance setting information indicating whether or not to select the attention point as the selected subject in the
<ステップS1503>
追尾度算出部502は、被写体551および被写体552のそれぞれについて、ボール553との相対的な位置の変化に基づいて、追尾度を算出する。ボール553に対する被写体551の相対的な位置は(x1-xb,y1-yb)であり、ボール553に対する被写体552の相対的な位置は(x2-xb,y2-yb)である。
<Step S1503>
The tracking
よって、追尾度算出部502は、撮像画像間における(x1-xb,y1-yb)の差分を、「ボール553に対する被写体551の相対的な位置の変化」として求める。また、追尾度算出部502は、撮像画像間における(x2-xb,y2-yb)の差分を、「ボール553に対する被写体552の相対的な位置の変化」として求める。
Therefore, the tracking
そして追尾度算出部502は、一定期間内の「ボール553に対する被写体551の相対的な位置の変化」を求める。そして追尾度算出部502は、一定期間内の変化の平均(ボール553に対する被写体551の平均的な相対位置)と、ボール553の位置と、の間の距離の逆数を、被写体551に対する追尾度として求める。
Then, the tracking
同様に追尾度算出部502は、一定期間内の「ボール553に対する被写体552の相対的な位置の変化」を求める。そして追尾度算出部502は、一定期間内の変化の平均(ボール553に対する被写体552の平均的な相対位置)と、ボール553の位置と、の間の距離の逆数を、被写体552に対する追尾度として求める。
Similarly, the tracking
なお、追尾度算出部502は注目度算出部125と同様に、学習済みモデルを用いて候補被写体に対する追尾度を求めるようにしても良い。この場合、追尾度算出部502は、「注目点に対する候補被写体の相対的な位置の変化」を入力した学習済みモデルの出力を、該候補被写体に対する追尾度として求める。この学習済みモデルは、「注目点に対する候補被写体の相対的な位置の変化」が入力されると、該候補被写体に対する追尾度を出力するように学習されたNNモデルである。
Note that the tracking
そして、本実施形態では、ステップS1501からステップS206に処理が進んだ場合には、ステップS206では第1の実施形態と同様の処理が行われる。一方、ステップS1503からステップS206に処理が進んだ場合、ステップS206では、選択部126は、注目点以外のそれぞれの候補被写体の追尾度に基づいて、該それぞれの候補被写体から1以上の候補被写体を選択被写体として選択する。注目度の代わりに追尾度を用いること以外は、第1の実施形態におけるステップS206と同様である。
Then, in the present embodiment, when the process proceeds from step S1501 to step S206, the same process as in the first embodiment is performed in step S206. On the other hand, when the process proceeds from step S1503 to step S206, in step S206, the
<第2の実施形態の効果>
第2の実施形態によれば、特定の物体の注目度が高い場合に、該特定の物体の近くの物体を選択被写体として選択することができる。
<Effect of the second embodiment>
According to the second embodiment, when the degree of attention of a specific object is high, an object near the specific object can be selected as a selection subject.
[第3の実施形態]
第1の実施形態では、撮像時の撮像部150の視野制御情報に基づいて候補被写体の注目度を算出し、注目度に基づいて選択被写体を選択する方法について説明した。第1の実施形態では、選択被写体を選択する撮像画像を撮像した撮像部150の視野制御情報を取得しているので、該撮像画像から選択被写体を選択することができる。しかし、選択被写体を選択する撮像画像が過去に撮像されたものであり、該撮像画像の撮像時における撮像部150の視野制御情報が得られていない場合、第1の実施形態では、該撮像画像から選択被写体を選択することができない。本実施形態では、撮像部150の視野制御情報として、過去に撮像した撮像画像に対するユーザの閲覧操作に係る情報を用いる。
[Third Embodiment]
In the first embodiment, a method of calculating the degree of attention of a candidate subject based on the visual field control information of the
本実施形態に係るシステムの機能構成例について、図6(a)のブロック図を用いて説明する。図6(a)に示す如く、本実施形態に係るシステムは、情報処理装置600と、ユーザが情報処理装置600に対して各種の操作入力を行うために操作する操作部601と、過去に撮像された撮像画像群を保持する外部記憶装置602と、を有する。
An example of the functional configuration of the system according to the present embodiment will be described with reference to the block diagram of FIG. 6A. As shown in FIG. 6A, the system according to the present embodiment includes an
まず、操作部601について説明する。操作部601は、キーボード、マウス、タッチパネルなどのユーザインターフェースを有し、ユーザが操作することで各種の指示を情報処理装置600に対して入力することができる。また、操作部601は、撮像画像などを表示可能な表示画面を有する。
First, the
次に、外部記憶装置602について説明する。外部記憶装置602は、ハードディスクドライブ装置やUSBメモリなどのメモリ装置であり、該外部記憶装置602には、過去に撮像された撮像画像群が保存されている。
Next, the
次に、情報処理装置600について説明する。情報処理装置600は、上記の情報処理装置100と同様の構成を有しているが、情報取得部122が視野制御情報を操作部601から取得する点、画像取得部121が撮像画像を外部記憶装置602から取得する点、が第1の実施形態と異なる。ユーザは操作部601を操作して、外部記憶装置602に保存されている撮像画像に対して各種の閲覧操作を行っており、情報取得部122は、この閲覧操作に係る情報を視野制御情報として操作部601から取得する。撮像画像に対する閲覧操作に係る情報には、例えば、ユーザによる該撮像画像の拡大操作や、ユーザによる該撮像画像内の閲覧範囲の移動操作(上下左右方向のスクロール操作)などの操作に係る情報が含まれている。
Next, the
情報処理装置600は、情報取得部122が操作部601から視野制御情報を取得すること、画像取得部121が外部記憶装置602から撮像画像を取得すること、視野制御情報として撮像画像の閲覧操作に係る情報を用いること、を除けば、情報処理装置100と同様に動作する。
In the
図6(b)は、画像取得部121が外部記憶装置602から読み出した撮像画像の部分画像650(撮像画像内の閲覧範囲)の、操作部601の表示画面における表示例を示しており、該部分画像650には、被写体651,652,653が含まれている。ユーザは、撮像画像において閲覧したい範囲がウィンドウ内に収まるように、操作部601を操作してウィンドウ内で撮像画像をスクロールさせることができる。また、ユーザは、ウィンドウ内に表示されている部分画像650の部分領域655を拡大した拡大画像660(図6(c))をウィンドウ内に表示させるべく、操作部601を操作してカーソル654を用いてドラッグ操作を行うことで部分領域655を指定する。これによりウィンドウ内には図6(c)に示す如く、部分領域655内の画像を拡大した拡大画像660が表示される。このようなユーザ操作に応じた画像の表示制御は、操作部601によって行われる。そして情報取得部122は、このようなユーザ操作に係る情報を視野制御情報として操作部601から取得する。本実施形態では、ユーザが操作部601を操作して行ったスクロール操作が、撮像画像のどの部分領域をウィンドウ内に表示させるためのスクロール操作であったのか、を示すスクロール情報を視野制御情報として用いるものとする。
FIG. 6B shows an example of displaying a partial image 650 (viewing range in the captured image) of the captured image read from the
なお、候補被写体ごとに、撮像画像のシーケンスにおける注目度の平均(平均注目度)を求め、該求めた平均注目度に応じて選択被写体の選択を行うようにしても良い。その際、撮像画像の部分領域655内の画像を拡大した拡大画像660をウィンドウ内に表示させた場合には、拡大画像660の拡大率(部分領域655内の画像に対する拡大率)に応じて、該撮像画像内の候補被写体の重みを制御する。よって、平均注目度は、撮像画像ごとに注目度を重み付けした重み付け注目度の平均である。
The average attention level (average attention level) in the sequence of captured images may be obtained for each candidate subject, and the selected subject may be selected according to the obtained average attention level. At that time, when the
<変形例1>
第3の実施形態では、外部記憶装置602には、1台のみの撮像部150による撮像画像群が保存されているものとしたが、2台以上の撮像部150による撮像画像群が保存されていても良い。その場合、ユーザは任意の撮像部150による撮像画像を閲覧することができる。
<Modification 1>
In the third embodiment, it is assumed that the
現在、撮像部Aによる撮像画像の閲覧中にユーザが操作部601を操作して、撮像部Bの撮像画像を閲覧する指示を入力したとする。このとき情報取得部122は、撮像部Aの撮像範囲から撮像部Bの撮像範囲への移動量MAを求める。
It is assumed that the user operates the
検出部123は、撮像画像内におけるそれぞれの被写体を認識する。動き算出部124は、撮像部Aによる撮像画像における被写体Tの位置から撮像部Bによる撮像画像における被写体Tの位置への移動量MBを求める。
The
注目度算出部125は、移動量MAと移動量MBに対応する「被写体Tの注目度」を出力するよう学習された学習済みモデルに、該移動量MAと移動量MBとを入力して、該学習済みモデルの出力を「被写体Tの注目度」として求める。なお、移動量MAと移動量MBとから「被写体Tの注目度」を求める方法は特定の方法に限らず、他にも例えば、第1の実施形態と同様に、撮像範囲の移動量と被写体Tの移動量との相関を用いて該被写体Tの注目度を求める方法を採用しても良い。このようにすることで、複数の撮像部で撮像した複数の撮像画像の閲覧情報から、閲覧者が注目している被写体を選択することができる。
The attention
<第3の実施形態の効果>
第3の実施形態によれば、監視カメラの録画データなど、撮像部から取得できる視野制御情報が限定される場合であっても、閲覧者による画像の閲覧操作に基づいて注目度を算出し、注目度に基づいて被写体を選択することができる。
<Effect of the third embodiment>
According to the third embodiment, even when the visual field control information that can be acquired from the image pickup unit is limited, such as the recorded data of the surveillance camera, the attention level is calculated based on the image viewing operation by the viewer. The subject can be selected based on the degree of attention.
<他分野への適用例>
例えば、仮想視点画像において閲覧操作に基づいて注目する被写体の選択を行うような場合であっても、上記の実施形態や変形例を同様に適用することができる。仮想視点画像とは、複数の撮像装置を用いて異なる位置から同期撮像を行い、得られた多視点の画像を使用して生成された画像であり、このような技術により、3次元空間上の任意の視点からの画像を取得することができる。他にも、VRゴーグルなどのゴーグル型の映像再生装置において、ゴーグルの動き情報に加え、ユーザの視線情報に基づいて候補被写体の注目度を算出するような場合であっても、上記の実施形態や変形例を同様に適用することができる。このようにすることで、注目度が高い人物や物体に関するアノテーションを表示することや、追尾映像を再生することができる。
<Example of application to other fields>
For example, even in the case of selecting a subject of interest based on a browsing operation in a virtual viewpoint image, the above-described embodiment and modification can be applied in the same manner. A virtual viewpoint image is an image generated by performing synchronous imaging from different positions using a plurality of image pickup devices and using the obtained multi-viewpoint images. By such a technique, a virtual viewpoint image is displayed on a three-dimensional space. Images from any viewpoint can be acquired. In addition, in a goggle-type video reproduction device such as VR goggles, even when the attention level of the candidate subject is calculated based on the user's line-of-sight information in addition to the movement information of the goggles, the above embodiment And variants can be applied in the same way. By doing so, it is possible to display annotations related to a person or an object having a high degree of attention and to reproduce a tracking image.
[第4の実施形態]
図1(b)に示した情報処理装置100の機能部、図5(a)に示した情報処理装置500の機能部、図6(a)に示した情報処理装置600の機能部、はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、該ソフトウェアを実行可能なコンピュータ装置は、上記の情報処理装置100や情報処理装置500や情報処理装置600に適用可能である。
[Fourth Embodiment]
The functional unit of the
このようなコンピュータ装置のハードウェア構成例について、図1(a)のブロック図を用いて説明する。なお、図1(a)に示した構成は、情報処理装置100や情報処理装置500や情報処理装置600に適用可能なコンピュータ装置の構成の一例であり、適宜変更/変形が可能である。
An example of such a hardware configuration of a computer device will be described with reference to the block diagram of FIG. 1 (a). The configuration shown in FIG. 1A is an example of the configuration of a computer device applicable to the
CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU101は、コンピュータ装置全体の動作制御を行うと共に、上記の情報処理装置100や情報処理装置500や情報処理装置600が行うものとして説明した各種の処理を実行もしくは制御する。
The
ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の設定データが格納されている。また、ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の起動に係るコンピュータプログラムやデータが格納されている。また、ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の基本動作に係るコンピュータプログラムやデータが格納されている。
The
RAM103は、ROM102や外部記憶装置104からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。さらにRAM103は、I/F107を介して外部(撮像部150、操作部601、外部記憶装置602など)から受信したデータを格納するためのエリアを有する。さらにRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM103は、各種のエリアを適宜提供することができる。
The
外部記憶装置104は、ハードディスクドライブ装置、USBメモリ、フラッシュメモリなどの不揮発性メモリである。外部記憶装置104にはOS(オペレーティングシステム)、情報処理装置100や情報処理装置500や情報処理装置600が行うものとして説明した各種の処理をCPU101に実行もしくは制御させる為のコンピュータプログラムやデータが保存されている。外部記憶装置104に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。外部記憶装置104は、上記の外部記憶装置602としても利用可能である。
The
また、外部記憶装置104は、メディア(記録媒体)と、該メディアへのアクセスを実現するための外部記憶ドライブと、で実現することもできる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD-ROM、DVD、MO、等が知られている。また、外部記憶装置104は、ネットワークを介してコンピュータ装置と接続されているサーバ装置等のコンピュータ装置であっても良い。
Further, the
表示部105は、液晶画面、有機EL画面、タッチパネル画面等を有し、CPU101による処理結果を画像や文字などでもって表示する。なお、表示部105は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。また、表示部105は、ネットワークを介してコンピュータ装置と接続されている表示装置であっても良い。表示部105は、上記の説明に登場した、表示を行う機器(表示画面)として利用可能である。
The
操作部106は、キーボード、マウス、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。操作部106は、上記の操作部601としても利用可能である。
The
表示部105及び操作部106の構成はこれに限らず、他の構成としても良い。例えば、操作部106をペンタブレッドとしても良いし、表示部105と操作部106とを合わせてタブレットとしても良い。
The configuration of the
I/F107は、外部(撮像部150、操作部601、外部記憶装置602など)との間のデータ通信を行うための通信インターフェースであり、コンピュータ装置は、I/F107を介して外部との間のデータ通信を行うことができる。
The I /
CPU101、ROM102、RAM103、外部記憶装置104、表示部105、操作部106、I/F107はいずれも、システムバス108に接続されている。
The
また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、データ(情報)の取得元/出力先、画面の構成やその操作方法などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。 In addition, the numerical values, processing timing, processing order, data (information) acquisition source / output destination, screen configuration, and its operation method used in each of the above embodiments and modifications are for specific explanation. It is given as an example, and is not intended to be limited to such an example.
また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。 Further, a part or all of each of the above-described embodiments and modifications may be used in combination as appropriate. Further, a part or all of each of the above-described embodiments and modifications may be selectively used.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to publicize the scope of the invention.
100:情報処理装置 121:画像取得部 122:情報取得部 123:検出部 124:動き算出部 125:注目度算出部 126:選択部 127:学習部 150:撮像部 100: Information processing device 121: Image acquisition unit 122: Information acquisition unit 123: Detection unit 124: Motion calculation unit 125: Attention calculation unit 126: Selection unit 127: Learning unit 150: Imaging unit
Claims (14)
前記取得手段に取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する選択手段と
を備えることを特徴とする情報処理装置。 An acquisition means for acquiring an image captured by the image pickup unit, and
Selection to select one or more subjects as the selected subject based on the movement of the subject in the captured image acquired by the acquisition means and the information related to the field of view of the imaging unit or the viewing operation for the captured image. An information processing device characterized by being provided with means.
前記選択手段は、前記算出手段がそれぞれの被写体について求めた注目度に基づいて、前記撮像画像における被写体から1以上の被写体を選択被写体として選択することを特徴とする請求項1に記載の情報処理装置。 Further provided with a calculation means for obtaining the degree of attention to the subject in the captured image based on the movement and the information.
The information processing according to claim 1, wherein the selection means selects one or more subjects from the subjects in the captured image as the selection subject based on the degree of attention obtained by the calculation means for each subject. Device.
前記撮像部Aの撮像範囲から前記撮像部Bの撮像範囲への移動量と、前記撮像部Aによる撮像画像における被写体の位置から前記撮像部Bによる撮像画像における該被写体の位置への移動量と、に基づいて、選択被写体として1以上の被写体を選択する選択手段と
を備えることを特徴とする情報処理装置。 The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B are acquired. Acquisition method and
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B, and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B. An information processing apparatus comprising:, a selection means for selecting one or more subjects as a selection subject based on the above.
撮像部により撮像された撮像画像を取得し、
前記取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する
ことを特徴とする情報処理方法。 It is an information processing method performed by an information processing device.
Acquires the captured image captured by the imaging unit and obtains it.
It is characterized in that one or more subjects are selected as the selected subject based on the movement of the subject in the acquired image and the information related to the field of view of the image pickup unit or the browsing operation for the captured image. Information processing method to do.
撮像部Aの撮像範囲から撮像部Bの撮像範囲への移動量と、該撮像部Aによる撮像画像における被写体の位置から該撮像部Bによる撮像画像における該被写体の位置への移動量とを取得し、
前記撮像部Aの撮像範囲から前記撮像部Bの撮像範囲への移動量と、前記撮像部Aによる撮像画像における被写体の位置から前記撮像部Bによる撮像画像における該被写体の位置への移動量と、に基づいて、選択被写体として1以上の被写体を選択する
ことを特徴とする情報処理方法。 It is an information processing method performed by an information processing device.
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B are acquired. death,
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B, and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B. An information processing method characterized in that one or more subjects are selected as selected subjects based on.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020161325A JP2022054247A (en) | 2020-09-25 | 2020-09-25 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020161325A JP2022054247A (en) | 2020-09-25 | 2020-09-25 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022054247A true JP2022054247A (en) | 2022-04-06 |
Family
ID=80994416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020161325A Pending JP2022054247A (en) | 2020-09-25 | 2020-09-25 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022054247A (en) |
-
2020
- 2020-09-25 JP JP2020161325A patent/JP2022054247A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282851B2 (en) | Apparatus, method and program | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP6532217B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
KR101533686B1 (en) | Apparatus and method for tracking gaze, recording medium for performing the method | |
WO2018025831A1 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
CN111935393A (en) | Shooting method, shooting device, electronic equipment and storage medium | |
JP2016099941A (en) | System and program for estimating position of object | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
JP2011198349A (en) | Method and apparatus for processing information | |
JP5001930B2 (en) | Motion recognition apparatus and method | |
JP4764172B2 (en) | Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program | |
JP2018181273A (en) | Image processing apparatus, method thereof, and program | |
CN113362441B (en) | Three-dimensional reconstruction method, three-dimensional reconstruction device, computer equipment and storage medium | |
JP2013242728A (en) | Image monitoring device | |
US12047674B2 (en) | System for generating a three-dimensional scene of a physical environment | |
WO2023168957A1 (en) | Pose determination method and apparatus, electronic device, storage medium, and program | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
JP2002366958A (en) | Method and device for recognizing image | |
US11770551B2 (en) | Object pose estimation and tracking using machine learning | |
Song et al. | VTONShoes: Virtual try-on of shoes in augmented reality on a mobile device | |
CN113228117B (en) | Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon | |
US20230177705A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2022054247A (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |