JP2022054247A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2022054247A
JP2022054247A JP2020161325A JP2020161325A JP2022054247A JP 2022054247 A JP2022054247 A JP 2022054247A JP 2020161325 A JP2020161325 A JP 2020161325A JP 2020161325 A JP2020161325 A JP 2020161325A JP 2022054247 A JP2022054247 A JP 2022054247A
Authority
JP
Japan
Prior art keywords
subject
information processing
image
attention
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020161325A
Other languages
Japanese (ja)
Inventor
寛 高木
Hiroshi Takagi
裕輔 御手洗
Hirosuke Mitarai
俊太 舘
Shunta Tachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020161325A priority Critical patent/JP2022054247A/en
Publication of JP2022054247A publication Critical patent/JP2022054247A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technique for enabling a user to select the desired subject among subjects in a captured image.SOLUTION: An information processing device acquires an image captured by an imaging unit. The information processing device selects one or more subjects as a selected subject on the basis of the movement of the subject in the acquired captured image and information pertaining to the field of view of the imaging unit or information pertaining to a viewing operation on the captured image.SELECTED DRAWING: Figure 1

Description

本発明は、画像における被写体の選択技術に関するものである。 The present invention relates to a technique for selecting a subject in an image.

時系列的に供給される画像から特定の被写体像を抽出して被写体を追跡する技術では、動画像における人間の顔領域や人体領域の特定などを行っている。被写体追跡技術は、例えば、通信会議、マン・マシン・インターフェイス、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用可能である。 In the technique of extracting a specific subject image from the images supplied in time series and tracking the subject, the human face region and the human body region in the moving image are specified. Subject tracking techniques can be used in many areas, such as communication conferencing, man-machine interfaces, security, monitor systems for tracking arbitrary subjects, and image compression.

デジタルスチルカメラやデジタルビデオカメラでは、タッチパネルなどを用いた操作により指定される画像内の被写体像を抽出して追跡し、被写体に対する焦点状態や露出状態を最適化する技術が提案されている。 For digital still cameras and digital video cameras, a technique has been proposed in which a subject image in an image specified by an operation using a touch panel or the like is extracted and tracked to optimize the focus state and exposure state for the subject.

特許文献1には、画像内の被写体の動きベクトルを算出し、移動量が所定値以上の被写体のうち、コントラストが最も高い被写体を追尾対象として選択する撮像装置が開示されている。 Patent Document 1 discloses an image pickup device that calculates a motion vector of a subject in an image and selects a subject having the highest contrast among subjects having a movement amount of a predetermined value or more as a tracking target.

特許第5589527号Patent No. 5589527

Dalal and Triggs. Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2005Dalal and Triggs. Histograms of Oriented Gradients for Human Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2005 B.K.P.Horn and B.G.Schunck,“Determining Optical Flow,Artificial Intelligence”,vol.17,pp.185-203,1981.B. K. P. Horn and B. G. Schunk, "Determining Optical Flow, Artificial Intelligence", vol. 17, pp. 185-203, 1981. Philipp Fischer, et al. FlowNet: Learning Optical Flow with Convolutional Networks, 2015.Philippp Fisher, et al. FlowNet: Learning Optical Flow with Convolutional Network, 2015. Joseph Redmon, et al. You Only Look Once: Unified, Real-Time Object Detection, 2015Joseph Redmon, et al. You Only Look Access: Unified, Real-Time Object Detection, 2015

特許文献1に開示されている被写体選択方法では、被写体の移動量とコントラストに基づいて被写体を選択しているが、被写体が複数あり、撮影者が選択したい被写体の移動量が小さい場合やコントラストが最大でない場合は、被写体の選択精度が低下する。本発明は、撮像画像における被写体のうちユーザが所望する被写体の選択可能にするための技術を提供する。 In the subject selection method disclosed in Patent Document 1, the subject is selected based on the movement amount and contrast of the subject, but when there are a plurality of subjects and the movement amount of the subject desired to be selected by the photographer is small or the contrast is high. If it is not the maximum, the selection accuracy of the subject is reduced. The present invention provides a technique for enabling a user to select a desired subject among subjects in a captured image.

本発明の一様態は、撮像部により撮像された撮像画像を取得する取得手段と、前記取得手段に取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する選択手段とを備えることを特徴とする。 The uniform state of the present invention relates to the acquisition means for acquiring the captured image captured by the imaging unit, the movement of the subject in the captured image acquired by the acquisition unit, and the visual field of the imaging unit or the captured image. It is characterized by comprising information related to a browsing operation and selection means for selecting one or more subjects as a selection subject based on the information.

本発明により、撮像画像における被写体のうちユーザが所望する被写体の選択可能にするための技術を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a technique for enabling a user to select a desired subject among subjects in a captured image.

(a)はコンピュータ装置のハードウェア構成例を示すブロック図、(b)はシステムの構成例を示すブロック図。(A) is a block diagram showing a hardware configuration example of a computer device, and (b) is a block diagram showing a system configuration example. (a)は情報処理装置100の動作を示すフローチャート、(b)は注目度算出部125の動作パラメータを更新(学習)するための処理のフローチャート、(c)は撮像画像のシーケンスの一例を示す図。(A) is a flowchart showing the operation of the information processing apparatus 100, (b) is a flowchart of processing for updating (learning) the operation parameters of the attention calculation unit 125, and (c) is an example of a sequence of captured images. figure. (a)はNNモデルの具体例を示す図、(b)は情報取得部122、検出部123、動き算出部124、注目度算出部125の機能をCNNを用いて実施する構成を示す図、(c)は撮像画像の表示例を示す図。(A) is a diagram showing a specific example of the NN model, and (b) is a diagram showing a configuration in which the functions of the information acquisition unit 122, the detection unit 123, the motion calculation unit 124, and the attention level calculation unit 125 are performed using CNN. (C) is a diagram showing a display example of a captured image. (a)は撮像装置の外観例を示す図、(b)は表示部451における表示例を示す図。(A) is a diagram showing an example of the appearance of an image pickup apparatus, and (b) is a diagram showing an example of display on the display unit 451. (a)はシステムの機能構成例を示すブロック図、(b)は情報処理装置500の動作を示すフローチャート、(c)は撮像画像の一例を示す図。(A) is a block diagram showing an example of a functional configuration of a system, (b) is a flowchart showing the operation of the information processing apparatus 500, and (c) is a diagram showing an example of a captured image. (a)はシステムの機能構成例を示すブロック図、(b)は部分画像650の操作部601の表示画面における表示例を示す図、(c)は拡大画像660の表示例を示す図。(A) is a block diagram showing a functional configuration example of the system, (b) is a diagram showing a display example on the display screen of the operation unit 601 of the partial image 650, and (c) is a diagram showing a display example of the enlarged image 660.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

[第1の実施形態]
まず、本実施形態に係るシステムの構成例について、図1(b)のブロック図を用いて説明する。図1(b)に示す如く、本実施形態に係るシステムは、撮像部150と、情報処理装置100と、を有し、撮像部150と情報処理装置100との間は、無線および/または無線のネットワークを介して互いにデータ通信が可能なように構成されている。ここで、撮像部150は、ネットワークカメラであるとする。
[First Embodiment]
First, a configuration example of the system according to the present embodiment will be described with reference to the block diagram of FIG. 1 (b). As shown in FIG. 1 (b), the system according to the present embodiment has an image pickup unit 150 and an information processing device 100, and the image pickup unit 150 and the information processing device 100 are wirelessly and / or wirelessly connected to each other. It is configured to enable data communication with each other via the network of. Here, it is assumed that the image pickup unit 150 is a network camera.

まず、撮像部150について説明する。撮像部150は、動画像を撮像し、該動画像における各フレームの画像を撮像画像として出力する。なお、撮像部150は、定期的もしくは不定期的に静止画像を撮像し、該静止画像を撮像画像として出力する装置であっても良い。いずれにせよ、撮像部150からは撮像画像のシーケンスが出力される。撮像部150は、情報処理装置100からの制御に基づいて、パン方向または/およびチルト方向に撮像方向を変化することができる。このように、撮像部150は、視野を変化させることができる撮像装置である。なお、図1(b)では、撮像部150は情報処理装置100とは別個の装置としているが、撮像部150と情報処理装置100とを一体化させて1台の撮像機能付き情報処理装置を構成しても良い。 First, the image pickup unit 150 will be described. The image pickup unit 150 captures a moving image and outputs an image of each frame in the moving image as a captured image. The image pickup unit 150 may be a device that periodically or irregularly captures a still image and outputs the still image as an captured image. In any case, the image pickup unit 150 outputs a sequence of captured images. The image pickup unit 150 can change the image pickup direction in the pan direction and / or the tilt direction based on the control from the information processing apparatus 100. In this way, the image pickup unit 150 is an image pickup device capable of changing the field of view. In FIG. 1B, the image pickup unit 150 is a separate device from the information processing device 100, but the image pickup unit 150 and the information processing device 100 are integrated to form one information processing device with an image pickup function. It may be configured.

次に、情報処理装置100について説明する。画像取得部121は、撮像部150から出力された撮像画像を取得する。情報取得部122は、撮像時における撮像部150の視野に関する情報を視野制御情報として取得する。検出部123は、画像取得部121が取得した撮像画像から被写体(本実施形態では人とする)を検出する。動き算出部124は、検出部123が検出したそれぞれの被写体の撮像画像における動きを求める。注目度算出部125は、情報取得部122が取得した視野制御情報と、動き算出部124が算出した「それぞれの被写体の撮像画像における動き」と、に基づいて、該被写体に対する注目度を算出する。学習部127は、注目度算出部125の動作パラメータを更新(学習)する。選択部126は、検出部123が検出したそれぞれの被写体について注目度算出部125が算出した注目度に基づいて、該それぞれの被写体から1以上の被写体を選択する。 Next, the information processing apparatus 100 will be described. The image acquisition unit 121 acquires the captured image output from the image pickup unit 150. The information acquisition unit 122 acquires information regarding the visual field of the imaging unit 150 at the time of imaging as visual field control information. The detection unit 123 detects a subject (referred to as a person in this embodiment) from the captured image acquired by the image acquisition unit 121. The motion calculation unit 124 obtains motion in the captured image of each subject detected by the detection unit 123. The attention degree calculation unit 125 calculates the degree of attention to the subject based on the visual field control information acquired by the information acquisition unit 122 and the “movement in the captured image of each subject” calculated by the motion calculation unit 124. .. The learning unit 127 updates (learns) the operation parameters of the attention level calculation unit 125. The selection unit 126 selects one or more subjects from the respective subjects based on the attention level calculated by the attention level calculation unit 125 for each subject detected by the detection unit 123.

次に、画像取得部121が取得する撮像画像のシーケンスの一例について、図2(c)を用いて説明する。撮像画像250は、撮像部150が時刻t1において撮像した撮像画像であり、該撮像画像250には歩行中の被写体251および被写体252が含まれている。(x11,y11)は撮像画像250における被写体251の重心位置(画像座標)であり、(x21,y21)は撮像画像250における被写体252の重心位置(画像座標)を示す。 Next, an example of the sequence of the captured images acquired by the image acquisition unit 121 will be described with reference to FIG. 2 (c). The captured image 250 is an captured image captured by the imaging unit 150 at time t1, and the captured image 250 includes a walking subject 251 and a subject 252. (X11, y11) indicates the position of the center of gravity (image coordinates) of the subject 251 in the captured image 250, and (x21, y21) indicates the position of the center of gravity (image coordinates) of the subject 252 in the captured image 250.

撮像画像260は、撮像部150が、撮像画像250の撮像後、撮像方向を変えて(撮像部150を回転させて)時刻t2(時刻t1よりも後の時刻)において撮像した撮像画像である。撮像画像260には歩行中の被写体251および被写体252が含まれている。(x12,y12)は撮像画像260における被写体251の重心位置(画像座標)であり、(x22,y22)は撮像画像260における被写体252の重心位置(画像座標)を示す。次に、情報処理装置100の動作について、図2(a)のフローチャートに従って説明する。 The captured image 260 is an captured image captured by the imaging unit 150 at time t2 (time after time t1) by changing the imaging direction (rotating the imaging unit 150) after imaging the captured image 250. The captured image 260 includes a walking subject 251 and a subject 252. (X12, y12) is the position of the center of gravity (image coordinates) of the subject 251 in the captured image 260, and (x22, y22) indicates the position of the center of gravity (image coordinates) of the subject 252 in the captured image 260. Next, the operation of the information processing apparatus 100 will be described according to the flowchart of FIG. 2A.

<ステップS201>
画像取得部121が撮像部150から出力された撮像画像を取得する。なお、画像取得部121は撮像画像を撮像部150から取得することに限らない。例えば、画像取得部121は、撮像部150により撮像された撮像画像群を保持している記憶装置から撮像画像を取得するようにしても良い。
<Step S201>
The image acquisition unit 121 acquires the captured image output from the image pickup unit 150. The image acquisition unit 121 is not limited to acquiring the captured image from the image pickup unit 150. For example, the image acquisition unit 121 may acquire an captured image from a storage device that holds a group of captured images captured by the image pickup unit 150.

<ステップS202>
情報取得部122は、「ステップS201で取得した撮像画像の撮像時における撮像部150の視野制御情報」として「ステップS201で取得した撮像画像の撮像時における撮像部150の回転量」を取得する。撮像部150の回転量は、撮像部150が有するジャイロセンサが測定した該撮像部150の角速度から算出することができる。時刻tにおける撮像部150の角速度をw(t)とすると、時刻t1から時刻t2までの間の撮像部150の回転量Δθは以下の式を計算することで算出することができる。
<Step S202>
The information acquisition unit 122 acquires "the amount of rotation of the image pickup unit 150 at the time of imaging the captured image acquired in step S201" as "field of view control information of the image pickup unit 150 at the time of imaging the captured image acquired in step S201". The amount of rotation of the image pickup unit 150 can be calculated from the angular velocity of the image pickup unit 150 measured by the gyro sensor of the image pickup unit 150. Assuming that the angular velocity of the imaging unit 150 at time t is w (t), the rotation amount Δθ of the imaging unit 150 between time t1 and time t2 can be calculated by calculating the following equation.

Figure 2022054247000002
Figure 2022054247000002

よって、情報取得部122は、撮像部150のジャイロセンサから出力される「各時刻における撮像部150の角速度」を用いて上記の式を計算することで、「ステップS201で取得した撮像画像の撮像時における撮像部150の回転量」を求める。 Therefore, the information acquisition unit 122 calculates the above equation using the “angular velocity of the image pickup unit 150 at each time” output from the gyro sensor of the image pickup unit 150, and “captures the captured image acquired in step S201”. The amount of rotation of the image pickup unit 150 at the time "is obtained.

なお、撮像部150の視野制御情報は、該撮像部150の回転量に限らない。例えば、撮像部150の加速度センサによる測定結果、撮像部150の測距センサによる測定結果、撮像部150の絞りの情報、撮像部150が載置されている雲台のパン、チルト、であっても良い。また、撮像部150がネットワークカメラ(情報処理装置100からネットワークを介して遠隔操作可能なカメラ)である場合、撮像部150の視野制御情報は、撮像部150のパン、チルト、ズームの制御情報であっても良い。 The visual field control information of the image pickup unit 150 is not limited to the rotation amount of the image pickup unit 150. For example, the measurement result by the acceleration sensor of the image pickup unit 150, the measurement result by the distance measurement sensor of the image pickup unit 150, the aperture information of the image pickup unit 150, and the pan and tilt of the pan head on which the image pickup unit 150 is mounted. Is also good. When the image pickup unit 150 is a network camera (a camera that can be remotely controlled from the information processing device 100 via the network), the field of view control information of the image pickup unit 150 is the pan, tilt, and zoom control information of the image pickup unit 150. There may be.

また、情報取得部122は、「ステップS201で取得した撮像画像に添付されている視野制御情報」を、「ステップS201で取得した撮像画像の撮像時における撮像部150の視野制御情報」として取得するようにしても良い。このように、情報取得部122による視野制御情報の取得方法は特定の取得方法に限らないし、また、視野制御情報として利用可能な情報は上記の情報に限らない。 Further, the information acquisition unit 122 acquires "the visual field control information attached to the captured image acquired in step S201" as "the visual field control information of the imaging unit 150 at the time of capturing the captured image acquired in step S201". You may do so. As described above, the method of acquiring the visual field control information by the information acquisition unit 122 is not limited to the specific acquisition method, and the information that can be used as the visual field control information is not limited to the above information.

<ステップS203>
検出部123は、ステップS201で取得した撮像画像から被写体を検出する。撮像画像から被写体を検出する方法としては、例えば、上記の非特許文献1に記載の方法がある。非特許文献1に記載の方法では、画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、該抽出した特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別する。なお、撮像画像から被写体を検出するための方法は、非特許文献1に開示されている方法に限らない。例えば、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar-like特徴、LBPH特徴(Local Binary Pattern Histogram)等を用いても良いし、それらを組み合せても良い。また、人を識別するモデルはサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いても良い。
<Step S203>
The detection unit 123 detects a subject from the captured image acquired in step S201. As a method of detecting a subject from a captured image, for example, there is the method described in Non-Patent Document 1 described above. In the method described in Non-Patent Document 1, gradient direction histogram features (Histograms of Oriented Gradients) are extracted from the image, and the extracted features are identified as human or not by using a model trained by a support vector machine. The method for detecting a subject from a captured image is not limited to the method disclosed in Non-Patent Document 1. For example, the feature amount to be extracted is not limited to the gradient direction histogram feature, but a Haar-like feature, an LBPH feature (Local Binary Pattern Histogram), or the like may be used, or a combination thereof may be used. Further, the model for identifying a person is not limited to the support vector machine, and an AdaBoost classifier, a random classification tree (Randomized Tree), or the like may be used.

そして検出部123は、撮像画像から検出した被写体ごとに、該被写体の画像領域(被写体領域)の位置情報と、該被写体領域に対する尤度と、を求める。「被写体領域の位置情報」は、該被写体領域が矩形領域の場合には、該被写体領域の四隅の画像座標であっても良いし、対向する2つの頂点のそれぞれの画像座標であっても良い。また、「被写体領域の位置情報」は、被写体領域の形状にかかわらず、該被写体領域の重心位置(画像座標)であっても良い。「被写体領域に対する尤度」は、該被写体領域から抽出された特徴量と、被写体を識別するためのモデルと、の一致度(人としての確度)を表す。そして検出部123は、所定値以上の尤度を求めた被写体領域に対応する被写体を候補被写体とする。 Then, the detection unit 123 obtains the position information of the image area (subject area) of the subject and the likelihood with respect to the subject area for each subject detected from the captured image. When the subject area is a rectangular area, the "position information of the subject area" may be the image coordinates of the four corners of the subject area or the image coordinates of the two vertices facing each other. .. Further, the "position information of the subject area" may be the position of the center of gravity (image coordinates) of the subject area regardless of the shape of the subject area. The "likelihood with respect to the subject area" represents the degree of agreement (accuracy as a person) between the feature amount extracted from the subject area and the model for identifying the subject. Then, the detection unit 123 sets a subject corresponding to the subject region for which the likelihood of the predetermined value or more is obtained as a candidate subject.

<ステップS204>
動き算出部124は、それぞれの候補被写体について、該候補被写体の撮像画像における動きを算出する。「候補被写体の撮像画像における動き」は、例えば、撮像画像間における候補被写体の重心位置のずれとして求める。図2(c)を例にとると、撮像画像260と撮像画像250との間における被写体251の動きは、以下の式を用いて求めることができる。
<Step S204>
The motion calculation unit 124 calculates the motion of each candidate subject in the captured image of the candidate subject. The "movement of the candidate subject in the captured image" is obtained, for example, as the deviation of the position of the center of gravity of the candidate subject between the captured images. Taking FIG. 2C as an example, the movement of the subject 251 between the captured image 260 and the captured image 250 can be obtained by using the following equation.

V(x、y)=((x12-x11)/(t2-t1),(y12-y11)/(t2-t1))
V(x、y)は、「撮像画像260と撮像画像250との間における被写体251の動き」を表すベクトル(動きベクトル)を表している。なお、撮像画像における被写体の動きを求める方法は特定の方法に限らず、例えば、上記の非特許文献2に開示されているオプティカルフロー等の各画素における速度ベクトルを求めるようにしても良い。
V (x, y) = ((x12-x11) / (t2-t1), (y12-y11) / (t2-t1))
V (x, y) represents a vector (motion vector) representing "movement of the subject 251 between the captured image 260 and the captured image 250". The method for obtaining the movement of the subject in the captured image is not limited to a specific method, and for example, the velocity vector in each pixel such as the optical flow disclosed in Non-Patent Document 2 may be obtained.

<ステップS205>
注目度算出部125は、ステップS202で取得した視野制御情報と、ステップS204で候補被写体ごとに算出した動きと、に基づいて、該候補被写体に対する注目度を算出する。
<Step S205>
The attention degree calculation unit 125 calculates the attention degree to the candidate subject based on the visual field control information acquired in step S202 and the movement calculated for each candidate subject in step S204.

例えば、注目度算出部125は、予め機械学習により学習された学習済みモデルを用いる。学習済みモデルは、例えば、NN(Neural Network)モデルで構成可能である。例えば、NNモデルとして、候補被写体の動きと、撮像部150の視野制御情報と、を入力すると、該候補被写体の注目度を出力するように学習された学習済みモデルを予め作成しておく。そして、注目度算出部125は、ステップS202で取得した視野制御情報と、ステップS204で候補被写体ごとに算出した動きと、を該学習済みモデルに入力し、該学習済みモデルの出力を「該候補被写体に対する注目度」として算出する。 For example, the attention degree calculation unit 125 uses a trained model learned in advance by machine learning. The trained model can be configured by, for example, an NN (Neural Network) model. For example, as an NN model, when the movement of the candidate subject and the visual field control information of the imaging unit 150 are input, a learned model trained to output the degree of attention of the candidate subject is created in advance. Then, the attention degree calculation unit 125 inputs the visual field control information acquired in step S202 and the movement calculated for each candidate subject in step S204 into the trained model, and outputs the output of the trained model as “the candidate”. Calculated as "degree of attention to the subject".

ここで、学習済みモデルとして用いるNNモデルの具体例を、図3(a)を用いて説明する。図3(a)のNNモデルは、入力層302、中間層303、出力層304の3つの全結合層を有し、各層は、互いに異なる複数のニューロン305を有している。入力層302の各ニューロンには、撮像部150の回転量と候補被写体の動きとが入力され、入力層302に入力されたこれらの情報は中間層303、出力層304に伝達され、出力層304からは該候補被写体に対する注目度(推定注目度306)が出力される。なお、図3(a)では全結合層は1層だけであるが、複数あっても良い。また、NNモデルは、中間層が無く入力層と出力層のみで構成されていても良い。 Here, a specific example of the NN model used as the trained model will be described with reference to FIG. 3A. The NN model of FIG. 3A has three fully connected layers, an input layer 302, an intermediate layer 303, and an output layer 304, each layer having a plurality of neurons 305 different from each other. The rotation amount of the imaging unit 150 and the movement of the candidate subject are input to each neuron of the input layer 302, and these information input to the input layer 302 are transmitted to the intermediate layer 303 and the output layer 304, and are transmitted to the output layer 304. Outputs the degree of attention (estimated degree of attention 306) for the candidate subject. In FIG. 3A, there is only one fully connected layer, but there may be a plurality of fully bonded layers. Further, the NN model may be composed of only an input layer and an output layer without an intermediate layer.

なお、学習済みモデルとして、様々な入力に対して注目度の算出が可能な汎用的な学習済みモデルを使用しても良く、入力に応じて学習済みモデルを使い分けても良い。例えば、撮像画像中の候補被写体の数に応じて学習済みモデルを使い分ける方法がある。なお、学習済みモデルはNNモデルに限らず、SVR(Support Vector Regression)等の他の機械学習モデルで構成しても良いし、候補被写体と撮像部150の位置の夫々の時間変化の相関を注目度として算出することも可能である。あるいは、再帰型のNNモデルとして、RNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いても良い。 As the trained model, a general-purpose trained model capable of calculating the degree of attention for various inputs may be used, or the trained model may be used properly according to the inputs. For example, there is a method of properly using the trained model according to the number of candidate subjects in the captured image. The trained model is not limited to the NN model, but may be composed of other machine learning models such as SVR (Support Vector Regression), and attention should be paid to the correlation between the time change of the candidate subject and the position of the imaging unit 150. It can also be calculated as a degree. Alternatively, as a recursive NN model, RNN (Recurrent Neural Network), LSTM (Long short-term memory), or the like may be used.

<ステップS206>
選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の候補被写体を選択被写体として選択する。例えば、選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度のうち最も値が大きい注目度に対応する候補被写体を選択被写体として選択する。また例えば、選択部126は、ステップS205で算出したそれぞれの候補被写体の注目度のうち閾値以上の注目度に対応する候補被写体を選択被写体として選択する。また例えば、選択部126は、ステップS205で算出した注目度が何れも閾値を超えない場合は、何れの候補被写体も選択被写体として選択しない、としても良い。また例えば、選択部126は、複数フレームに渡って、候補被写体ごとに注目度の平均値を求め、最も値が大きい平均値に対応する候補被写体を選択被写体として選択するようにしても良い。
<Step S206>
The selection unit 126 selects one or more candidate subjects from the respective candidate subjects as the selected subject based on the degree of attention of each candidate subject calculated in step S205. For example, the selection unit 126 selects the candidate subject corresponding to the highest attention level among the attention levels of each candidate subject calculated in step S205 as the selected subject. Further, for example, the selection unit 126 selects a candidate subject corresponding to the attention level equal to or higher than the threshold value among the attention levels of the candidate subjects calculated in step S205 as the selection subject. Further, for example, if the attention level calculated in step S205 does not exceed the threshold value, the selection unit 126 may not select any candidate subject as the selected subject. Further, for example, the selection unit 126 may obtain the average value of the degree of attention for each candidate subject over a plurality of frames, and select the candidate subject corresponding to the average value having the largest value as the selection subject.

なお、選択部126は選択被写体の選択後、該選択被写体に関する情報を出力するが、出力する情報や該情報の出力先については様々な形態が考えられ、特定の形態に限らない。 After selecting the selected subject, the selection unit 126 outputs information about the selected subject, but various forms can be considered for the information to be output and the output destination of the information, and the present invention is not limited to a specific form.

次に、注目度算出部125の動作パラメータを更新(学習)するために情報処理装置100が行う処理について、図2(b)のフローチャートに従って説明する。図2(b)において、図2(a)に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。 Next, the process performed by the information processing apparatus 100 for updating (learning) the operation parameters of the attention degree calculation unit 125 will be described with reference to the flowchart of FIG. 2 (b). In FIG. 2B, the same processing step as the processing step shown in FIG. 2A is assigned the same step number, and the description of the processing step will be omitted.

情報処理装置100は、撮像画像から選択被写体を選択する場合には、図2(a)のフローチャートに従った処理を行い、注目度算出部125の動作パラメータを更新(学習)する場合には、図2(b)のフローチャートに従った処理を行う。なお、情報処理装置100は、上記のステップS206の処理の後、図2(b)のステップS1211に処理を移行しても良い。 The information processing apparatus 100 performs processing according to the flowchart of FIG. 2A when selecting a selected subject from the captured image, and updates (learns) the operation parameters of the attention degree calculation unit 125 when updating (learning) the operation parameters of the attention degree calculation unit 125. Processing is performed according to the flowchart of FIG. 2 (b). The information processing apparatus 100 may shift the processing to step S1211 of FIG. 2B after the processing of step S206 described above.

<ステップS1211>
学習部127は、ステップS205で算出した候補被写体の注目度と、該候補被写体について設定されている正解注目度と、の差分(誤差)を算出する。注目度と正解注目度との誤差の求め方は特定の求め方に限らず、注目度と正解注目度との差の二乗、注目度と正解注目度との差の絶対値、など、様々な求め方が適用可能である。ここで、候補被写体の正解注目度の設定について説明する。例えば、学習部127は、上記のステップS201で取得した撮像画像を表示画面に表示させる。
<Step S1211>
The learning unit 127 calculates the difference (error) between the attention level of the candidate subject calculated in step S205 and the correct answer attention level set for the candidate subject. The method of calculating the error between the degree of attention and the correct answer attention is not limited to a specific method, but there are various methods such as the square of the difference between the degree of attention and the correct answer attention, the absolute value of the difference between the degree of attention and the correct answer attention, and so on. The method of calculation is applicable. Here, the setting of the correct answer attention level of the candidate subject will be described. For example, the learning unit 127 displays the captured image acquired in step S201 above on the display screen.

表示画面における撮像画像の表示例を図3(c)に示す。図3(c)の撮像画像350には候補被写体351および候補被写体352が含まれている。図3(c)ではユーザは、候補被写体351を「所望の候補被写体」として選択するべく、マウスを操作してカーソル353を候補被写体351付近に移動させ、そこでドラッグ操作を行って枠354内に候補被写体351が収まるように枠354を制御している。そして図3(c)に示す如く、枠354内に候補被写体351が収まった状態でユーザがマウスを操作して決定指示を入力すると、学習部127は、候補被写体351の正解注目度を「1」に設定する(全ての候補被写体の正解注目度の初期値は「0」である)。なお、複数の候補被写体を所望の候補被写体として選択することで、該複数の候補被写体のそれぞれの正解注目度を「1」に設定することができる。 FIG. 3C shows an example of displaying the captured image on the display screen. The captured image 350 of FIG. 3C includes a candidate subject 351 and a candidate subject 352. In FIG. 3C, the user operates the mouse to move the cursor 353 to the vicinity of the candidate subject 351 in order to select the candidate subject 351 as the “desired candidate subject”, and drags the candidate subject 351 into the frame 354. The frame 354 is controlled so that the candidate subject 351 fits. Then, as shown in FIG. 3C, when the user operates the mouse to input a decision instruction while the candidate subject 351 is contained in the frame 354, the learning unit 127 sets the correct attention level of the candidate subject 351 to "1". (The initial value of the correct answer attention of all candidate subjects is "0"). By selecting a plurality of candidate subjects as desired candidate subjects, the correct answer attention level of each of the plurality of candidate subjects can be set to "1".

なお、被写体が選択されて所定時間以内に再選択操作を受け付けた場合は、初めに選択された被写体の正解注目度を「0」としても良い。また、画像取得部121が取得する撮像画像のシーケンスにおいて最初の撮像画像に対して所望の候補被写体の選択操作を行った場合、以降のそれぞれの撮像画像から検出された候補被写体と該所望の候補被写体とのテンプレートマッチングを行う。そして、該所望の候補被写体との一致度が閾値以上の候補被写体の正解注目度を「1」に設定する。なお、該所望の候補被写体との一致度が閾値以上の候補被写体がない撮像画像は学習に用いなくても良い。 If the subject is selected and the reselection operation is accepted within a predetermined time, the correct answer attention level of the initially selected subject may be set to "0". Further, when a desired candidate subject is selected for the first captured image in the sequence of captured images acquired by the image acquisition unit 121, the candidate subjects detected from the subsequent captured images and the desired candidate are selected. Perform template matching with the subject. Then, the degree of attention to the correct answer of the candidate subject whose degree of agreement with the desired candidate subject is equal to or greater than the threshold value is set to "1". It should be noted that the captured image in which there is no candidate subject whose degree of coincidence with the desired candidate subject is equal to or greater than the threshold value may not be used for learning.

<ステップS1212>
学習部127は、ステップS1211で算出した誤差に基づいて注目度算出部125の動作パラメータを更新(学習)する。本実施形態では、学習部127は、ステップS1211で算出した誤差に基づいて、注目度算出部125が使用する学習済みモデルの動作パラメータを更新(学習)する。
<Step S1212>
The learning unit 127 updates (learns) the operation parameters of the attention level calculation unit 125 based on the error calculated in step S1211. In the present embodiment, the learning unit 127 updates (learns) the operation parameters of the trained model used by the attention level calculation unit 125 based on the error calculated in step S1211.

例えば、注目度算出部125が図3(a)に示す構成を有する学習済みモデルを用いる場合、学習部127は、候補被写体について出力層304から出力された推定注目度306と、該候補被写体の正解注目度316と、の誤差を求める。そして学習部127は、該求めた誤差を全結合層(出力層304、中間層303、入力層302)に順番に逆伝搬させていき、ニューロン間の重みを更新する。 For example, when the attention degree calculation unit 125 uses a trained model having the configuration shown in FIG. 3A, the learning unit 127 has an estimated attention level 306 output from the output layer 304 for the candidate subject and the candidate subject. Find the error between the correct answer and the attention level 316. Then, the learning unit 127 propagates the obtained error back to the fully connected layers (output layer 304, intermediate layer 303, input layer 302) in order, and updates the weights between neurons.

なお、撮像画像のレーティングの評価値に基づいてパラメータの更新量に重み付けしても良い。例えば、撮像画像のレーティングの評価値が高いほどパラメータの更新量を大きくする方法がある。 The parameter update amount may be weighted based on the evaluation value of the rating of the captured image. For example, there is a method of increasing the amount of parameter update as the evaluation value of the rating of the captured image is higher.

<変形例1>
第1の実施形態では、情報取得部122、検出部123、動き算出部124、注目度算出部125のそれぞれは独立した機能部としていたが、これらの機能部を1つの機能部に統合しても良い。例えば、これらの機能部の動作をCNN(Convolutional Neural Network)を用いて一括で実施するようにしても良い。
<Modification 1>
In the first embodiment, the information acquisition unit 122, the detection unit 123, the motion calculation unit 124, and the attention level calculation unit 125 are each independent functional units, but these functional units are integrated into one functional unit. Is also good. For example, the operations of these functional units may be collectively performed using a CNN (Convolutional Neural Network).

情報取得部122、検出部123、動き算出部124、注目度算出部125の機能をCNNを用いて実施する構成について、図3(b)を用いて説明する。図3(b)に示す構成を用いて、情報取得部122、検出部123、動き算出部124、注目度算出部125の機能を一括で実施する。 A configuration in which the functions of the information acquisition unit 122, the detection unit 123, the motion calculation unit 124, and the attention level calculation unit 125 are performed by using the CNN will be described with reference to FIG. 3 (b). Using the configuration shown in FIG. 3B, the functions of the information acquisition unit 122, the detection unit 123, the motion calculation unit 124, and the attention level calculation unit 125 are collectively performed.

図3(b)に示す構成のNNモデルは、3種類のCNN(CNN321、322、323)を有する。CNN321は、画像取得部121が取得した撮像画像331から候補被写体の位置と大きさを示す特徴量332を推定するモデルである。CNN322は上記の非特許文献3に開示されているような複数の画像からオプティカルフローを算出するモデルである。さらにCNN322は、オプティカルフローから候補被写体の動きと背景の動きを算出し、背景の動きに基づいて視野制御情報を特徴量333として算出する。連結器324は、特徴量332と特徴量333とを連結した特徴量334を算出する。CNN323は、特徴量334から撮像画像331における各領域の注目度のマップ(注目度マップ335)を算出するモデルである。そして本変形例では、選択部126は、注目度マップ335におけるそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の選択被写体を選択する。このようにすることで、学習可能なモデルで被写体を検出することができる。 The NN model having the configuration shown in FIG. 3B has three types of CNNs (CNN321, 322, 323). The CNN 321 is a model that estimates a feature amount 332 indicating the position and size of a candidate subject from the captured image 331 acquired by the image acquisition unit 121. CNN322 is a model for calculating an optical flow from a plurality of images as disclosed in Non-Patent Document 3 above. Further, CNN322 calculates the movement of the candidate subject and the movement of the background from the optical flow, and calculates the visual field control information as the feature amount 333 based on the movement of the background. The coupler 324 calculates the feature amount 334 by connecting the feature amount 332 and the feature amount 333. The CNN 323 is a model for calculating a map of the degree of attention of each region in the captured image 331 (attention map 335) from the feature amount 334. Then, in this modification, the selection unit 126 selects one or more selected subjects from the respective candidate subjects based on the degree of attention of each candidate subject in the attention level map 335. By doing so, it is possible to detect the subject with a learnable model.

<変形例2>
着目フレームの撮像画像において選択被写体を選択し、該着目フレーム以降、該選択被写体を追尾するような場合、該着目フレーム以降のあるフレームの撮像画像において該選択被写体の注目度が閾値未満になれば、該選択被写体以外の他候補被写体の注目度に基づき、該他候補被写体から改めて選択被写体を選択するようにしても良い。このようにすることで、一度選択した被写体を追尾する場合に、途中で他の被写体に誤って追尾が移った場合に、正しい被写体を再選択することができる。
<Modification 2>
When a selected subject is selected in the captured image of the frame of interest and the selected subject is tracked after the frame of interest, if the degree of attention of the selected subject is less than the threshold value in the captured image of a frame after the frame of interest. , The selected subject may be selected again from the other candidate subjects based on the degree of attention of the other candidate subjects other than the selected subject. By doing so, when tracking a once selected subject, if the tracking is mistakenly transferred to another subject in the middle, the correct subject can be reselected.

<変形例3>
第1の実施形態では、選択部126は、それぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から1以上の選択被写体を選択していたが、選択被写体の選択はユーザ操作に応じて行っても良い。本変形例では、情報処理装置100が撮像部150を含む撮像装置であるケースを例にとり説明する。
<Modification 3>
In the first embodiment, the selection unit 126 selects one or more selected subjects from the respective candidate subjects based on the degree of attention of each candidate subject, but the selection of the selected subject depends on the user operation. You may go. In this modification, a case where the information processing device 100 is an image pickup device including an image pickup unit 150 will be described as an example.

本実施形態に係る撮像装置の外観例を図4(a)に示す。本実施形態に係る撮像装置450は、各種の表示を行う表示部451と、ユーザが各種の操作入力を行うために操作するスイッチ452およびダイアル453と、を有する。 FIG. 4A shows an example of the appearance of the image pickup apparatus according to the present embodiment. The image pickup apparatus 450 according to the present embodiment includes a display unit 451 that displays various displays, a switch 452 and a dial 453 that are operated by the user to perform various operation inputs.

表示部451における表示例を図4(b)に示す。以下では、表示部451における表示制御は選択部126が行うものとする。図4(b)に示す如く、表示部451には、候補被写体401および候補被写体402を含む撮像画像400が表示されている。また、撮像装置450は、図4(b)の右側に示す如く、候補被写体401について求めた注目度「0.6」および候補被写体402について求めた注目度「0.4」が登録されたテーブル420を保持している。 A display example on the display unit 451 is shown in FIG. 4 (b). In the following, it is assumed that the selection unit 126 performs the display control in the display unit 451. As shown in FIG. 4B, the display unit 451 displays the captured image 400 including the candidate subject 401 and the candidate subject 402. Further, as shown on the right side of FIG. 4B, the image pickup apparatus 450 is a table in which the attention level “0.6” obtained for the candidate subject 401 and the attention level “0.4” obtained for the candidate subject 402 are registered. Holds 420.

選択部126は、候補被写体401を包含する枠411および候補被写体402を包含する枠412を表示しているが、枠411および枠412のそれぞれは、候補被写体401の注目度および候補被写体402の注目度に応じた表示形態となっている。図4(b)では、候補被写体402よりも注目度が高い候補被写体401の枠411は実線の枠として表示されており、候補被写体401よりも注目度が低い候補被写体402の枠412は点線の枠として表示されている。なお、注目度に応じた枠の表示形態には様々な表示形態があり、特定の表示形態に限らない。例えば、注目度に応じて枠の色、線の太さ等を制御しても良い。また、枠ではなく、半透明色の矩形を候補被写体に重ねて表示しても良く、その場合、注目度に応じて矩形の表示形態を制御する。このように、枠以外に、「候補被写体をユーザに通知するための情報」であれば、いかなる情報を表示しても良い。 The selection unit 126 displays a frame 411 including the candidate subject 401 and a frame 412 including the candidate subject 402, but each of the frame 411 and the frame 412 has a degree of attention of the candidate subject 401 and attention of the candidate subject 402. The display format is according to the degree. In FIG. 4B, the frame 411 of the candidate subject 401 having a higher degree of attention than the candidate subject 402 is displayed as a solid line frame, and the frame 412 of the candidate subject 402 having a lower attention level than the candidate subject 401 is a dotted line. It is displayed as a frame. It should be noted that there are various display forms of the frame according to the degree of attention, and the display form is not limited to a specific display form. For example, the color of the frame, the thickness of the line, and the like may be controlled according to the degree of attention. Further, instead of the frame, a semi-transparent color rectangle may be superimposed on the candidate subject and displayed, and in that case, the display form of the rectangle is controlled according to the degree of attention. As described above, in addition to the frame, any information may be displayed as long as it is "information for notifying the user of the candidate subject".

ユーザがスイッチ452を押下すると、選択部126は、実線の枠である枠411で囲まれている候補被写体401(選択対象)を選択被写体として選択する。ユーザがダイアル453を一方側に回すと、枠411は点線の枠として表示され、「現在実線の枠で囲まれている候補被写体の次に注目度が高い候補被写体」である候補被写体402の枠412が実線で表示される。つまりユーザはダイアル453を操作することで、選択対象を注目度に応じた順序(注目度が高い順でも良いし、低い順でも良い)で切り替えることができる。このような選択被写体の選択により、注目度が高い候補被写体が複数ある場合に、ユーザの所望の候補被写体を選択被写体として選択することができる。 When the user presses the switch 452, the selection unit 126 selects the candidate subject 401 (selection target) surrounded by the frame 411, which is a solid line frame, as the selection subject. When the user turns the dial 453 to one side, the frame 411 is displayed as a dotted line frame, and the frame of the candidate subject 402 which is "the candidate subject having the next highest attention after the candidate subject currently surrounded by the solid line frame". 412 is displayed as a solid line. That is, by operating the dial 453, the user can switch the selection target in the order according to the degree of attention (the order of high attention may be high or the order of low attention may be low). By selecting a selected subject in this way, when there are a plurality of candidate subjects having a high degree of attention, the user's desired candidate subject can be selected as the selected subject.

<第1の実施形態の効果>
第1の実施形態によれば、撮像画像中に候補被写体が複数あり、ユーザが選択したい被写体の移動量が小さい場合や、コントラストが最大でない場合においても、候補被写体の動きと撮像部の視野制御情報に基づいて所望の被写体を選択することができる。さらに、第1の実施形態によれば、多様な候補被写体の動きや撮像部の視野制御情報に対して被写体を選択することができる。
<Effect of the first embodiment>
According to the first embodiment, even when there are a plurality of candidate subjects in the captured image and the movement amount of the subject desired by the user is small or the contrast is not the maximum, the movement of the candidate subject and the field of view control of the image pickup unit are controlled. The desired subject can be selected based on the information. Further, according to the first embodiment, the subject can be selected for various movements of the candidate subject and the visual field control information of the imaging unit.

なお、ネットワークカメラとして例示した撮像部150において、視野により注目すべき被写体の位置は変わることが考えられる。例えば、商店の防犯カメラとして撮像部150を設定した場合を考える。この場合、撮像部150が出入り口を撮像方向としている場合と、商品棚の近くを撮像方向としている場合とで注目すべき被写体の位置は変わるため、撮像方向と注目すべき被写体の位置とは相関関係がある。このように、撮像方向である視野制御情報を入力とすることでより高精度に注目すべき被写体を選択するための出力を得ることが可能となる。 In the image pickup unit 150 exemplified as a network camera, it is conceivable that the position of the subject to be noted changes depending on the field of view. For example, consider the case where the image pickup unit 150 is set as a security camera in a store. In this case, the position of the subject to be noted changes depending on whether the image pickup unit 150 has the entrance / exit as the image pickup direction or the vicinity of the product shelf as the image pickup direction, so that the image pickup direction and the position of the subject to be noted correlate with each other. There is a relationship. In this way, by inputting the visual field control information which is the imaging direction, it is possible to obtain an output for selecting a subject to be noted with higher accuracy.

[第2の実施形態]
本実施形態を含む以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、候補被写体の動きと視野制御情報とに基づいて選択被写体を選択した。このような第1の実施形態では、注目度が高い特定の被写体の近くにある被写体を選択する場合、該特定の被写体の近くにある被写体が変わるたびに、被写体の再選択が必要になる。
[Second Embodiment]
Each of the following embodiments including the present embodiment describes the difference from the first embodiment, and is the same as the first embodiment unless otherwise specified below. In the first embodiment, the selected subject is selected based on the movement of the candidate subject and the visual field control information. In such a first embodiment, when a subject near a specific subject having a high degree of attention is selected, it is necessary to reselect the subject every time the subject near the specific subject changes.

本実施形態では、それぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から特定の候補被写体を注目点として特定し、それぞれの候補被写体について、注目点との相対的な位置の変化に基づいて追尾度を算出する。追尾度とは、候補被写体が注目点に接近している度合いである。 In the present embodiment, a specific candidate subject is specified as a point of interest from each candidate subject based on the degree of attention of each candidate subject, and the position of each candidate subject changes relative to the point of interest. The tracking degree is calculated based on this. The tracking degree is the degree to which the candidate subject is close to the point of interest.

本実施形態では、サッカーの試合を撮像した撮像画像のシーケンスが情報処理装置100に入力されるケースを例にとり説明する。この場合、情報処理装置100は、該撮像画像中のボールを注目点として選択し、該撮像画像中のそれぞれの候補被写体(注目点以外の候補被写体)について、ボールとの相対的な位置の変化に基づいて追尾度を算出し、該追尾度に基づいて選択被写体を選択する。これにより、特定の注目点の近くで注目点に近接している被写体を選択しやすくなる。 In the present embodiment, a case where a sequence of captured images of a soccer game is input to the information processing apparatus 100 will be described as an example. In this case, the information processing apparatus 100 selects a ball in the captured image as a point of interest, and changes in the relative position of each candidate subject (candidate subject other than the point of interest) in the captured image with respect to the ball. The tracking degree is calculated based on the above, and the selected subject is selected based on the tracking degree. This makes it easier to select a subject that is close to a particular point of interest.

次に、撮像部150が撮像した撮像画像の一例について、図5(c)を用いて説明する。撮像部150により撮像された撮像画像550には、矢印の方向に移動している被写体551および被写体552と、矢印の方向に移動しているボール553と、が含まれている。(x1,y1)は撮像画像550における被写体551の重心位置(画像座標)を示し、(x2,y2)は撮像画像550における被写体552の重心位置(画像座標)を示している。また、(xb,yb)は撮像画像550におけるボール553の重心位置(画像座標)を示している。 Next, an example of the captured image captured by the imaging unit 150 will be described with reference to FIG. 5 (c). The captured image 550 captured by the image pickup unit 150 includes a subject 551 and a subject 552 moving in the direction of the arrow, and a ball 553 moving in the direction of the arrow. (X1, y1) indicates the position of the center of gravity (image coordinates) of the subject 551 in the captured image 550, and (x2, y2) indicates the position of the center of gravity (image coordinates) of the subject 552 in the captured image 550. Further, (xb, yb) indicates the position of the center of gravity (image coordinates) of the ball 553 in the captured image 550.

次に、本実施形態に係るシステムの機能構成例について、図5(a)のブロック図を用いて説明する。情報処理装置500は、上記の情報処理装置100に注目点算出部501および追尾度算出部502を加えた構成を有する。 Next, an example of the functional configuration of the system according to the present embodiment will be described with reference to the block diagram of FIG. 5A. The information processing apparatus 500 has a configuration in which the attention point calculation unit 501 and the tracking degree calculation unit 502 are added to the information processing apparatus 100.

注目点算出部501は、注目度算出部125が求めたそれぞれの候補被写体の注目度に基づいて、該それぞれの候補被写体から特定の候補被写体を注目点として選択する。追尾度算出部502は、注目点に対する候補被写体(注目点以外の候補被写体)の相対的な位置の変化に基づいて、該候補被写体に対して追尾度を算出する。 The attention point calculation unit 501 selects a specific candidate subject from the respective candidate subjects as the attention point based on the attention level of each candidate subject obtained by the attention degree calculation unit 125. The tracking degree calculation unit 502 calculates the tracking degree for the candidate subject based on the change in the relative position of the candidate subject (candidate subject other than the attention point) with respect to the attention point.

次に、情報処理装置500の動作について、図5(b)のフローチャートに従って説明する。図5(b)において、図2(a)の処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。図5(b)のフローチャートでは、ステップS205における処理の後、ステップS1501に進む。 Next, the operation of the information processing apparatus 500 will be described with reference to the flowchart of FIG. 5 (b). In FIG. 5B, the same processing steps as those in FIG. 2A are assigned the same step numbers, and the description of the processing steps will be omitted. In the flowchart of FIG. 5B, after the processing in step S205, the process proceeds to step S1501.

<ステップS1501>
注目点算出部501は、ステップS205で算出したそれぞれの候補被写体の注目度のうち最も値が大きい注目度を特定し、該特定した注目度の候補被写体を注目点として選択する。以下では具体的な説明を行うために、図5(c)の被写体551、被写体552、ボール553の3つの候補被写体のそれぞれの注目度のうち、ボール553の注目度が最も値が大きいとし、その結果、注目点としてボール553が選択されたものとする。
<Step S1501>
The attention point calculation unit 501 identifies the attention degree having the largest value among the attention degrees of each candidate subject calculated in step S205, and selects the candidate subject of the specified attention degree as the attention point. In the following, in order to give a specific explanation, it is assumed that the attention of the ball 553 is the highest among the attention of each of the three candidate subjects of the subject 551, the subject 552, and the ball 553 in FIG. 5 (c). As a result, it is assumed that the ball 553 is selected as the point of interest.

<ステップS1502>
選択部126は、注目点を選択被写体として選択するか否かを判断する。注目点を選択被写体として選択するか否かを判断する判断方法には様々な判断方法があり、特定の判断方法に限らない。本実施形態では、検出部123は、上記の非特許文献2に記載の物体検出(被写体の検出)と並行して物体の属性分類(該被写体の属性の分類)を行う。そして選択部126は、注目点の属性が「人物」であれば、該注目点を選択被写体として選択するものと判断し、処理はステップS206に進む。一方、選択部126は、注目点の属性が「人物」ではない場合には、該注目点は選択被写体として選択しないものと判断し、処理はステップS1503に進む。
<Step S1502>
The selection unit 126 determines whether or not to select the point of interest as the selected subject. There are various judgment methods for judging whether or not to select a point of interest as a selected subject, and the judgment method is not limited to a specific judgment method. In the present embodiment, the detection unit 123 performs attribute classification (classification of the subject attribute) of the object in parallel with object detection (subject detection) described in Non-Patent Document 2 above. Then, if the attribute of the attention point is "person", the selection unit 126 determines that the attention point is selected as the selected subject, and the process proceeds to step S206. On the other hand, when the attribute of the attention point is not "person", the selection unit 126 determines that the attention point is not selected as the selected subject, and the process proceeds to step S1503.

なお、注目点を選択被写体として選択するか否かは、ユーザに判断させてもよい。例えば、注目点を選択被写体として選択するか否かを示す設定情報をユーザが情報処理装置500に事前に設定しておいても良い。また例えば、ステップS1502において、注目点を選択被写体として選択するか否かをユーザに問い合わせても良い。そして、ユーザから「注目点を選択被写体として選択する」旨の操作入力があれば、処理はステップS206に進み、ユーザから「注目点を選択被写体として選択しない」旨の操作入力があれば、処理はステップS1503に進む。 The user may decide whether or not to select the point of interest as the selected subject. For example, the user may set in advance setting information indicating whether or not to select the attention point as the selected subject in the information processing apparatus 500. Further, for example, in step S1502, the user may be inquired whether or not to select the attention point as the selected subject. Then, if there is an operation input to "select the attention point as the selected subject" from the user, the process proceeds to step S206, and if there is an operation input to "do not select the attention point as the selected subject" from the user, the process proceeds. Goes to step S1503.

<ステップS1503>
追尾度算出部502は、被写体551および被写体552のそれぞれについて、ボール553との相対的な位置の変化に基づいて、追尾度を算出する。ボール553に対する被写体551の相対的な位置は(x1-xb,y1-yb)であり、ボール553に対する被写体552の相対的な位置は(x2-xb,y2-yb)である。
<Step S1503>
The tracking degree calculation unit 502 calculates the tracking degree for each of the subject 551 and the subject 552 based on the change in the position relative to the ball 553. The relative position of the subject 551 with respect to the ball 553 is (x1-xb, y1-yb), and the relative position of the subject 552 with respect to the ball 553 is (x2-xb, y2-yb).

よって、追尾度算出部502は、撮像画像間における(x1-xb,y1-yb)の差分を、「ボール553に対する被写体551の相対的な位置の変化」として求める。また、追尾度算出部502は、撮像画像間における(x2-xb,y2-yb)の差分を、「ボール553に対する被写体552の相対的な位置の変化」として求める。 Therefore, the tracking degree calculation unit 502 obtains the difference of (x1-xb, y1-yb) between the captured images as "change in the relative position of the subject 551 with respect to the ball 553". Further, the tracking degree calculation unit 502 obtains the difference of (x2-xb, y2-yb) between the captured images as "change in the relative position of the subject 552 with respect to the ball 553".

そして追尾度算出部502は、一定期間内の「ボール553に対する被写体551の相対的な位置の変化」を求める。そして追尾度算出部502は、一定期間内の変化の平均(ボール553に対する被写体551の平均的な相対位置)と、ボール553の位置と、の間の距離の逆数を、被写体551に対する追尾度として求める。 Then, the tracking degree calculation unit 502 obtains "a change in the relative position of the subject 551 with respect to the ball 553" within a certain period of time. Then, the tracking degree calculation unit 502 uses the reciprocal of the distance between the average of changes within a certain period (the average relative position of the subject 551 with respect to the ball 553) and the position of the ball 553 as the tracking degree with respect to the subject 551. demand.

同様に追尾度算出部502は、一定期間内の「ボール553に対する被写体552の相対的な位置の変化」を求める。そして追尾度算出部502は、一定期間内の変化の平均(ボール553に対する被写体552の平均的な相対位置)と、ボール553の位置と、の間の距離の逆数を、被写体552に対する追尾度として求める。 Similarly, the tracking degree calculation unit 502 obtains "a change in the relative position of the subject 552 with respect to the ball 553" within a certain period of time. Then, the tracking degree calculation unit 502 uses the reciprocal of the distance between the average of changes within a certain period (the average relative position of the subject 552 with respect to the ball 553) and the position of the ball 553 as the tracking degree with respect to the subject 552. demand.

なお、追尾度算出部502は注目度算出部125と同様に、学習済みモデルを用いて候補被写体に対する追尾度を求めるようにしても良い。この場合、追尾度算出部502は、「注目点に対する候補被写体の相対的な位置の変化」を入力した学習済みモデルの出力を、該候補被写体に対する追尾度として求める。この学習済みモデルは、「注目点に対する候補被写体の相対的な位置の変化」が入力されると、該候補被写体に対する追尾度を出力するように学習されたNNモデルである。 Note that the tracking degree calculation unit 502 may obtain the tracking degree for the candidate subject by using the trained model in the same manner as the attention degree calculation unit 125. In this case, the tracking degree calculation unit 502 obtains the output of the trained model in which the "change in the relative position of the candidate subject with respect to the point of interest" is input as the tracking degree for the candidate subject. This trained model is an NN model trained to output the tracking degree for the candidate subject when "change in the relative position of the candidate subject with respect to the point of interest" is input.

そして、本実施形態では、ステップS1501からステップS206に処理が進んだ場合には、ステップS206では第1の実施形態と同様の処理が行われる。一方、ステップS1503からステップS206に処理が進んだ場合、ステップS206では、選択部126は、注目点以外のそれぞれの候補被写体の追尾度に基づいて、該それぞれの候補被写体から1以上の候補被写体を選択被写体として選択する。注目度の代わりに追尾度を用いること以外は、第1の実施形態におけるステップS206と同様である。 Then, in the present embodiment, when the process proceeds from step S1501 to step S206, the same process as in the first embodiment is performed in step S206. On the other hand, when the process proceeds from step S1503 to step S206, in step S206, the selection unit 126 selects one or more candidate subjects from the respective candidate subjects based on the tracking degree of each candidate subject other than the point of interest. Select as the selected subject. It is the same as step S206 in the first embodiment except that the tracking degree is used instead of the attention degree.

<第2の実施形態の効果>
第2の実施形態によれば、特定の物体の注目度が高い場合に、該特定の物体の近くの物体を選択被写体として選択することができる。
<Effect of the second embodiment>
According to the second embodiment, when the degree of attention of a specific object is high, an object near the specific object can be selected as a selection subject.

[第3の実施形態]
第1の実施形態では、撮像時の撮像部150の視野制御情報に基づいて候補被写体の注目度を算出し、注目度に基づいて選択被写体を選択する方法について説明した。第1の実施形態では、選択被写体を選択する撮像画像を撮像した撮像部150の視野制御情報を取得しているので、該撮像画像から選択被写体を選択することができる。しかし、選択被写体を選択する撮像画像が過去に撮像されたものであり、該撮像画像の撮像時における撮像部150の視野制御情報が得られていない場合、第1の実施形態では、該撮像画像から選択被写体を選択することができない。本実施形態では、撮像部150の視野制御情報として、過去に撮像した撮像画像に対するユーザの閲覧操作に係る情報を用いる。
[Third Embodiment]
In the first embodiment, a method of calculating the degree of attention of a candidate subject based on the visual field control information of the image pickup unit 150 at the time of imaging and selecting the selected subject based on the degree of attention has been described. In the first embodiment, since the visual field control information of the image pickup unit 150 that has captured the captured image for selecting the selected subject is acquired, the selected subject can be selected from the captured image. However, if the captured image for selecting the selected subject has been captured in the past and the visual field control information of the imaging unit 150 at the time of capturing the captured image is not obtained, in the first embodiment, the captured image Cannot select the selected subject from. In the present embodiment, as the visual field control information of the image pickup unit 150, information related to the user's browsing operation for the captured images captured in the past is used.

本実施形態に係るシステムの機能構成例について、図6(a)のブロック図を用いて説明する。図6(a)に示す如く、本実施形態に係るシステムは、情報処理装置600と、ユーザが情報処理装置600に対して各種の操作入力を行うために操作する操作部601と、過去に撮像された撮像画像群を保持する外部記憶装置602と、を有する。 An example of the functional configuration of the system according to the present embodiment will be described with reference to the block diagram of FIG. 6A. As shown in FIG. 6A, the system according to the present embodiment includes an information processing apparatus 600, an operation unit 601 operated by a user to perform various operation inputs to the information processing apparatus 600, and an image taken in the past. It has an external storage device 602 that holds the captured image group.

まず、操作部601について説明する。操作部601は、キーボード、マウス、タッチパネルなどのユーザインターフェースを有し、ユーザが操作することで各種の指示を情報処理装置600に対して入力することができる。また、操作部601は、撮像画像などを表示可能な表示画面を有する。 First, the operation unit 601 will be described. The operation unit 601 has a user interface such as a keyboard, a mouse, and a touch panel, and various instructions can be input to the information processing apparatus 600 by the user operating the operation unit 601. Further, the operation unit 601 has a display screen capable of displaying an captured image or the like.

次に、外部記憶装置602について説明する。外部記憶装置602は、ハードディスクドライブ装置やUSBメモリなどのメモリ装置であり、該外部記憶装置602には、過去に撮像された撮像画像群が保存されている。 Next, the external storage device 602 will be described. The external storage device 602 is a memory device such as a hard disk drive device or a USB memory, and the external storage device 602 stores a group of captured images captured in the past.

次に、情報処理装置600について説明する。情報処理装置600は、上記の情報処理装置100と同様の構成を有しているが、情報取得部122が視野制御情報を操作部601から取得する点、画像取得部121が撮像画像を外部記憶装置602から取得する点、が第1の実施形態と異なる。ユーザは操作部601を操作して、外部記憶装置602に保存されている撮像画像に対して各種の閲覧操作を行っており、情報取得部122は、この閲覧操作に係る情報を視野制御情報として操作部601から取得する。撮像画像に対する閲覧操作に係る情報には、例えば、ユーザによる該撮像画像の拡大操作や、ユーザによる該撮像画像内の閲覧範囲の移動操作(上下左右方向のスクロール操作)などの操作に係る情報が含まれている。 Next, the information processing apparatus 600 will be described. The information processing device 600 has the same configuration as the information processing device 100 described above, but the information acquisition unit 122 acquires the field control information from the operation unit 601 and the image acquisition unit 121 stores the captured image externally. The point obtained from the apparatus 602 is different from the first embodiment. The user operates the operation unit 601 to perform various browsing operations on the captured image stored in the external storage device 602, and the information acquisition unit 122 uses the information related to this browsing operation as the visual field control information. Obtained from the operation unit 601. The information related to the viewing operation for the captured image includes, for example, information related to operations such as an operation for enlarging the captured image by the user and an operation for moving the viewing range in the captured image (scrolling operation in the up, down, left, and right directions) by the user. include.

情報処理装置600は、情報取得部122が操作部601から視野制御情報を取得すること、画像取得部121が外部記憶装置602から撮像画像を取得すること、視野制御情報として撮像画像の閲覧操作に係る情報を用いること、を除けば、情報処理装置100と同様に動作する。 In the information processing device 600, the information acquisition unit 122 acquires the field control information from the operation unit 601, the image acquisition unit 121 acquires the captured image from the external storage device 602, and the information processing device 600 is used for viewing the captured image as the field control information. It operates in the same manner as the information processing apparatus 100, except that such information is used.

図6(b)は、画像取得部121が外部記憶装置602から読み出した撮像画像の部分画像650(撮像画像内の閲覧範囲)の、操作部601の表示画面における表示例を示しており、該部分画像650には、被写体651,652,653が含まれている。ユーザは、撮像画像において閲覧したい範囲がウィンドウ内に収まるように、操作部601を操作してウィンドウ内で撮像画像をスクロールさせることができる。また、ユーザは、ウィンドウ内に表示されている部分画像650の部分領域655を拡大した拡大画像660(図6(c))をウィンドウ内に表示させるべく、操作部601を操作してカーソル654を用いてドラッグ操作を行うことで部分領域655を指定する。これによりウィンドウ内には図6(c)に示す如く、部分領域655内の画像を拡大した拡大画像660が表示される。このようなユーザ操作に応じた画像の表示制御は、操作部601によって行われる。そして情報取得部122は、このようなユーザ操作に係る情報を視野制御情報として操作部601から取得する。本実施形態では、ユーザが操作部601を操作して行ったスクロール操作が、撮像画像のどの部分領域をウィンドウ内に表示させるためのスクロール操作であったのか、を示すスクロール情報を視野制御情報として用いるものとする。 FIG. 6B shows an example of displaying a partial image 650 (viewing range in the captured image) of the captured image read from the external storage device 602 by the image acquisition unit 121 on the display screen of the operation unit 601. The partial image 650 includes a subject 651,652,653. The user can operate the operation unit 601 to scroll the captured image in the window so that the range to be viewed in the captured image fits in the window. Further, the user operates the operation unit 601 to move the cursor 654 in order to display the enlarged image 660 (FIG. 6 (c)) in which the partial area 655 of the partial image 650 displayed in the window is enlarged in the window. The partial area 655 is specified by performing a drag operation using the tool. As a result, as shown in FIG. 6C, an enlarged image 660 obtained by enlarging the image in the partial region 655 is displayed in the window. The image display control according to such a user operation is performed by the operation unit 601. Then, the information acquisition unit 122 acquires the information related to such a user operation from the operation unit 601 as the visual field control information. In the present embodiment, scroll information indicating which partial area of the captured image is to be displayed in the window as the scroll operation performed by the user by operating the operation unit 601 is used as the visual field control information. It shall be used.

なお、候補被写体ごとに、撮像画像のシーケンスにおける注目度の平均(平均注目度)を求め、該求めた平均注目度に応じて選択被写体の選択を行うようにしても良い。その際、撮像画像の部分領域655内の画像を拡大した拡大画像660をウィンドウ内に表示させた場合には、拡大画像660の拡大率(部分領域655内の画像に対する拡大率)に応じて、該撮像画像内の候補被写体の重みを制御する。よって、平均注目度は、撮像画像ごとに注目度を重み付けした重み付け注目度の平均である。 The average attention level (average attention level) in the sequence of captured images may be obtained for each candidate subject, and the selected subject may be selected according to the obtained average attention level. At that time, when the enlarged image 660 obtained by enlarging the image in the partial area 655 of the captured image is displayed in the window, the magnified image 660 is enlarged according to the magnified image (magnification rate with respect to the image in the partial area 655). The weight of the candidate subject in the captured image is controlled. Therefore, the average attention level is the average of the weighted attention levels weighted for each captured image.

<変形例1>
第3の実施形態では、外部記憶装置602には、1台のみの撮像部150による撮像画像群が保存されているものとしたが、2台以上の撮像部150による撮像画像群が保存されていても良い。その場合、ユーザは任意の撮像部150による撮像画像を閲覧することができる。
<Modification 1>
In the third embodiment, it is assumed that the external storage device 602 stores the image group captured by only one image pickup unit 150, but the image group captured by two or more image pickup units 150 is stored. May be. In that case, the user can view the image captured by any imaging unit 150.

現在、撮像部Aによる撮像画像の閲覧中にユーザが操作部601を操作して、撮像部Bの撮像画像を閲覧する指示を入力したとする。このとき情報取得部122は、撮像部Aの撮像範囲から撮像部Bの撮像範囲への移動量MAを求める。 It is assumed that the user operates the operation unit 601 while viewing the image captured by the image pickup unit A and inputs an instruction to view the image captured by the image pickup unit B. At this time, the information acquisition unit 122 obtains the amount of movement MA from the image pickup range of the image pickup unit A to the image pickup range of the image pickup unit B.

検出部123は、撮像画像内におけるそれぞれの被写体を認識する。動き算出部124は、撮像部Aによる撮像画像における被写体Tの位置から撮像部Bによる撮像画像における被写体Tの位置への移動量MBを求める。 The detection unit 123 recognizes each subject in the captured image. The motion calculation unit 124 obtains the amount of movement MB from the position of the subject T in the image captured by the image pickup unit A to the position of the subject T in the image captured by the image pickup unit B.

注目度算出部125は、移動量MAと移動量MBに対応する「被写体Tの注目度」を出力するよう学習された学習済みモデルに、該移動量MAと移動量MBとを入力して、該学習済みモデルの出力を「被写体Tの注目度」として求める。なお、移動量MAと移動量MBとから「被写体Tの注目度」を求める方法は特定の方法に限らず、他にも例えば、第1の実施形態と同様に、撮像範囲の移動量と被写体Tの移動量との相関を用いて該被写体Tの注目度を求める方法を採用しても良い。このようにすることで、複数の撮像部で撮像した複数の撮像画像の閲覧情報から、閲覧者が注目している被写体を選択することができる。 The attention degree calculation unit 125 inputs the movement amount MA and the movement amount MB into the trained model trained to output the “attention degree of the subject T” corresponding to the movement amount MA and the movement amount MB. The output of the trained model is obtained as the "attention degree of the subject T". The method of obtaining the "attention level of the subject T" from the movement amount MA and the movement amount MB is not limited to a specific method, and for example, as in the first embodiment, the movement amount and the subject in the imaging range. A method of obtaining the degree of attention of the subject T by using the correlation with the movement amount of T may be adopted. By doing so, it is possible to select the subject that the viewer is paying attention to from the browsing information of the plurality of captured images captured by the plurality of imaging units.

<第3の実施形態の効果>
第3の実施形態によれば、監視カメラの録画データなど、撮像部から取得できる視野制御情報が限定される場合であっても、閲覧者による画像の閲覧操作に基づいて注目度を算出し、注目度に基づいて被写体を選択することができる。
<Effect of the third embodiment>
According to the third embodiment, even when the visual field control information that can be acquired from the image pickup unit is limited, such as the recorded data of the surveillance camera, the attention level is calculated based on the image viewing operation by the viewer. The subject can be selected based on the degree of attention.

<他分野への適用例>
例えば、仮想視点画像において閲覧操作に基づいて注目する被写体の選択を行うような場合であっても、上記の実施形態や変形例を同様に適用することができる。仮想視点画像とは、複数の撮像装置を用いて異なる位置から同期撮像を行い、得られた多視点の画像を使用して生成された画像であり、このような技術により、3次元空間上の任意の視点からの画像を取得することができる。他にも、VRゴーグルなどのゴーグル型の映像再生装置において、ゴーグルの動き情報に加え、ユーザの視線情報に基づいて候補被写体の注目度を算出するような場合であっても、上記の実施形態や変形例を同様に適用することができる。このようにすることで、注目度が高い人物や物体に関するアノテーションを表示することや、追尾映像を再生することができる。
<Example of application to other fields>
For example, even in the case of selecting a subject of interest based on a browsing operation in a virtual viewpoint image, the above-described embodiment and modification can be applied in the same manner. A virtual viewpoint image is an image generated by performing synchronous imaging from different positions using a plurality of image pickup devices and using the obtained multi-viewpoint images. By such a technique, a virtual viewpoint image is displayed on a three-dimensional space. Images from any viewpoint can be acquired. In addition, in a goggle-type video reproduction device such as VR goggles, even when the attention level of the candidate subject is calculated based on the user's line-of-sight information in addition to the movement information of the goggles, the above embodiment And variants can be applied in the same way. By doing so, it is possible to display annotations related to a person or an object having a high degree of attention and to reproduce a tracking image.

[第4の実施形態]
図1(b)に示した情報処理装置100の機能部、図5(a)に示した情報処理装置500の機能部、図6(a)に示した情報処理装置600の機能部、はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、該ソフトウェアを実行可能なコンピュータ装置は、上記の情報処理装置100や情報処理装置500や情報処理装置600に適用可能である。
[Fourth Embodiment]
The functional unit of the information processing device 100 shown in FIG. 1 (b), the functional unit of the information processing device 500 shown in FIG. 5 (a), and the functional unit of the information processing device 600 shown in FIG. 6 (a) are hardware. It may be implemented by hardware or software (computer program). In the latter case, the computer device capable of executing the software can be applied to the information processing device 100, the information processing device 500, and the information processing device 600.

このようなコンピュータ装置のハードウェア構成例について、図1(a)のブロック図を用いて説明する。なお、図1(a)に示した構成は、情報処理装置100や情報処理装置500や情報処理装置600に適用可能なコンピュータ装置の構成の一例であり、適宜変更/変形が可能である。 An example of such a hardware configuration of a computer device will be described with reference to the block diagram of FIG. 1 (a). The configuration shown in FIG. 1A is an example of the configuration of a computer device applicable to the information processing device 100, the information processing device 500, and the information processing device 600, and can be appropriately changed / modified.

CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU101は、コンピュータ装置全体の動作制御を行うと共に、上記の情報処理装置100や情報処理装置500や情報処理装置600が行うものとして説明した各種の処理を実行もしくは制御する。 The CPU 101 executes various processes using computer programs and data stored in the ROM 102 and the RAM 103. As a result, the CPU 101 controls the operation of the entire computer device, and also executes or controls various processes described as those performed by the information processing device 100, the information processing device 500, and the information processing device 600.

ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の設定データが格納されている。また、ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の起動に係るコンピュータプログラムやデータが格納されている。また、ROM102には、上記の情報処理装置100や情報処理装置500や情報処理装置600の基本動作に係るコンピュータプログラムやデータが格納されている。 The ROM 102 stores the setting data of the information processing device 100, the information processing device 500, and the information processing device 600. Further, the ROM 102 stores computer programs and data related to the activation of the information processing device 100, the information processing device 500, and the information processing device 600. Further, the ROM 102 stores computer programs and data related to the basic operations of the information processing device 100, the information processing device 500, and the information processing device 600.

RAM103は、ROM102や外部記憶装置104からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。さらにRAM103は、I/F107を介して外部(撮像部150、操作部601、外部記憶装置602など)から受信したデータを格納するためのエリアを有する。さらにRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM103は、各種のエリアを適宜提供することができる。 The RAM 103 has an area for storing computer programs and data loaded from the ROM 102 and the external storage device 104. Further, the RAM 103 has an area for storing data received from the outside (imaging unit 150, operation unit 601, external storage device 602, etc.) via the I / F 107. Further, the RAM 103 has a work area used by the CPU 101 to execute various processes. As described above, the RAM 103 can appropriately provide various areas.

外部記憶装置104は、ハードディスクドライブ装置、USBメモリ、フラッシュメモリなどの不揮発性メモリである。外部記憶装置104にはOS(オペレーティングシステム)、情報処理装置100や情報処理装置500や情報処理装置600が行うものとして説明した各種の処理をCPU101に実行もしくは制御させる為のコンピュータプログラムやデータが保存されている。外部記憶装置104に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM103にロードされ、CPU101による処理対象となる。外部記憶装置104は、上記の外部記憶装置602としても利用可能である。 The external storage device 104 is a non-volatile memory such as a hard disk drive device, a USB memory, and a flash memory. The external storage device 104 stores computer programs and data for causing the CPU 101 to execute or control various processes described as those performed by the OS (operating system), the information processing device 100, the information processing device 500, and the information processing device 600. Has been done. The computer programs and data stored in the external storage device 104 are appropriately loaded into the RAM 103 according to the control by the CPU 101, and are processed by the CPU 101. The external storage device 104 can also be used as the above-mentioned external storage device 602.

また、外部記憶装置104は、メディア(記録媒体)と、該メディアへのアクセスを実現するための外部記憶ドライブと、で実現することもできる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD-ROM、DVD、MO、等が知られている。また、外部記憶装置104は、ネットワークを介してコンピュータ装置と接続されているサーバ装置等のコンピュータ装置であっても良い。 Further, the external storage device 104 can also be realized by a medium (recording medium) and an external storage drive for realizing access to the media. As such a medium, for example, a flexible disk (FD), a CD-ROM, a DVD, an MO, and the like are known. Further, the external storage device 104 may be a computer device such as a server device connected to the computer device via a network.

表示部105は、液晶画面、有機EL画面、タッチパネル画面等を有し、CPU101による処理結果を画像や文字などでもって表示する。なお、表示部105は、画像や文字を投影するプロジェクタなどの投影装置であっても良い。また、表示部105は、ネットワークを介してコンピュータ装置と接続されている表示装置であっても良い。表示部105は、上記の説明に登場した、表示を行う機器(表示画面)として利用可能である。 The display unit 105 has a liquid crystal screen, an organic EL screen, a touch panel screen, and the like, and displays the processing result by the CPU 101 with images, characters, and the like. The display unit 105 may be a projection device such as a projector that projects an image or characters. Further, the display unit 105 may be a display device connected to a computer device via a network. The display unit 105 can be used as a display device (display screen) that has appeared in the above description.

操作部106は、キーボード、マウス、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。操作部106は、上記の操作部601としても利用可能である。 The operation unit 106 is a user interface such as a keyboard, a mouse, and a touch panel screen, and various instructions can be input to the CPU 101 by the user's operation. The operation unit 106 can also be used as the operation unit 601 described above.

表示部105及び操作部106の構成はこれに限らず、他の構成としても良い。例えば、操作部106をペンタブレッドとしても良いし、表示部105と操作部106とを合わせてタブレットとしても良い。 The configuration of the display unit 105 and the operation unit 106 is not limited to this, and other configurations may be used. For example, the operation unit 106 may be a pen tab red, or the display unit 105 and the operation unit 106 may be combined to form a tablet.

I/F107は、外部(撮像部150、操作部601、外部記憶装置602など)との間のデータ通信を行うための通信インターフェースであり、コンピュータ装置は、I/F107を介して外部との間のデータ通信を行うことができる。 The I / F 107 is a communication interface for performing data communication with the outside (imaging unit 150, operation unit 601, external storage device 602, etc.), and the computer device is with the outside via the I / F 107. Data communication can be performed.

CPU101、ROM102、RAM103、外部記憶装置104、表示部105、操作部106、I/F107はいずれも、システムバス108に接続されている。 The CPU 101, ROM 102, RAM 103, external storage device 104, display unit 105, operation unit 106, and I / F 107 are all connected to the system bus 108.

また、上記の各実施形態や各変形例で使用した数値、処理タイミング、処理順、データ(情報)の取得元/出力先、画面の構成やその操作方法などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。 In addition, the numerical values, processing timing, processing order, data (information) acquisition source / output destination, screen configuration, and its operation method used in each of the above embodiments and modifications are for specific explanation. It is given as an example, and is not intended to be limited to such an example.

また、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。 Further, a part or all of each of the above-described embodiments and modifications may be used in combination as appropriate. Further, a part or all of each of the above-described embodiments and modifications may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to publicize the scope of the invention.

100:情報処理装置 121:画像取得部 122:情報取得部 123:検出部 124:動き算出部 125:注目度算出部 126:選択部 127:学習部 150:撮像部 100: Information processing device 121: Image acquisition unit 122: Information acquisition unit 123: Detection unit 124: Motion calculation unit 125: Attention calculation unit 126: Selection unit 127: Learning unit 150: Imaging unit

Claims (14)

撮像部により撮像された撮像画像を取得する取得手段と、
前記取得手段に取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する選択手段と
を備えることを特徴とする情報処理装置。
An acquisition means for acquiring an image captured by the image pickup unit, and
Selection to select one or more subjects as the selected subject based on the movement of the subject in the captured image acquired by the acquisition means and the information related to the field of view of the imaging unit or the viewing operation for the captured image. An information processing device characterized by being provided with means.
前記動きと前記情報とに基づいて、前記撮像画像における被写体に対する注目度を求める算出手段を更に備え、
前記選択手段は、前記算出手段がそれぞれの被写体について求めた注目度に基づいて、前記撮像画像における被写体から1以上の被写体を選択被写体として選択することを特徴とする請求項1に記載の情報処理装置。
Further provided with a calculation means for obtaining the degree of attention to the subject in the captured image based on the movement and the information.
The information processing according to claim 1, wherein the selection means selects one or more subjects from the subjects in the captured image as the selection subject based on the degree of attention obtained by the calculation means for each subject. Device.
前記算出手段は、前記動きと前記情報とを入力した学習済みモデルの出力を、前記注目度として求めることを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the calculation means obtains the output of the trained model in which the movement and the information are input as the degree of attention. 前記選択手段は、選択被写体の注目度が閾値未満になれば、該選択被写体以外の被写体の注目度に基づいて選択被写体の再選択を行うことを特徴とする請求項2または3に記載の情報処理装置。 The information according to claim 2 or 3, wherein the selection means reselects the selected subject based on the attention of a subject other than the selected subject when the attention of the selected subject becomes less than the threshold value. Processing equipment. 前記算出手段がそれぞれの被写体について求めた注目度に基づいて、該被写体をユーザに通知するための情報を表示する表示制御手段を更に備えることを特徴とする請求項2ないし4のいずれか1項に記載の情報処理装置。 One of claims 2 to 4, further comprising display control means for displaying information for notifying the user of the subject based on the degree of attention obtained by the calculation means for each subject. The information processing device described in. 前記表示制御手段は、前記被写体の注目度に応じた表示形態で、該被写体をユーザに通知するための情報を表示することを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the display control means displays information for notifying the user of the subject in a display form according to the degree of attention of the subject. 前記選択手段は、前記それぞれの被写体のうち選択対象を注目度に応じた順序で切り替え、該選択対象を選択被写体として選択することを特徴とする請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the selection means switches the selection target among the respective subjects in an order according to the degree of attention, and selects the selection target as the selection subject. 前記選択手段は、前記算出手段がそれぞれの被写体について求めた注目度に基づいて、該それぞれの被写体のうち特定の被写体を注目点として選択し、該注目点と、該注目点以外の被写体と、の相対的な位置の変化に基づき、該注目点以外の被写体から1以上の被写体を選択被写体として選択することを特徴とする請求項2に記載の情報処理装置。 The selection means selects a specific subject as a point of interest among the respective subjects based on the degree of attention obtained for each subject by the calculation means, and selects the point of interest and a subject other than the point of interest. The information processing apparatus according to claim 2, wherein one or more subjects are selected as selected subjects from subjects other than the point of interest based on the relative change in the position of the information processing apparatus. 前記撮像部の視野に係る情報は、前記撮像部の回転量、前記撮像部の加速度センサによる測定結果、前記撮像部の測距センサによる測定結果、前記撮像部の絞りの情報、前記撮像部が載置されている雲台のパン、チルト、前記撮像部のパン、チルト、ズームの制御情報、のいずれかであることを特徴とする請求項1ないし8のいずれか1項に記載の情報処理装置。 The information related to the visual field of the image pickup unit includes the rotation amount of the image pickup unit, the measurement result by the acceleration sensor of the image pickup unit, the measurement result by the distance measuring sensor of the image pickup unit, the aperture information of the image pickup unit, and the image pickup unit. The information processing according to any one of claims 1 to 8, wherein the pan and tilt of the mounted cloud stand, and the pan, tilt, and zoom control information of the image pickup unit are used. Device. 前記算出手段がそれぞれの被写体について求めた注目度は、複数の撮像画像における該被写体の注目度の平均であることを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the attention level obtained for each subject by the calculation means is the average of the attention levels of the subject in a plurality of captured images. 撮像部Aの撮像範囲から撮像部Bの撮像範囲への移動量と、該撮像部Aによる撮像画像における被写体の位置から該撮像部Bによる撮像画像における該被写体の位置への移動量とを取得する取得手段と、
前記撮像部Aの撮像範囲から前記撮像部Bの撮像範囲への移動量と、前記撮像部Aによる撮像画像における被写体の位置から前記撮像部Bによる撮像画像における該被写体の位置への移動量と、に基づいて、選択被写体として1以上の被写体を選択する選択手段と
を備えることを特徴とする情報処理装置。
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B are acquired. Acquisition method and
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B, and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B. An information processing apparatus comprising:, a selection means for selecting one or more subjects as a selection subject based on the above.
情報処理装置が行う情報処理方法であって、
撮像部により撮像された撮像画像を取得し、
前記取得された前記撮像画像における被写体の動きと、該撮像部の視野に係るもしくは該撮像画像に対する閲覧操作に係る情報と、に基づいて、選択被写体として1以上の被写体を選択する
ことを特徴とする情報処理方法。
It is an information processing method performed by an information processing device.
Acquires the captured image captured by the imaging unit and obtains it.
It is characterized in that one or more subjects are selected as the selected subject based on the movement of the subject in the acquired image and the information related to the field of view of the image pickup unit or the browsing operation for the captured image. Information processing method to do.
情報処理装置が行う情報処理方法であって、
撮像部Aの撮像範囲から撮像部Bの撮像範囲への移動量と、該撮像部Aによる撮像画像における被写体の位置から該撮像部Bによる撮像画像における該被写体の位置への移動量とを取得し、
前記撮像部Aの撮像範囲から前記撮像部Bの撮像範囲への移動量と、前記撮像部Aによる撮像画像における被写体の位置から前記撮像部Bによる撮像画像における該被写体の位置への移動量と、に基づいて、選択被写体として1以上の被写体を選択する
ことを特徴とする情報処理方法。
It is an information processing method performed by an information processing device.
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B are acquired. death,
The amount of movement from the imaging range of the imaging unit A to the imaging range of the imaging unit B, and the amount of movement from the position of the subject in the image captured by the imaging unit A to the position of the subject in the image captured by the imaging unit B. An information processing method characterized in that one or more subjects are selected as selected subjects based on.
コンピュータを、請求項1ないし11のいずれか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 11.
JP2020161325A 2020-09-25 2020-09-25 Information processing device and information processing method Pending JP2022054247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020161325A JP2022054247A (en) 2020-09-25 2020-09-25 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020161325A JP2022054247A (en) 2020-09-25 2020-09-25 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2022054247A true JP2022054247A (en) 2022-04-06

Family

ID=80994416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020161325A Pending JP2022054247A (en) 2020-09-25 2020-09-25 Information processing device and information processing method

Country Status (1)

Country Link
JP (1) JP2022054247A (en)

Similar Documents

Publication Publication Date Title
JP7282851B2 (en) Apparatus, method and program
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
US11842514B1 (en) Determining a pose of an object from rgb-d images
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
WO2018025831A1 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
CN111935393A (en) Shooting method, shooting device, electronic equipment and storage medium
JP2016099941A (en) System and program for estimating position of object
US10254831B2 (en) System and method for detecting a gaze of a viewer
JP2011198349A (en) Method and apparatus for processing information
JP5001930B2 (en) Motion recognition apparatus and method
JP4764172B2 (en) Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program
JP2018181273A (en) Image processing apparatus, method thereof, and program
CN113362441B (en) Three-dimensional reconstruction method, three-dimensional reconstruction device, computer equipment and storage medium
JP2013242728A (en) Image monitoring device
US12047674B2 (en) System for generating a three-dimensional scene of a physical environment
WO2023168957A1 (en) Pose determination method and apparatus, electronic device, storage medium, and program
JP2020053774A (en) Imaging apparatus and image recording method
JP2002366958A (en) Method and device for recognizing image
US11770551B2 (en) Object pose estimation and tracking using machine learning
Song et al. VTONShoes: Virtual try-on of shoes in augmented reality on a mobile device
CN113228117B (en) Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon
US20230177705A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2022054247A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113