JP2023140450A - Information processing device, information processing system, and information processing method - Google Patents
Information processing device, information processing system, and information processing method Download PDFInfo
- Publication number
- JP2023140450A JP2023140450A JP2022046296A JP2022046296A JP2023140450A JP 2023140450 A JP2023140450 A JP 2023140450A JP 2022046296 A JP2022046296 A JP 2022046296A JP 2022046296 A JP2022046296 A JP 2022046296A JP 2023140450 A JP2023140450 A JP 2023140450A
- Authority
- JP
- Japan
- Prior art keywords
- person
- related object
- information processing
- length
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 132
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims abstract description 173
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000010586 diagram Methods 0.000 description 39
- 238000012545 processing Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理システム及び情報処理方法に関する。 The present invention relates to an information processing device, an information processing system, and an information processing method.
画像に写る人物と関連する物体の情報を取得する方法が知られている。 2. Description of the Related Art A method is known for acquiring information about objects related to a person in an image.
例えば、特許文献1には、撮像された画像から人物の身体の少なくとも一部を表す人物領域を検出し、人物領域に応じて設定される抽出領域に基づいて人物と関連する物体を検出する画像認識システムが開示されている。 For example, Patent Document 1 describes an image in which a person area representing at least a part of the person's body is detected from a captured image, and objects related to the person are detected based on an extraction area set according to the person area. A recognition system is disclosed.
特許文献1によれば、人物の所持する物体を検出することができるものの、その物体をどのように携帯しているかまでは推定することができていなかった。 According to Patent Document 1, although it is possible to detect an object carried by a person, it is not possible to estimate how the object is being carried.
本開示の目的は、上述した課題に鑑み、人物が所持する物体の携帯方法を推定することができる情報処理装置、情報処理システム及び情報処理方法を提供することにある。 In view of the above-mentioned problems, an object of the present disclosure is to provide an information processing device, an information processing system, and an information processing method that are capable of estimating how a person carries an object.
本開示の情報処理装置は、画像を取得する画像取得部と、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、を備える。 An information processing device of the present disclosure includes an image acquisition unit that acquires an image, an object detection unit that detects an area including a person and an area including an object other than the person from the image, and an object that has a predetermined relationship with the person. The apparatus includes a related object specifying section that specifies a related object as a related object, and a carrying method estimating section that estimates a carrying method of the related object based on a region including the related object.
本開示の情報処理システムは、画像を取得する画像取得手段と、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、人物と所定の関係にある物体を関連物体として特定する関連物体特定手段と、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、を備える。 The information processing system of the present disclosure includes an image acquisition unit that acquires an image, an object detection unit that detects from the image an area including a person and an area including an object other than the person, and an object that has a predetermined relationship with the person. The apparatus includes a related object specifying means for specifying a related object as a related object, and a carrying method estimating means for estimating a carrying method for the related object based on a region including the related object.
本開示の情報処理方法は、画像を取得し、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、人物と所定の関係にある物体を関連物体として特定し、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する。 The information processing method of the present disclosure acquires an image, detects an object that detects a region including a person and a region including an object other than the person from the image, and selects an object that has a predetermined relationship with the person as a related object. and estimating a carrying method for the related object based on a region including the related object.
本開示により、人物が所持する物体の携帯方法を推定することが可能な情報処理装置及び情報処理方法を提供することができる。 According to the present disclosure, it is possible to provide an information processing device and an information processing method that are capable of estimating how a person carries an object.
<実施形態1>
本開示における実施形態1について、図1および図2を用いて説明する。
図1は、実施形態1の情報処理装置10の構成を示すブロック図である。図1に示すように、情報処理装置10は、画像取得部11と、物体検出部12と、関連物体特定部13と、携帯方法推定部14と、を備える。
<Embodiment 1>
Embodiment 1 of the present disclosure will be described using FIGS. 1 and 2.
FIG. 1 is a block diagram showing the configuration of an
画像取得部11は、画像を取得する。物体検出部12は、画像から、人物を含む領域と人物以外の物体を含む領域を検出する。なお、人物以外の物体は、例えば、人物が携帯可能な物体である。人物が携帯可能な物体は、家具、果物、楽器、工具、器具などに分類される種々の物体を含んでいてもよい。関連物体特定部13は、人物と所定の関係にある物体を関連物体として特定する。なお、所定の関係とは、人物が物体を携帯していることを含む。人物が物体を携帯していることとは、例えば、人物が物体を手に持っていること、などである。また、所定の関係にあることは、例えば、人物と物体との距離に基づいて判定してもよい。携帯方法推定部14は、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する。なお、携帯方法は、例えば、人物が物体を地面に対して垂直にして携帯していること、人物が物体を地面に対して水平にして携帯していること、人物が物体を地面に対して角度をつけて携帯していることを含んでいてもよい。
The
次に、図2を用いて、人物が所持する物体の携帯方法を推定する処理について説明する。図2は、実施形態1の情報処理装置10が行う処理を例示するフローチャートである。まず始めに、画像取得部11は、画像を取得する(S101)。続く処理において、物体検出部12は、画像から、人物を含む領域と人物以外の物体を含む領域を検出する(S102)。次に、関連物体特定部13は、人物と所定の関係にある物体を関連物体として特定する(S103)。そして、携帯方法推定部14は、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する(S104)。
Next, with reference to FIG. 2, a process for estimating the method of carrying an object owned by a person will be described. FIG. 2 is a flowchart illustrating processing performed by the
このように、実施形態1の情報処理装置10は、画像に写る人物と人物以外の物体とに基づいて、人物と所定の関係にある物体を関連物体として特定する。また、関連物体を含む領域に基づいて、関連物体がどのように持たれているかを推定する。これにより、人物が物体をどのように持っているかを推定することができる。
In this manner, the
<実施形態2>
図3から図8を用いて、本開示の実施形態2について説明する。図3は、実施形態2の情報処理装置20の構成を示すブロック図である。図3に示すように、情報処理装置20は、画像取得部21と、物体検出部22と、関連物体特定部23と、携帯方法推定部24と、を備える。
<Embodiment 2>
Embodiment 2 of the present disclosure will be described using FIGS. 3 to 8. FIG. 3 is a block diagram showing the configuration of the
画像取得部21は、画像取得手段を担い、種々の装置から画像を取得する。種々の装置は、例えば、撮像装置、携帯端末、記憶装置などである。撮像装置は、特定のエリアを監視する監視カメラに限らず、人物が装着可能なウェアラブルカメラ、ドローン、車載カメラなどであってもよい。携帯端末は、スマートフォンなどの可搬性を有した端末などであってもよい。記憶装置は、データベースやクラウドストレージなどであってもよい。また、このような種々の装置は、情報処理装置20と一体に構成されていてもよい。
The
物体検出部22は、物体検出手段を担い、画像から人物を含む領域と、人物以外の物体を含む領域を検出する。物体検出部22は、人物の特徴量を学習しており、画像から人物を検出する。また、人物以外の物体の特徴量を学習しており、人物以外の物体を検出する。人物以外の物体は、人物が携帯可能な物体である。人物が携帯可能な物体は、例えば、家具、果物、楽器、工具、器具などのクラスに分類される物体を含んでいてもよい。また、これらのクラスに分類される物体に限らず、ImageNetやOpenImageなどの既知のデータセットにおいて種々のクラスに分類される物体を含んでいてもよい。
The
上述したオブジェクトの検出には、例えば、R‐CNN(Region Based Convolutional Neural Networks)、YOLO(You Look Only Onse)、SSD(Single Shot multibox Detector)などの手法を用いることができる。なお、物体検出部22は、人物を含む領域を検出する処理と、人物以外の物体を含む領域を検出する処理とを異なる方法によって実現してもよい。また、物体検出部22は、人物を含む領域を検出する第1検出部と、人物以外の物体を含む領域を検出する第2検出部に分けて構成してもよい。さらには、第1検出部と第2検出部とが異なる装置に組み込まれていてもよい。
To detect the above-mentioned objects, for example, R-CNN (Region Based Convolutional Neural Networks), YOLO (You Look Only Once), SSD (Single Shot multibox Detector), etc. method can be used. Note that the
関連物体特定部23は、物体特定手段を担い、物体検出部22によって検出された人物を含む領域と人物以外の物体を含む領域に基づいて、人物と所定の関係にある物体を関連物体として特定する。所定の関係とは、人物が物体を携帯していることを含む。人物が物体を携帯していることとは、例えば、人物が物体を手に持っていること、などである。関連物体特定部23は、関連物体が複数存在する場合には、複数の関連物体を特定することもできる。
The related
関連物体を特定する方法としては、例えば、人物と物体との距離が基準距離よりも短い物体を関連物体として特定する方法などが挙げられる。基準距離は、事前に設定した値を用いてもよいし、適宜補正した値を用いてもよい。基準距離を補正する場合には、検出された人物や物体に応じて補正を行うようにしてもよい。例えば、検出された人物または物体の大きさが小さいほど基準距離を短く補正する、といった具合である。この他にも、検出された人物や物体の位置が画像の中央から離れているほど基準距離を長くするように補正してもよい。 Examples of a method for specifying related objects include a method for specifying, as a related object, an object in which the distance between the person and the object is shorter than a reference distance. As the reference distance, a value set in advance may be used, or a value corrected as appropriate may be used. When correcting the reference distance, the correction may be performed depending on the detected person or object. For example, the smaller the size of the detected person or object, the shorter the reference distance is corrected. In addition to this, the reference distance may be corrected to be longer as the position of the detected person or object is farther from the center of the image.
人物と物体との距離は、人物を含む領域上に設定した点と、人物以外の物体を含む領域上に設定した点とを結んだ直線の距離を用いて算出してもよい。さらには、人物を構成する身体のパーツの位置を考慮して、人物を含む領域上に点を設定するようにしてもよい。例えば、身体パーツとして手の位置を特定し、手の位置に人物上の点を設定する、といった具合である。なお、人物を構成する身体のパーツを求める場合には、既知の骨格推定技術を用いてもよいし、身体のパーツ毎の特徴量を学習した学習器を用いて、所望の身体パーツの位置を特定するようにしてもよい。 The distance between a person and an object may be calculated using the distance of a straight line connecting a point set on an area containing a person and a point set on an area containing an object other than the person. Furthermore, points may be set on a region including the person, taking into account the positions of the body parts that make up the person. For example, the position of a hand is specified as a body part, and a point on a person is set at the position of the hand. Note that when determining the body parts that make up a person, you may use known skeletal estimation technology, or you can use a learning device that has learned the features of each body part to find the position of the desired body part. It may be specified.
携帯方法推定部24は、携帯方法推定手段を担い、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する。携帯方法推定部24は、携帯方法として、例えば、人物が物体を地面に対して垂直にして携帯していることを推定する。また、人物が物体を地面に対して水平にして携帯していることを推定する。さらに、人物が物体を地面に対して角度をつけて携帯していることを推定する。また、後述する定義に基づいて、より具体的な携帯方法として、関連物体を縦持ち、横持ち、斜持ちしているかを推定する。なお、縦持ちは、人物が物体を地面に対して垂直にして携帯していることを示す推定結果の一例である。また、横持ちは、人物が物体を地面に対して水平にして携帯していることを示す推定結果の一例である。さらに、斜持ちは、人物が物体を地面に対して角度をつけて携帯していることを示す推定結果の一例である。
The carrying
ここで、図4を用いながら、携帯方法の推定の仕方ついて説明する。図4は、携帯方法の推定の仕方を説明するための図である。図4には、人物と、傘を写した画像100を示している。携帯方法推定部24は、関連物体特定部23によって特定された関連物体を含む領域110から第1の長さ120と、第2の長さ130を取得する。図4に示す例では、関連物体特定部23は、傘を関連物体として特定しており、関連物体を含む領域110から第1の長さ120と、第2の長さ130を取得している。ここで、第1の長さ120は、関連物体を含む領域110において第1の方向に沿った長さである。また、第2の長さ130は、関連物体を含む領域110において第2の方向に沿った長さである。ここでは、第1の方向を画像の縦方向、第2の方向を画像の横方向として説明する。なお、第1の方向および第2の方向は、人物を含む領域に基づいて定めてもよい。例えば、人物の高さ方向に沿う方向を第1の方向とし、第1の方向と直行する方向を第2の方向とする、といった具合である。
Here, a method of estimating the carrying method will be explained using FIG. 4. FIG. 4 is a diagram for explaining how to estimate the carrying method. FIG. 4 shows an
そして、第1の長さ120と第2の長さ130とを比較する。比較の結果、第1の長さ120のほうが第2の長さ130よりも長い場合(第1の長さ120>第2の長さ130)、関連物体が縦持ちされていると判定する。これに対して、第1の長さ120よりも第2の長さ130のほうが長い場合(第1の長さ120<第2の長さ130)、関連物体が横持ちされていると判定する。さらに、第1の長さ120と第2の長さ130とが等しい場合(第1の長さ120=第2の長さ130)、関連物体が斜持ちされていると判定する。
Then, the
関連物体を含む領域110における第1の長さ120と第2の長さ130は、例えば、図5に示す方法によって求めてもよい。図5は、関連物体を含む領域110の長さを求める方法を説明するための図である。第1の長さ120は、図5に示すように、関連物体を含む領域110上に設定した点121および点122の距離を求めることによって取得してもよい。より詳細には、画像100の縦方向における点121と点122までの距離を求めればよい。なお、点121と点122の組み合わせは、計算によって自動的に求めるようにしてもよい。例えば、点121と点122との距離が最も長くなる組み合わせを探索する、といった具合である。
The
また、同様に第2の長さ130は、関連物体を含む領域110上に設定した点131および点132の距離を求めることによって取得してもよい。より詳細には、画像100の縦方向と直行する方向における点131と点132までの距離を求めればよい。
Similarly, the
携帯方法推定部24は、縦持ちと横持ちの判定に際し、第1の長さ120と第2の長さ130との差が所定の長さ以上長いことを、さらに判定するようにしてもよい。これにより、第1の長さ120と第2の長さ130との差が小さい場合に、携帯方法の推定結果がばらつくことを抑制できる。また、斜持ちの判定に際しては、第1の長さ120と第2の長さ130との差が所定の長さよりも短いことを判定するようにしてもよい。これにより、第1の長さ120と、第2の長さ130との間に多少の差があったとしても、関連物体を斜持ちしていると判定することができる。
The carrying
また、関連物体を含む領域110は、図4、5に示したような関連物体を囲う矩形の領域に限らず、図6A、図6Bに示すように様々な形状であってもよい。図6A、図6Bは、関連物体を含む領域110の形状について説明するための図である。例えば、図6Aに示す関連物体を含む領域111のように、領域の形状が関連物体を囲う円であってもよい。また、図6Bに示す関連物体を含む領域のように、関連物体に沿った形状であってもよい。
Further, the
携帯方法推定部24は、第1の長さ120と第2の長さ130との大小関係に基づいて、持ち方を推定することに限らず、様々な方法によって携帯方法を推定してもよい。例えば、第1の長さ120と第2の長さ130との比に基づいて、関連物体の携帯方法を推定してもよい。そのような場合には、第1の長さ120に対する第2の長さ130の比が1を下回る場合に、関連物体を縦持ちしていると推定してもよい。また、第1の長さ120に対する第2の長さ130の比が1を上回る場合に、関連物体を横持ちしていると推定してもよい。さらには、第1の長さ120に対する第2の長さ130の比が1と等しい場合に、関連物体を斜持ちしていると推定してもよい。このような第1の長さ120に対する第2の長さ130の比率として、関連物体を含む領域110の縦横比を用いてもよい。
The carrying
次に、図7を用いて、人物が所持する物体の携帯方法を推定する処理について説明する。図7は、実施形態2の情報処理装置20が行う情報処理方法を例示するフローチャートである。
Next, with reference to FIG. 7, a process for estimating the method of carrying an object owned by a person will be described. FIG. 7 is a flowchart illustrating an information processing method performed by the
画像取得部21は、種々の装置から画像100を取得する(S201)。続いて、物体検出部22は、画像取得部21が取得した画像100から、人物を含む領域と人物以外の物体を含む領域を検出する(S202)。そして、関連物体特定部23は、物体検出部22によって検出された人物と所定の関係にある人物以外の物体を関連物体として特定する(S203)。
The
携帯方法推定部24は、関連物体特定部23によって特定された関連物体を含む領域110から第1の長さ120と第2の長さ130を取得する(S204)。その後、第1の長さ120と第2の長さ130とが等しいかを判定する(S205)。S205において等しいと判定した場合、人物が物体を地面に対して角度をつけて携帯していることを出力する。関連物体が斜めに持たれていることを出力して(S206)、フローを終了する。
The carrying
一方、S205において第1の長さ120と第2の長さ130が等しくないと判定した場合は、さらに第1の長さ120が第2の長さ130よりも長いか否かを判定する(S207)。そして、S207の判定において、第1の長さ120が第2の長さ130よりも長いと判定した場合、関連物体が縦に持たれていることを出力して(S208)、フローを終了する。これに対して、S207の判定において第1の長さ120が第2の長さ130よりも長くないと判定した場合、関連物体が横に持たれていることを出力して(S209)、フローを終了する。
On the other hand, if it is determined in S205 that the
なお、S206では、関連物体の携帯方法として、斜持ちしていることを出力するようにしたが、出力の態様はこれに限定されない。斜持ちに替えて、人物が物体を地面に対して角度をつけて携帯していることを示す種々の出力を行うようにしてもよい。同様に、S208の処理によって得られる出力は、縦持ちに限らず、人物が物体を地面に対して垂直にして携帯していることを示す種々の出力であってもよい。さらに、S209の処理によって得られる出力は、横持ちに限らず、人物が物体を地面に対して水平にして携帯していることを示す種々の出力であってもよい。 Note that in S206, the method of carrying the related object is to output that the related object is held diagonally, but the output mode is not limited to this. Instead of holding the object diagonally, various outputs may be provided to indicate that the person is holding the object at an angle to the ground. Similarly, the output obtained by the process of S208 is not limited to holding the object vertically, but may be various outputs indicating that the person is holding the object perpendicular to the ground. Furthermore, the output obtained by the process of S209 is not limited to horizontal carrying, but may be various outputs indicating that the person is carrying the object horizontally with respect to the ground.
次に、実施形態2に係る情報処理装置20の使用例について、図8A~図8Dを用いて説明する。図8A~図8Dは、実施形態2の情報処理装置20の使用例を説明するための図である。図8Aには、傘Bを所持した人物Aを監視カメラ210が撮影している状況について示している。このような状況において、情報処理装置20は、監視カメラ210と連携し、画像100を取得する。
Next, an example of use of the
情報処理装置20は、画像100から人物を含む領域と、人物以外の物体を含む領域を検出する。これにより、図8Bに示すように、人物を含む領域101と、人物以外の物体を含む領域102が検出される。そして、情報処理装置20は、図8Cに示すように、検出した人物を含む領域101の上に設定した点151と、人物以外の物体を含む領域102の上に設定した点152とを結んだ直線の距離が基準距離未満であるかを判定する。これにより、人物以外の物体を含む領域102は、関連物体を含む領域110であるかが特定される。
The
そして、図8Dに示すように、情報処理装置20は、関連物体を含む領域110から第1の長さ120と第2の長さ130を取得する。そして、情報処理装置20は、第1の長さ120と、第2の長さ130を比較する。比較の結果、この例では、第1の長さ120は、第2の長さ130よりも長くないと判定される。これにより、関連物体が横持ちされていると推定する。
Then, as shown in FIG. 8D, the
このように、実施形態2の構成によれば、関連物体特定部23によって、人物と所定の関係にある物体を関連物体として特定することができる。また、携帯方法推定部24よって、関連物体を含む領域110に基づいて、関連物体がどのように携帯されているかを推定することができる。これにより、人物が物体をどのように携帯しているかを推定することができる。
In this way, according to the configuration of the second embodiment, the related
なお、本開示における実施形態2は、上述した態様に限らず、例えば次のように構成されてもよい。
情報処理装置20は、物体検出部22が検出した人物について、人物ごとに処理の履歴を記録するように構成してもよい。また、処理の履歴は、関連物体の携帯方法を推定する処理を行っていないことを含んでいてもよい。さらには、画像ごとの推定結果を同一の人物に紐づけるようにしてもよい。このような構成によれば、既に関連物体の携帯方法を推定する処理を行った人物に対して同様の処理が繰り返し行われることを抑制することができる。また、特定の画像から関連物体の携帯方法を推定することができなかった場合、他の画像から推定された携帯方法を考慮して、その人物が関連物体をどのように持っているかを推定することができる。
Note that the second embodiment of the present disclosure is not limited to the above-described aspect, and may be configured as follows, for example.
The
また、物体検出部22は、人物以外の物体を含む領域102を検出するうえで、長尺物以外の物体の検出を抑制するように構成してもよい。もしくは、長尺物以外の物体を検出しないように構成してもよい。このような構成によれば、携帯方法の推定に適さない関連物体に対して、携帯方法の推定が行われることを抑制できる。
Further, the
より詳細に説明すると、正方形の物体を関連物体として特定した場合、関連物体を含む領域110から求まる第1の長さ120と第2の長さ130は等しくなる。そのため、携帯方法推定部24は、実際の携帯方法に依らず、正方形の物体を常に斜持ちしていると推定してしまう。これに対して、物体検出部22が長尺物以外の物体の検出を抑制する、もしくは、検出しないように構成した場合、正方形の物体が検出されることを抑制できる。そのため、携帯方法の推定に適さない物体に対して携帯方法の推定が行われることを抑制できる
To explain in more detail, when a square object is specified as a related object, the
また、携帯方法推定部24は、携帯方法の推定結果が所定回数以上同じであった場合、推定した携帯方法を出力するようにしてもよい。さらには、同じ携帯方法をしていると推定した時間が所定時間以上継続した場合、推定した携帯方法を出力するようにしてもよい。このような構成によれば、携帯方法の推定精度を向上させることができる。
Further, the carrying
<実施形態3>
図9から図11を用いて、本開示の実施形態3について説明する。本実施形態の情報処理装置は、前述の実施形態1または2の情報処理装置に対して、領域調整部をさらに備える点で相違する。
<Embodiment 3>
Embodiment 3 of the present disclosure will be described using FIGS. 9 to 11. The information processing apparatus of this embodiment is different from the information processing apparatus of the first or second embodiment described above in that it further includes an area adjustment section.
図9は、実施形態3の情報処理装置30の構成を示すブロック図である。情報処理装置30は、少なくとも画像取得部31と、物体検出部32と、関連物体特定部33と、携帯方法推定部34と、領域調整部35と、を備える。
FIG. 9 is a block diagram showing the configuration of the
領域調整部35は、画像に関する情報と、人物の情報と、人物以外の物体の情報とのいずれかに基づいて、関連物体を含む領域に関する情報を補正する。画像に関する情報は、画像を生成した装置の情報を含んでいてもよい。画像を生成した装置の情報は、例えば、撮像装置の位置や、撮像方向、俯角、レンズの倍率などを含んでいてもよい。人物の情報は、画像上の人物の位置や、人物の移動方向などを含んでいてもよい。人物以外の物体の情報は、画像上の人物以外の物体の位置や、人物以外の物体の移動方向などを含んでいてもよい。なお、人物の情報や、人物以外の物体の情報は、過去に取得した画像を考慮して求めたものであってもよい。例えば、特定の時刻における人物または物体の画像上の位置や、人物または物体の動線などである。
The
ここで、図10A~図10Dを用いて、関連物体を含む領域に関する情報を補正する方法について説明する。図10A~図10Dは、関連物体を含む領域に関する情報を補正する方法について説明するための図である。図10Aには、紙面左下方向に向かって歩行する人物が傘を携帯している様子を写した画像100を示している。
Here, a method for correcting information regarding a region including a related object will be described using FIGS. 10A to 10D. FIGS. 10A to 10D are diagrams for explaining a method of correcting information regarding a region including a related object. FIG. 10A shows an
領域調整部35は、人物の情報に基づいて、関連物体を含む領域に関する情報を補正する。ここでは、人物の情報として、人物の移動方向を用いている。まず始めに、領域調整部35は、画像100に写る人物の移動方向を求める。人物の移動方向は、例えば、人物の視線や人物の動線などから求めることができる。また、オプティカルフローなどを解析することによって求めるようにしてもよい。そして、人物の移動方向と、基準方向とで成す角度を求める。基準方向は、例えば、画像100における縦方向または横方向を用いてもよい。ここでは、基準方向を画像100における横方向として説明する。これにより、図10Bに示すような、人物の移動方向Vと基準方向とで成す角度Θが求まる。なお、この例では、人物の移動方向と基準方向とで成す角度を求めているが、人物の移動方向に変えて、物体の移動方向と基準方向とで成す角度を求めるようにしてもよい。
The
そして、領域調整部35は、画像100から特定した関連物体を含む領域に関する情報を補正する。例えば、図10Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130に対して、角度を引数とした所定の関数を乗算する、といった具合である。このような処理の結果、図10Dに示すように、第1の長さ120と第2の長さ130を補正した、補正後の第1の長さ125と補正後の第2の長さ135を求めることができる。
Then, the
領域調整部35は、上述した人物の移動方向に基づいて補正を行う方法に限らず、次のような方法によって補正を行うようにしてもよい。例えば、画像100を生成した装置に関する情報に基づいて補正を行う場合、撮像装置の位置や、撮像方向、俯角、レンズの倍率などを引数とした関数を定義するようにしてもよい。このような関数は、例えば、関連物体を特定の視点や距離から撮像した場合に検出される関連物体を含む領域の大きさまたは位置へ変換するためのものであってもよい。
The
また、領域調整部35は、関連物体を含む領域110における第1の長さ120と、第2の長さ130に限らず、様々な関連物体を含む領域に関する情報を補正してもよい。例えば、第1の長さに対する第2の長さの比率を補正する、といった具合である。
Further, the
次に、図11を用いて、補正後の関連物体を含む領域に関する情報に基づいて、関連物体の携帯方法を推定する処理について説明する。図11は、実施形態3の情報処理装置30が行う処理を例示するフローチャートである。なお、前述の実施形態と重複する処理については、一部説明を省略している。
Next, with reference to FIG. 11, a process of estimating a method of carrying a related object based on information regarding a region including the corrected related object will be described. FIG. 11 is a flowchart illustrating processing performed by the
情報処理装置30は、前述の実施形態と同様に、画像100から関連物体を含む領域110を特定する(S301~S303)。また、情報処理装置30は、関連物体を含む領域110から第1の長さ120と、第2の長さ130を求める(S304)。
The
次に、領域調整部35は、画像に関する情報を取得する(S305)。そして、領域調整部35は、取得した画像に関する情報に基づいて、関連物体を含む領域に関する情報を補正する(S306)。この処理において補正される情報は、例えば、S304によって取得された関連物体を含む領域110における第1の長さ120と第2の長さ130である。その後、情報処理装置30は、補正後の第1の長さ125と第2の長さ135に基づいて、関連物体の携帯方法を推定する(S307~S311)。
Next, the
なお、図11に例示したフローチャートに記載の処理順序に限らず、領域調整部35は、S301によって画像を取得した後に、画像に関する情報を取得する処理(S305)を実行するようにしてもよい。また、同様にS306の処理の一部を、S302~S304に先行して実行するようにしてもよい。S306の処理の一部は、画像に関する情報に基づいて補正項を算出する処理などである。さらに、領域調整部35は、S305およびS306の処理の一部を、S302~S304と並行して実行するようにしてもよい。
Note that the processing order is not limited to the processing order described in the flowchart illustrated in FIG. 11, and the
このように、実施形態3の構成によれば、領域調整部35によって、画像100に関する情報に基づいて、関連物体を含む領域に関する情報を補正することができる。これにより、画像に写る人物や人物以外の物体の位置や向きを考慮して、関連物体の携帯方法を推定することができる。
In this manner, according to the configuration of the third embodiment, the
<実施形態4>
図12から図15用いて、本開示の実施形態4について説明する。本実施形態の情報処理装置は、前述の実施形態1から3に記載の情報処理装置のいずれかに対して、さらに詳細特定部を備える点で相違する。
<Embodiment 4>
Embodiment 4 of the present disclosure will be described using FIGS. 12 to 15. The information processing apparatus of this embodiment is different from any of the information processing apparatuses described in Embodiments 1 to 3 described above in that it further includes a detailed specifying section.
図12は、実施形態4の情報処理装置40の構成を示すブロック図である。情報処理装置40は、少なくとも画像取得部41と、物体検出部42と、関連物体特定部43と、携帯方法推定部44と、詳細特定部46と、を備える。
FIG. 12 is a block diagram showing the configuration of the
詳細特定部46は、関連物体の携帯方法に基づいて、関連物体の詳細を特定する。また、関連物体の携帯方法が所定の携帯方法である場合、詳細特定部46は、関連物体の詳細を特定する。関連物体の詳細は、例えば、関連物体の具体的な名称に限らず、形状、色、大きさなどを含んでいてもよい。また、関連物体の詳細を特定する処理は、特定の物体を検出するために調整された検出器を用いることによって実現してもよい。例えば、関連物体を地面に対して角度をつけて携帯していることが推定された場合、第1の検出器を用いる、といった具合である。第1の検出器は、例えば、白杖などの地面に対して角度をつけて携帯することが想定される物体を検出するための検出器である。同様に、関連物体を地面に対して垂直にして携帯していることが推定された場合、第2の検出器を用いてもよい。第2の検出器は、例えば、傘などの地面に対して垂直にして携帯することが想定される物体を検出するための検出器である。さらには、関連物体を地面に対して水平にして携帯していることが推定された場合、第3の検出器を用いるようにしてもよい。第3の検出器は、カバンなどの地面に対して水平にして携帯することが想定される物体を検出するための検出器である。
The
第1の検出器は、複数の検出器を有していてもよい。同様に、第2の検出器や第3の検出器が複数の検出器を有していてもよい。さらに、第1の検出器は、第2の検出器または第3の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。同様に、第2の検出器は、第1の検出器または第3の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。また、第3の検出器は、第1の検出器または第2の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。 The first detector may include multiple detectors. Similarly, the second detector and the third detector may have a plurality of detectors. Furthermore, the first detector may be capable of detecting the same type of object that the second detector or the third detector is capable of detecting. Similarly, the second detector may be capable of detecting the same type of object that the first detector or the third detector is capable of detecting. Further, the third detector may be capable of detecting the same type of object as the first detector or the second detector.
さらには、第1の検出器が複数の検出器から構成される場合、特定の検出器に対してラベルを付与してもよい。ラベルは、例えば「歩行補助具」、「雨具」といったものである。同様に、第2の検出器や第3の検出器を構成する複数の検出器に対してもラベルを付与してもよい。 Furthermore, when the first detector is composed of a plurality of detectors, a label may be given to a specific detector. Examples of the labels include "walking aid" and "rain gear." Similarly, labels may be given to a plurality of detectors constituting the second detector and the third detector.
なお、詳細特定部46は、必ずしも第1の検出器と第2の検出器と第3の検出器とを備えている必要はなく、いずれかのみを備えるように構成してもよい。そのような場合、関連物体が特定の携帯方法であると推定された時以外は、関連物体の詳細を特定せずに処理を終了するようにしてもよい。
Note that the
関連物体の詳細を特定する処理は、上述の検出器を用いた方法に限らず、携帯方法を検索キーとして含むデータベースを検索することによって特定するものであってもよい。 The process of identifying details of the related object is not limited to the method using the above-described detector, but may also be performed by searching a database that includes the carrying method as a search key.
また、携帯方法推定部44によって推定された携帯方法に加えて、参考情報を考慮して関連物体の詳細を特定するようにしてもよい。参考情報は、例えば、人物の属性を含んでいてもよい。人物の属性は、年齢、性別、表情といった情報などである。これにより、高齢者であることを示す参考情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。
Further, in addition to the carrying method estimated by the carrying
上述した例に限らず、参考情報は、環境に関する情報を含んでいてもよい。環境に関する情報は、例えば、交差点、駅の構内、点字ブロックが設けられた通路といった、場所や施設、設備の有無を示す情報などである。これにより、点字ブロックの周辺に関連物体が存在することを示す参考情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。 The reference information is not limited to the example described above, and may include information regarding the environment. The information regarding the environment includes, for example, information indicating the presence or absence of locations, facilities, and equipment, such as intersections, station premises, and passageways with Braille blocks. As a result, when reference information indicating that a related object exists around a Braille block is obtained, processing can be performed such as giving priority to a detector labeled as "walking aid". I can do it.
さらに参考情報は、外部の情報提供装置から取得した情報を含んでいてもよい。このような外部の情報提供装置から取得した情報は、例えば、天候や、交通に関する情報が挙げられる。これにより、雨や雪などの情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。 Further, the reference information may include information obtained from an external information providing device. Examples of the information acquired from such an external information providing device include information regarding the weather and traffic. As a result, when information such as rain or snow is acquired, it is possible to perform processing such as preferentially applying a detector labeled with a "walking aid" label.
次に、図13を用いて、推定した携帯方法に基づいて所定の処理を実行するまでの一連の流れについて説明する。図13は、実施形態4の情報処理装置40が行う処理を例示するフローチャートである。なお、前述の実施形態1から3と重複する処理については、一部説明を省略している。
Next, a series of steps up to executing a predetermined process based on the estimated carrying method will be described using FIG. 13. FIG. 13 is a flowchart illustrating processing performed by the
情報処理装置40は、前述の実施形態1から3と同様に、関連物体の携帯方法を推定する(S401~S404)。次に、詳細特定部46は、関連物体が斜持ちされているか判定を行う(S405)。そして、関連物体が斜持ちされていると判定した場合、第1の検出器を用いて関連物体の詳細を特定する処理を行い(S406)、フローを終了する。
The
一方、関連物体が斜持ちされていると判定されなかった場合、関連物体は縦持ちされているかを判定する(S407)。そして、関連物体が縦持ちされていると判定した場合、第2の検出器を用いて関連物体の詳細を特定する処理(S408)を行い、フローを終了する。 On the other hand, if it is not determined that the related object is held diagonally, it is determined whether the related object is held vertically (S407). If it is determined that the related object is held vertically, a process of specifying details of the related object using the second detector (S408) is performed, and the flow ends.
また、S407において、関連物体は縦持ちされていると判定されなかった場合、第3の検出器を用いて関連物体の詳細を特定する処理(S409)を行い、フローを終了する。 Further, if it is determined in S407 that the related object is not held vertically, a process of specifying details of the related object using the third detector (S409) is performed, and the flow ends.
なお、図13に例示したフローチャートでは、第1の検出器または、第2の検出器、第3の検出器のいずれかによって、関連物体の詳細を特定するようにしたが、携帯方法の判定を一部除いてフローを構成するようにしてもよい。例えば、S405の処理において、関連物体が斜めに持たれていると判定されなかった場合、S407を実行せずにフローを終了する、といった具合である。また、S405とは異なる方法を用いて、関連物体が地面に対して角度をつけて携帯されていることを判定するようにしてもよい。同様に、S407とは異なる方法を用いて関連物体が地面に対して垂直にして携帯されていることを判定するようにしてもよい。そして、これらの判定結果に応じた検出器を用いて関連物体の詳細を特定するようにしてもよい。 Note that in the flowchart illustrated in FIG. 13, the details of the related object are specified using either the first detector, the second detector, or the third detector. The flow may be configured with some exceptions. For example, in the process of S405, if it is not determined that the related object is being held diagonally, the flow may be ended without executing S407. Alternatively, a method different from S405 may be used to determine whether the related object is being carried at an angle to the ground. Similarly, a method different from S407 may be used to determine whether the related object is being carried perpendicular to the ground. Then, the details of the related object may be specified using a detector according to these determination results.
次に、実施形態4の情報処理装置40の使用例について、図14A~図14Dを用いて説明する。図14A~図14Dは、実施形態4の情報処理装置40の使用例を説明するための図である。
Next, an example of how the
ここで取りあげる使用例では、図14Aに示すように、白杖Cを所持した人物Aを監視カメラ210で撮影している状況を想定して説明を行う。情報処理装置40は、監視カメラ210と連携し、画像100を取得する。そして、情報処理装置40は、画像100から人物を含む領域101と、人物以外の物体を含む領域102を検出する。これにより、図14Bに示すように、人物を含む領域101と、人物以外の物体を含む領域102が検出される。
In the usage example to be discussed here, a situation will be described assuming that a person A carrying a white cane C is photographed by the
情報処理装置40は、人物を含む領域101と、人物以外の物体を含む領域102に基づいて、検出した人物と人物以外の物体とが関連物体であるかを特定する。さらに、情報処理装置40は、関連物体として特定された人物以外の物体を含む領域102を、関連物体を含む領域110として、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得する。これにより、図14Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得することができる。この例では、第1の長さ120と第2の長さ130とが等しいため、関連物体を含む領域110に含まれる関連物体は、人物を含む領域101内の人物に斜持ちされていると推定される。
The
その後、情報処理装置40は、図14Dに示すように、第1の検出器170、第2の検出器171、第3の検出器172の中から、携帯方法に応じて検出器を選択する。この例における第1の検出器170は、関連物体が斜持ちされていると推定された場合に適用される検出器であり、白杖を検出することができる。一方、第2の検出器171および第3の検出器172は、関連物体が縦持ちまたは横持ちされている
と推定された場合に適用される検出器であり、歩行杖または傘を検出するための検出器として示している。この例では、情報処理装置40は、関連物体が斜持ちされていると推定したため、第1の検出器170を用いて、関連物体の詳細を特定する。以上の処理により、情報処理装置40は、関連物体が白杖であることを特定する。
Thereafter, the
このように、実施形態4の構成によれば、詳細特定部46によって、推定した携帯方法に応じて関連物体の詳細を特定することができる。これにより、携帯方法に応じて関連物体の詳細を特定することができる。
In this way, according to the configuration of the fourth embodiment, the
<実施形態5>
図15から図17A~図17D用いて、本開示の実施形態5について説明する。本実施形態の情報処理装置は、前述の実施形態1から4に記載の情報処理装置のいずれかに対して、さらに通知部を備える点で相違する。
<Embodiment 5>
Embodiment 5 of the present disclosure will be described using FIGS. 15 to 17A to 17D. The information processing apparatus of this embodiment is different from any of the information processing apparatuses described in Embodiments 1 to 4 described above in that it further includes a notification section.
図15は、実施形態5の情報処理装置50の構成を示すブロック図である。情報処理装置50は、少なくとも画像取得部51と、物体検出部52と、関連物体特定部53と、携帯方法推定部54と、通知部57と、を備える。
FIG. 15 is a block diagram showing the configuration of an
通知部57は、関連物体の携帯方法に基づいて、関連物体に関する通知を行う。また、通知部57は、推定された携帯方法が所定の携帯方法である場合、関連物体に関する通知を行う。通知は、例えば、注意喚起や、支援要請など様々である。通知を行う対象は、関連物体と所定の関係にある人物や、画像100を取得した装置の周辺にいる人物などである。この他にも、監視センタなどの遠隔地にいる人物に対して通知を行うようにしてもよい。さらに、通知部57は、関連物体の携帯方法に応じて、通知の内容を異なるようにしてもよい。例えば、通知の長さや、回数、頻度、間隔などを異なるようにしてもよい。
The
通知部57は、例えば、関連物体の携帯方法が周囲に危害を及ぼす可能性のある携帯方法であると判定した場合、通知を行うようにしてもよい。危害を及ぼす可能性のある携帯方法は、単に特定の携帯方法によって関連物体を携帯しているかを判定するものであってもよい。また、携帯方法に加えて、関連物体の大きさや、混雑度を考慮するようにしてもよい。例えば、関連物体の大きさを考慮する場合、関連物体が大きいほど周囲に危害を及ぼす可能性があると判定されやすくする、といった具合である。また、混雑度を考慮する場合には、混雑度が混雑していることを示すほど周囲に危害を及ぼす可能性があると判定されやすくする、といった具合である。なお、混雑度は、画像100に写る人の数に基づいて算出するようにしてもよいし、他の装置によって算出された混雑度を用いてもよい。
For example, the
通知部57は、関連物体の詳細を考慮して、関連物体に関する通知を行うようにしてもよい。また、関連物体の詳細に応じて、通知の内容、通知を行う条件、通知を行う対象を変更するようにしてもよい。例えば、白杖を縦に持って歩く人と、横に持って歩く人とで、異なった内容の注意喚起を行う、といった具合である。なお、関連物体の詳細は、前述の検出器を用いた方法によって特定してもよいし、他の方法によって特定するようにしてもよい。
The
また、通知部57は、種々の報知装置を介して通知する。種々の報知装置は、例えば、スピーカなどの音声出力装置や、ディスプレイなどの表示装置である。また、これらの報知装置は、道路、施設、監視センタなどの特定の場所に設置されるものであってもよいし、移動または携帯可能な可搬性を有した装置であってもよい。さらには、特定の人物に限定して情報を伝達可能な指向性を有していてもよい。なお、種々の報知装置と情報処理装置50は一体に構成されていてもよい。
The
次に、図16を用いて、推定した携帯方法に基づいて所定の処理を実行するまでの一連の流れについて説明する。図16は、実施形態5の情報処理装置50が行う処理を例示するフローチャートである。なお、前述の実施形態1から4と重複する処理については、一部説明を省略している。
Next, a series of steps up to executing a predetermined process based on the estimated carrying method will be described using FIG. 16. FIG. 16 is a flowchart illustrating processing performed by the
情報処理装置50は、前述の実施形態1から4と同様に、関連物体の携帯方法を推定する(S501~S504)。そして、通知部57は、関連物体が横持ちされているかを判定する(S505)。関連物体が横持ちされていると判定した場合、通知を行う処理を行い(S506)、フローを終了する。一方、S505において、関連物体が横持ちされていると判定されなかった場合にもフローを終了する。
The
なお、図16に例示したフローチャートでは、S505において関連物体が横持ちされている場合にのみ通知を行うようにしたが、横持ちされていない場合にも通知を行うようにしてもよい。その際、通知の内容を異ならせるようにしてもよい。また、関連物体を縦持ちまたは斜持ちしていると判定した場合に通知を行うようにしてもよい。さらには、推定された携帯方法の種類に応じて通知の内容を異ならせるようにしてもよい。また、S505とは異なる方法を用いて、関連物体が地面に対して水平にして携帯されていることを判定するようにしてもよい。 Note that in the flowchart illustrated in FIG. 16, the notification is performed only when the related object is held horizontally in S505, but the notification may be performed even when the related object is not held horizontally. At that time, the content of the notification may be different. Further, the notification may be performed when it is determined that the related object is being held vertically or diagonally. Furthermore, the content of the notification may vary depending on the estimated type of carrying method. Further, a method different from S505 may be used to determine whether the related object is being carried horizontally with respect to the ground.
次に、実施形態5の情報処理装置50の使用例について、図17A~図17Dを用いて説明する。図17A~図17Dは、実施形態5の情報処理装置50の使用例を説明するための図である。
Next, an example of how the
ここで取りあげる使用例では、図17Aに示すように、傘Bを所持した人物Aを監視カメラ210で撮影している状況を想定して説明を行う。情報処理装置50は、監視カメラ210と連携し、画像100を取得する。そして、情報処理装置50は、画像100から人物Aを含む領域101と、人物以外の物体を含む領域102を検出する。これにより、図17Bに示すように、人物Aを含む領域101と、人物以外の物体を含む領域102が検出される。
In the example of use discussed here, a situation will be described assuming that a person A carrying an umbrella B is photographed by the
情報処理装置50は、人物を含む領域101と、人物以外の物体を含む領域102に基づいて、検出した人物と人物以外の物体とが関連物体であるかを特定する。さらに、情報処理装置50は、関連物体として特定された人物以外の物体を含む領域102を、関連物体を含む領域110として、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得する。これにより、図17Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得することができる。この例では、第1の長さ120よりも第2の長さ130のほうが長いため、関連物体は、人物Aに横持ちされていると推定される。
The
その後、情報処理装置50は、推定された携帯方法に基づいて、関連物体が周囲に危害を及ぼす可能性のある携帯方法にて携帯されているかを判定する。判定の結果、関連物体が周囲に危害を及ぼす可能性のある携帯方法によって携帯されていると判定したため、情報処理装置50は、図17Dに示すように、画像100を取得した監視カメラ210の周辺に設置されたスピーカ220を通じて、人物Aに対して、関連物体として特定した傘Bの携帯方法に対する注意を行う。
Thereafter, the
このように、実施形態5の構成によれば、通知部57によって、推定した携帯方法に応じて通知を行うことができる。これにより、携帯方法に応じた通知を行うことができる。
In this manner, according to the configuration of the fifth embodiment, the
なお、本開示における実施形態5は、上述した態様に限らず、例えば次のように構成されてもよい。
情報処理装置50は、事前に登録された人物に対して通知を行うようにしてもよい。例えば、通知部57が通知を行うことを決定した場合、情報処理装置50は、事前に登録された人物に対して通知を行う、といった具合である。また、事前に登録された人物の中から通知条件を満たす人物に対してのみ通知を行うようにしてもよい。
Note that the fifth embodiment of the present disclosure is not limited to the above-described aspect, and may be configured as follows, for example.
The
通知条件は、例えば、画像100に基づいて通知部57が通知を行うと判定した場合、画像100を生成した装置の周辺にいることを条件に含んでいてもよい。また、事前に登録された人物を特定する処理は、監視カメラ210と連携し、既知の顔認証技術によって特定してもよい。さらには、顔認証に限らず、ジオフェンシングなどの位置情報を活用した種々の技術によって、事前に登録された人物が画像100を生成した装置の周辺エリアに存在するかを特定するようにしてもよい。
The notification conditions may include, for example, when the
また、情報処理装置50は、通知部57が通知を行うと判定した際に検出していた人物を、通知に関する情報と紐づけて記憶装置に記憶するようにしてもよい。通知に関する情報は、通知した日時や、通知の内容、通知の方法などを含んでいてもよい。さらに、通知部57は、既に記憶装置に記憶されている同一の人物に対して通知を行う場合、過去に行った通知の方法と異なる方法を用いて通知を行うようにしてもよい。例えば、特定の人物に対して注意喚起を行う必要があると判定した際、過去にその人物に対してスピーカを通じて注意喚起を行った履歴が存在する場合には、スピーカによる注意喚起に替えて周辺にいる警備員から注意を行うように種々の報知装置を通じて要請する、といった具合である。
Further, the
(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置500とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置500のハードウェア構成の一例を示すブロック図である。情報処理装置500は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)501
・ROM(Read Only Memory)502
・RAM(Random Access Memory)503
・RAM503にロードされるプログラム504
・プログラム504を格納する記憶装置505
・記録媒体506の読み書きを行うドライブ装置507
・通信ネットワーク509と接続する通信インターフェース508
・データの入出力を行う入出力インターフェース510
・各構成要素を接続するバス511
(About hardware configuration)
In each embodiment of the present disclosure, each component of each device represents a functional unit block. A part or all of each component of each device is realized by an arbitrary combination of an
・CPU (Central Processing Unit) 501
・ROM (Read Only Memory) 502
・RAM (Random Access Memory) 503
・
-
- A
-
- Input/
・
各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム504をCPU501が取得して実行することによって実現される。より具体的には、CPU501は、画像100を取得するプログラムや、画像100から物体を検出するプログラム、人物と所定の関係にある物体を関連物体として特定するプログラム、関連物体の携帯方法を推定するプログラムなどの各種プログラムを実行し、RAM503や記憶装置505等に保持された様々なパラメーターの更新処理を実施することによって実現される。
Each component of each device in each embodiment is realized by the
各装置の各構成要素の機能を実現するプログラム504は、例えば、予め記憶装置505やROM502に格納されており、必要に応じてCPU501が読み出す。なお、プログラム504は、通信ネットワーク509を介してCPU501に供給されてもよい。また、予め記録媒体506に格納されたプログラムをドライブ装置507が読み出してCPU501に供給してもよい。
A
また、プログラム504は、出力装置を介して、処理の経過または処理結果を表示することができる。さらには、通信インターフェースを介して、外部の装置と通信することもできる。なお、プログラム504は、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することもできる。
Furthermore, the
各装置は、上述の構成に限らず様々な構成で実現することができる。例えば、各装置は、構成要素毎にそれぞれ異なる情報処理装置500とプログラム504とを任意に組み合わせて実現してもよい。また、各装置が備える複数の構成要素が、一つの情報処理装置500とプログラム504との任意の組み合わせによって実現されていてもよい。
Each device can be realized not only in the above-mentioned configuration but also in various configurations. For example, each device may be realized by arbitrarily combining
また、各装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。 In addition, some or all of the components of each device are realized by other general-purpose or dedicated circuits, processors, etc., or a combination thereof. These may be configured by a single chip or multiple chips connected via a bus.
各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。 A part or all of each component of each device may be realized by a combination of the circuits and the like described above and a program.
各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される情報処理システムの形態として実現されてもよい。 When some or all of the components of each device are realized by multiple information processing devices, circuits, etc., the multiple information processing devices, circuits, etc. may be centrally located or distributed. Good too. For example, the information processing device, circuit, etc. may be realized in the form of an information processing system, such as a client and server system, a cloud computing system, etc., in which each is connected via a communication network.
なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではない。即ち、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。 The embodiments described above are preferred embodiments of the present disclosure, and the scope of the present disclosure is not limited to the embodiments described above. That is, it is possible for those skilled in the art to modify or substitute each of the embodiments described above without departing from the gist of the present disclosure, and to construct embodiments with various changes.
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Part or all of the embodiments described above may be described as in the following supplementary notes, but are not limited to the following.
<付記1>
画像を取得する画像取得部と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、
人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、
を備える情報処理装置。
<付記2>
前記携帯方法推定部は、前記関連物体を含む領域における第1の長さと、前記関連物体を含む領域における第2の長さとに基づいて、前記関連物体の携帯方法を推定する、
付記1に記載の情報処理装置。
<付記3>
前記携帯方法推定部は、前記第1の長さに対する前記第2の長さの比に基づいて、前記関連物体の携帯方法を推定する、
付記2に記載の情報処理装置。
<付記4>
前記携帯方法推定部は、前記第1の長さが前記第2の長さよりも所定の長さ以上長いことを示す場合、前記関連物体の携帯方法が縦持ちであると推定する、
付記2または3に記載の情報処理装置。
<付記5>
前記携帯方法推定部は、前記第2の長さが前記第1の長さよりも所定の長さ以上長いことを示す場合、前記関連物体の携帯方法が横持ちであると推定する、
付記2から4のいずれかに記載の情報処理装置。
<付記6>
前記携帯方法推定部は、前記第1の長さと前記第2の長さとの差が前記所定の長さよりも短い場合、前記関連物体の携帯方法が斜持ちであると推定する、
付記2から5のいずれかに記載の情報処理装置。
<付記7>
前記携帯方法推定部は、前記関連物体を含む領域において、前記画像の縦方向に沿う長さを前記第1の長さとして取得し、前記第1の長さと直行する方向に沿う長さを前記第2の長さとして取得する、
付記2から6のいずれかに記載の情報処理装置。
<付記8>
前記画像に関する情報と、前記人物の情報と、前記人物以外の物体の情報とのいずれかに基づいて、前記関連物体を含む領域に関する情報を補正する領域調整部を備える、
付記1から7のいずれかに記載の情報処理装置。
<付記9>
前記関連物体を含む領域に関する情報は、前記第1の長さまたは前記第2の長さを含む
付記7に記載の情報処理装置。
<付記10>
前記画像に関する情報は、人物の移動方向を含み、
前記領域調整部は、前記人物の移動方向と基準方向とに基づいて、前記関連物体を含む領域に関する情報を補正する、
付記8のいずれかに記載の情報処理装置。
<付記11>
前記関連物体の携帯方法に基づいて、前記関連物体の詳細を特定する詳細特定部を備える、
付記1から10のいずれかに記載の情報処理装置。
<付記12>
前記詳細特定部は、前記携帯方法が所定の携帯方法である場合、前記関連物体の詳細を特定する、
付記11に記載の情報処理装置。
<付記13>
前記関連物体の携帯方法に基づいて、前記関連物体に関する通知を行う通知部を備える、
付記1から12のいずれかに記載の情報処理装置。
<付記14>
前記通知部は、前記携帯方法が所定の携帯方法である場合、前記関連物体に関する通知を行う、
付記13に記載の情報処理装置。
<付記15>
画像を取得する画像取得手段と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、
人物と所定の関係にある物体を関連物体として特定する特定手段と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、
を備える情報処理システム。
<付記16>
画像を取得し、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、
人物と所定の関係にある物体を関連物体として特定し、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する、
情報処理方法。
なお、上記付記15~付記16の形態は、付記1と同様に、付記2~付記14の形態に展開することが可能である。
<Additional note 1>
an image acquisition unit that acquires an image;
an object detection unit that detects an area including a person and an area including an object other than the person from the image;
a related object identification unit that identifies an object that has a predetermined relationship with the person as a related object;
a carrying method estimation unit that estimates a carrying method of the related object based on a region including the related object;
An information processing device comprising:
<Additional note 2>
The carrying method estimation unit estimates the carrying method of the related object based on a first length in a region including the related object and a second length in a region including the related object.
The information processing device according to supplementary note 1.
<Additional note 3>
The carrying method estimation unit estimates a carrying method of the related object based on a ratio of the second length to the first length.
The information processing device according to supplementary note 2.
<Additional note 4>
The carrying method estimating unit estimates that the carrying method of the related object is vertically when the first length is longer than the second length by a predetermined length or more.
The information processing device according to supplementary note 2 or 3.
<Additional note 5>
The carrying method estimation unit estimates that the carrying method of the related object is horizontally when the second length indicates that the second length is longer than the first length by a predetermined length or more.
The information processing device according to any one of Supplementary Notes 2 to 4.
<Additional note 6>
The carrying method estimating unit estimates that the carrying method of the related object is to carry the related object diagonally, if the difference between the first length and the second length is shorter than the predetermined length.
The information processing device according to any one of Supplementary Notes 2 to 5.
<Additional note 7>
The carrying method estimation unit obtains a length along the vertical direction of the image as the first length in a region including the related object, and obtains a length along a direction perpendicular to the first length as the first length. obtained as the second length,
The information processing device according to any one of Supplementary Notes 2 to 6.
<Additional note 8>
comprising an area adjustment unit that corrects information regarding the area including the related object based on any of information regarding the image, information about the person, and information about objects other than the person;
The information processing device according to any one of Supplementary Notes 1 to 7.
<Additional note 9>
The information processing device according to appendix 7, wherein the information regarding the area including the related object includes the first length or the second length.
<
The information regarding the image includes a moving direction of the person,
The area adjustment unit corrects information regarding the area including the related object based on a moving direction of the person and a reference direction.
The information processing device according to any one of appendix 8.
<
comprising a details specifying unit that specifies details of the related object based on a method of carrying the related object;
The information processing device according to any one of Supplementary Notes 1 to 10.
<
The details specifying unit specifies details of the related object when the carrying method is a predetermined carrying method.
The information processing device according to
<
comprising a notification unit that provides a notification regarding the related object based on a method of carrying the related object;
The information processing device according to any one of Supplementary Notes 1 to 12.
<
The notification unit provides a notification regarding the related object when the carrying method is a predetermined carrying method.
The information processing device according to
<Additional note 15>
an image acquisition means for acquiring an image;
object detection means for detecting an area including a person and an area including an object other than the person from the image;
identification means for identifying an object that has a predetermined relationship with a person as a related object;
carrying method estimating means for estimating a carrying method of the related object based on a region including the related object;
An information processing system equipped with.
<Additional note 16>
Get the image and
detecting an object from the image, which detects an area including a person and an area including an object other than the person;
Identify objects that have a predetermined relationship with a person as related objects,
estimating a method of carrying the related object based on a region including the related object;
Information processing method.
It should be noted that the forms of Supplementary Notes 15 to 16 above can be developed into the forms of Supplementary Notes 2 to 14, similar to Supplementary Note 1.
10、20、30、40、500 情報処理装置
11、21、31、41 画像取得部
12、22、32、42 物体検出部
13、23、33、43 関連物体特定部
14、24、34、44 携帯方法推定部
35 領域調整部
46 詳細特定部
57 通知部
100 画像
501 CPU(Central Processing Unit)
502 ROM(Read Only Memory)
503 RAM(Random Access Memory)
504 プログラム
505 記憶装置
506 記録媒体
507 ドライブ装置
508 通信インターフェース
509 通信ネットワーク
510 入出力インターフェース
511 バス
10, 20, 30, 40, 500
502 ROM (Read Only Memory)
503 RAM (Random Access Memory)
504
Claims (10)
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、
人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、
を備える情報処理装置。 an image acquisition unit that acquires an image;
an object detection unit that detects an area including a person and an area including an object other than the person from the image;
a related object identification unit that identifies an object that has a predetermined relationship with the person as a related object;
a carrying method estimation unit that estimates a carrying method of the related object based on a region including the related object;
An information processing device comprising:
請求項1に記載の情報処理装置。 The carrying method estimation unit estimates the carrying method of the related object based on a first length in a region including the related object and a second length in a region including the related object.
The information processing device according to claim 1.
請求項2に記載の情報処理装置。 The carrying method estimation unit estimates a carrying method of the related object based on a ratio of the second length to the first length.
The information processing device according to claim 2.
請求項2または3のいずれかに記載の情報処理装置。 The carrying method estimation unit obtains a length along the vertical direction of the image as the first length in a region including the related object, and obtains a length along a direction perpendicular to the first length as the first length. obtained as the second length,
The information processing device according to claim 2 or 3.
請求項1から4のいずれかに記載の情報処理装置。 comprising an area adjustment unit that corrects information regarding the area including the related object based on any of information regarding the image, information about the person, and information about objects other than the person;
An information processing device according to any one of claims 1 to 4.
前記領域調整部は、前記人物の移動方向と基準方向とに基づいて、前記関連物体を含む領域に関する情報を補正する、
請求項5のいずれかに記載の情報処理装置。 The information regarding the image includes a moving direction of the person,
The area adjustment unit corrects information regarding the area including the related object based on a moving direction of the person and a reference direction.
The information processing device according to claim 5.
請求項1から6のいずれかに記載の情報処理装置。 comprising a details specifying unit that specifies details of the related object based on a method of carrying the related object;
An information processing device according to any one of claims 1 to 6.
請求項1から7のいずれかに記載の情報処理装置。 comprising a notification unit that provides a notification regarding the related object based on a method of carrying the related object;
An information processing device according to any one of claims 1 to 7.
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、
人物と所定の関係にある物体を関連物体として特定する特定手段と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、
を備える情報処理システム。 an image acquisition means for acquiring an image;
object detection means for detecting an area including a person and an area including an object other than the person from the image;
identification means for identifying an object that has a predetermined relationship with a person as a related object;
carrying method estimating means for estimating a carrying method of the related object based on a region including the related object;
An information processing system equipped with.
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、
人物と所定の関係にある物体を関連物体として特定し、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する、
情報処理方法。 Get the image and
detecting an object from the image, which detects an area including a person and an area including an object other than the person;
Identify objects that have a predetermined relationship with a person as related objects,
estimating a method of carrying the related object based on a region including the related object;
Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022046296A JP2023140450A (en) | 2022-03-23 | 2022-03-23 | Information processing device, information processing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022046296A JP2023140450A (en) | 2022-03-23 | 2022-03-23 | Information processing device, information processing system, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023140450A true JP2023140450A (en) | 2023-10-05 |
Family
ID=88205619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022046296A Pending JP2023140450A (en) | 2022-03-23 | 2022-03-23 | Information processing device, information processing system, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023140450A (en) |
-
2022
- 2022-03-23 JP JP2022046296A patent/JP2023140450A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102339323B1 (en) | Target recognition method, apparatus, storage medium and electronic device | |
JP2018160219A (en) | Moving route prediction device and method for predicting moving route | |
US11776274B2 (en) | Information processing apparatus, control method, and program | |
US20130108172A1 (en) | Position Estimation Device, Position Estimation Method, And Program | |
US11120838B2 (en) | Information processing apparatus, control method, and program | |
CN113228626B (en) | Video monitoring system and method | |
CN109961472B (en) | Method, system, storage medium and electronic device for generating 3D thermodynamic diagram | |
KR20190118965A (en) | System and method for eye-tracking | |
WO2009039350A1 (en) | System and method for estimating characteristics of persons or things | |
Tepelea et al. | A vision module for visually impaired people by using Raspberry PI platform | |
JP2015002477A (en) | Information processing apparatus, information processing system, and information processing method | |
JP2019160310A (en) | On-demand visual analysis focalized on salient events | |
JP2009140264A (en) | Crime prevention device and program | |
CN111382637A (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
US10366286B2 (en) | Detection of traffic light signal changes | |
CN111126159A (en) | Method, apparatus, electronic device, and medium for tracking pedestrian in real time | |
US20240104769A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN111310595B (en) | Method and device for generating information | |
JP2023140450A (en) | Information processing device, information processing system, and information processing method | |
US9832427B2 (en) | Camera, camera system, and self-diagnosis method | |
US20210166012A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN113792569B (en) | Object recognition method, device, electronic equipment and readable medium | |
JP2020052788A (en) | Image processing system and method therefor, and program | |
JP2022019988A (en) | Information processing apparatus, display device, and control method | |
CN112241671B (en) | Personnel identity recognition method, device and system |