JP2023140450A - Information processing device, information processing system, and information processing method - Google Patents

Information processing device, information processing system, and information processing method Download PDF

Info

Publication number
JP2023140450A
JP2023140450A JP2022046296A JP2022046296A JP2023140450A JP 2023140450 A JP2023140450 A JP 2023140450A JP 2022046296 A JP2022046296 A JP 2022046296A JP 2022046296 A JP2022046296 A JP 2022046296A JP 2023140450 A JP2023140450 A JP 2023140450A
Authority
JP
Japan
Prior art keywords
person
related object
information processing
length
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022046296A
Other languages
Japanese (ja)
Inventor
直研 山口
Naoto Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022046296A priority Critical patent/JP2023140450A/en
Publication of JP2023140450A publication Critical patent/JP2023140450A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To estimate a carrying method of an object owned by a person.SOLUTION: An information processing device includes: an image acquisition unit that obtains an image; an object detection unit that detects a region including a person and a region including an object other than the person, from the image; a related object specification unit that specifies an object having a predetermined relation to the person as a related object; and carrying method estimation means that estimates a carrying method of the related object, based on a region including the related object.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理システム及び情報処理方法に関する。 The present invention relates to an information processing device, an information processing system, and an information processing method.

画像に写る人物と関連する物体の情報を取得する方法が知られている。 2. Description of the Related Art A method is known for acquiring information about objects related to a person in an image.

例えば、特許文献1には、撮像された画像から人物の身体の少なくとも一部を表す人物領域を検出し、人物領域に応じて設定される抽出領域に基づいて人物と関連する物体を検出する画像認識システムが開示されている。 For example, Patent Document 1 describes an image in which a person area representing at least a part of the person's body is detected from a captured image, and objects related to the person are detected based on an extraction area set according to the person area. A recognition system is disclosed.

国際公開第2021/192206号International Publication No. 2021/192206

特許文献1によれば、人物の所持する物体を検出することができるものの、その物体をどのように携帯しているかまでは推定することができていなかった。 According to Patent Document 1, although it is possible to detect an object carried by a person, it is not possible to estimate how the object is being carried.

本開示の目的は、上述した課題に鑑み、人物が所持する物体の携帯方法を推定することができる情報処理装置、情報処理システム及び情報処理方法を提供することにある。 In view of the above-mentioned problems, an object of the present disclosure is to provide an information processing device, an information processing system, and an information processing method that are capable of estimating how a person carries an object.

本開示の情報処理装置は、画像を取得する画像取得部と、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、を備える。 An information processing device of the present disclosure includes an image acquisition unit that acquires an image, an object detection unit that detects an area including a person and an area including an object other than the person from the image, and an object that has a predetermined relationship with the person. The apparatus includes a related object specifying section that specifies a related object as a related object, and a carrying method estimating section that estimates a carrying method of the related object based on a region including the related object.

本開示の情報処理システムは、画像を取得する画像取得手段と、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、人物と所定の関係にある物体を関連物体として特定する関連物体特定手段と、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、を備える。 The information processing system of the present disclosure includes an image acquisition unit that acquires an image, an object detection unit that detects from the image an area including a person and an area including an object other than the person, and an object that has a predetermined relationship with the person. The apparatus includes a related object specifying means for specifying a related object as a related object, and a carrying method estimating means for estimating a carrying method for the related object based on a region including the related object.

本開示の情報処理方法は、画像を取得し、前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、人物と所定の関係にある物体を関連物体として特定し、前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する。 The information processing method of the present disclosure acquires an image, detects an object that detects a region including a person and a region including an object other than the person from the image, and selects an object that has a predetermined relationship with the person as a related object. and estimating a carrying method for the related object based on a region including the related object.

本開示により、人物が所持する物体の携帯方法を推定することが可能な情報処理装置及び情報処理方法を提供することができる。 According to the present disclosure, it is possible to provide an information processing device and an information processing method that are capable of estimating how a person carries an object.

実施形態1の情報処理装置の構成を示す図である。1 is a diagram showing the configuration of an information processing apparatus according to a first embodiment; FIG. 実施形態1の情報処理装置が行う処理を例示するフローチャートである。3 is a flowchart illustrating a process performed by the information processing apparatus according to the first embodiment. 実施形態2の情報処理装置の構成を示す図である。FIG. 3 is a diagram showing the configuration of an information processing device according to a second embodiment. 携帯方法の推定の仕方を説明するための図である。FIG. 3 is a diagram for explaining how to estimate a carrying method. 関連物体を含む領域の長さを求める方法を説明するための図である。FIG. 3 is a diagram for explaining a method for determining the length of a region including a related object. 関連物体を含む領域の形状について説明するための図である。FIG. 3 is a diagram for explaining the shape of a region including related objects. 関連物体を含む領域の形状について説明するための図である。FIG. 3 is a diagram for explaining the shape of a region including related objects. 実施形態2の情報処理装置が行う処理を例示するフローチャートである。7 is a flowchart illustrating a process performed by the information processing apparatus of Embodiment 2. FIG. 実施形態2の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining a usage example of the information processing device according to the second embodiment. 実施形態2の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining a usage example of the information processing device according to the second embodiment. 実施形態2の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining a usage example of the information processing device according to the second embodiment. 実施形態2の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining a usage example of the information processing device according to the second embodiment. 実施形態3の情報処理装置の構成を示す図である。FIG. 3 is a diagram showing the configuration of an information processing device according to a third embodiment. 関連物体を含む領域に関する情報を補正する方法について説明するための図である。FIG. 3 is a diagram for explaining a method of correcting information regarding a region including a related object. 関連物体を含む領域に関する情報を補正する方法について説明するための図である。FIG. 3 is a diagram for explaining a method of correcting information regarding a region including a related object. 関連物体を含む領域に関する情報を補正する方法について説明するための図である。FIG. 3 is a diagram for explaining a method of correcting information regarding a region including a related object. 関連物体を含む領域に関する情報を補正する方法について説明するための図である。FIG. 3 is a diagram for explaining a method of correcting information regarding a region including a related object. 実施形態3の情報処理装置が行う処理を例示するフローチャートである。12 is a flowchart illustrating processing performed by the information processing apparatus of Embodiment 3. 実施形態4の情報処理装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of an information processing device according to a fourth embodiment. 実施形態4の情報処理装置が行う処理を例示するフローチャートである。12 is a flowchart illustrating processing performed by the information processing apparatus of Embodiment 4. 実施形態4の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fourth embodiment. 実施形態4の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fourth embodiment. 実施形態4の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fourth embodiment. 実施形態4の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fourth embodiment. 実施形態5の情報処理装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of an information processing device according to a fifth embodiment. 実施形態5の情報処理装置が行う処理を例示するフローチャートである。12 is a flowchart illustrating processing performed by the information processing apparatus of Embodiment 5. 実施形態5の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fifth embodiment. 実施形態5の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fifth embodiment. 実施形態5の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fifth embodiment. 実施形態5の情報処理装置の使用例を説明するための図である。FIG. 7 is a diagram for explaining an example of use of the information processing apparatus according to the fifth embodiment. 本開示の情報処理装置を構成するコンピュータの構成を示す図である。1 is a diagram illustrating the configuration of a computer that constitutes an information processing device of the present disclosure.

<実施形態1>
本開示における実施形態1について、図1および図2を用いて説明する。
図1は、実施形態1の情報処理装置10の構成を示すブロック図である。図1に示すように、情報処理装置10は、画像取得部11と、物体検出部12と、関連物体特定部13と、携帯方法推定部14と、を備える。
<Embodiment 1>
Embodiment 1 of the present disclosure will be described using FIGS. 1 and 2.
FIG. 1 is a block diagram showing the configuration of an information processing apparatus 10 according to the first embodiment. As shown in FIG. 1, the information processing device 10 includes an image acquisition section 11, an object detection section 12, a related object identification section 13, and a carrying method estimation section 14.

画像取得部11は、画像を取得する。物体検出部12は、画像から、人物を含む領域と人物以外の物体を含む領域を検出する。なお、人物以外の物体は、例えば、人物が携帯可能な物体である。人物が携帯可能な物体は、家具、果物、楽器、工具、器具などに分類される種々の物体を含んでいてもよい。関連物体特定部13は、人物と所定の関係にある物体を関連物体として特定する。なお、所定の関係とは、人物が物体を携帯していることを含む。人物が物体を携帯していることとは、例えば、人物が物体を手に持っていること、などである。また、所定の関係にあることは、例えば、人物と物体との距離に基づいて判定してもよい。携帯方法推定部14は、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する。なお、携帯方法は、例えば、人物が物体を地面に対して垂直にして携帯していること、人物が物体を地面に対して水平にして携帯していること、人物が物体を地面に対して角度をつけて携帯していることを含んでいてもよい。 The image acquisition unit 11 acquires an image. The object detection unit 12 detects an area including a person and an area including an object other than the person from the image. Note that the object other than the person is, for example, an object that can be carried by the person. Objects that can be carried by a person may include various objects classified as furniture, fruit, musical instruments, tools, appliances, and the like. The related object identifying unit 13 identifies objects that have a predetermined relationship with a person as related objects. Note that the predetermined relationship includes that the person is carrying an object. A person carrying an object means, for example, that a person is holding an object in their hand. Furthermore, whether there is a predetermined relationship may be determined based on the distance between the person and the object, for example. The carrying method estimation unit 14 estimates the carrying method of the related object based on the area including the related object. For example, the carrying method may include carrying an object perpendicular to the ground, carrying the object horizontally to the ground, or carrying the object horizontally to the ground. This may include carrying the device at an angle.

次に、図2を用いて、人物が所持する物体の携帯方法を推定する処理について説明する。図2は、実施形態1の情報処理装置10が行う処理を例示するフローチャートである。まず始めに、画像取得部11は、画像を取得する(S101)。続く処理において、物体検出部12は、画像から、人物を含む領域と人物以外の物体を含む領域を検出する(S102)。次に、関連物体特定部13は、人物と所定の関係にある物体を関連物体として特定する(S103)。そして、携帯方法推定部14は、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する(S104)。 Next, with reference to FIG. 2, a process for estimating the method of carrying an object owned by a person will be described. FIG. 2 is a flowchart illustrating processing performed by the information processing apparatus 10 of the first embodiment. First, the image acquisition unit 11 acquires an image (S101). In the subsequent process, the object detection unit 12 detects a region including a person and a region including an object other than the person from the image (S102). Next, the related object identifying unit 13 identifies an object that has a predetermined relationship with the person as a related object (S103). Then, the carrying method estimating unit 14 estimates the carrying method of the related object based on the area including the related object (S104).

このように、実施形態1の情報処理装置10は、画像に写る人物と人物以外の物体とに基づいて、人物と所定の関係にある物体を関連物体として特定する。また、関連物体を含む領域に基づいて、関連物体がどのように持たれているかを推定する。これにより、人物が物体をどのように持っているかを推定することができる。 In this manner, the information processing apparatus 10 of the first embodiment identifies objects that have a predetermined relationship with the person as related objects based on the person and objects other than the person in the image. Furthermore, it is estimated how the related object is being held based on the area containing the related object. This makes it possible to estimate how the person is holding the object.

<実施形態2>
図3から図8を用いて、本開示の実施形態2について説明する。図3は、実施形態2の情報処理装置20の構成を示すブロック図である。図3に示すように、情報処理装置20は、画像取得部21と、物体検出部22と、関連物体特定部23と、携帯方法推定部24と、を備える。
<Embodiment 2>
Embodiment 2 of the present disclosure will be described using FIGS. 3 to 8. FIG. 3 is a block diagram showing the configuration of the information processing device 20 according to the second embodiment. As shown in FIG. 3, the information processing device 20 includes an image acquisition section 21, an object detection section 22, a related object identification section 23, and a carrying method estimation section 24.

画像取得部21は、画像取得手段を担い、種々の装置から画像を取得する。種々の装置は、例えば、撮像装置、携帯端末、記憶装置などである。撮像装置は、特定のエリアを監視する監視カメラに限らず、人物が装着可能なウェアラブルカメラ、ドローン、車載カメラなどであってもよい。携帯端末は、スマートフォンなどの可搬性を有した端末などであってもよい。記憶装置は、データベースやクラウドストレージなどであってもよい。また、このような種々の装置は、情報処理装置20と一体に構成されていてもよい。 The image acquisition unit 21 serves as an image acquisition means and acquires images from various devices. The various devices include, for example, an imaging device, a mobile terminal, and a storage device. The imaging device is not limited to a surveillance camera that monitors a specific area, but may also be a wearable camera that can be worn by a person, a drone, a vehicle-mounted camera, or the like. The mobile terminal may be a portable terminal such as a smartphone. The storage device may be a database, cloud storage, or the like. Moreover, such various devices may be configured integrally with the information processing device 20.

物体検出部22は、物体検出手段を担い、画像から人物を含む領域と、人物以外の物体を含む領域を検出する。物体検出部22は、人物の特徴量を学習しており、画像から人物を検出する。また、人物以外の物体の特徴量を学習しており、人物以外の物体を検出する。人物以外の物体は、人物が携帯可能な物体である。人物が携帯可能な物体は、例えば、家具、果物、楽器、工具、器具などのクラスに分類される物体を含んでいてもよい。また、これらのクラスに分類される物体に限らず、ImageNetやOpenImageなどの既知のデータセットにおいて種々のクラスに分類される物体を含んでいてもよい。 The object detection unit 22 serves as an object detection means and detects an area including a person and an area including an object other than the person from the image. The object detection unit 22 has learned feature amounts of a person, and detects a person from an image. It also learns the features of objects other than people, and detects objects other than people. The object other than the person is an object that can be carried by the person. Objects that can be carried by a person may include, for example, objects classified into classes such as furniture, fruit, musical instruments, tools, and appliances. Furthermore, the object information is not limited to objects classified into these classes, but may include objects classified into various classes in known data sets such as ImageNet and OpenImage.

上述したオブジェクトの検出には、例えば、R‐CNN(Region Based Convolutional Neural Networks)、YOLO(You Look Only Onse)、SSD(Single Shot multibox Detector)などの手法を用いることができる。なお、物体検出部22は、人物を含む領域を検出する処理と、人物以外の物体を含む領域を検出する処理とを異なる方法によって実現してもよい。また、物体検出部22は、人物を含む領域を検出する第1検出部と、人物以外の物体を含む領域を検出する第2検出部に分けて構成してもよい。さらには、第1検出部と第2検出部とが異なる装置に組み込まれていてもよい。 To detect the above-mentioned objects, for example, R-CNN (Region Based Convolutional Neural Networks), YOLO (You Look Only Once), SSD (Single Shot multibox Detector), etc. method can be used. Note that the object detection unit 22 may realize the process of detecting an area including a person and the process of detecting an area including an object other than a person using different methods. Further, the object detection section 22 may be configured to be divided into a first detection section that detects an area that includes a person, and a second detection section that detects an area that includes an object other than a person. Furthermore, the first detection section and the second detection section may be incorporated into different devices.

関連物体特定部23は、物体特定手段を担い、物体検出部22によって検出された人物を含む領域と人物以外の物体を含む領域に基づいて、人物と所定の関係にある物体を関連物体として特定する。所定の関係とは、人物が物体を携帯していることを含む。人物が物体を携帯していることとは、例えば、人物が物体を手に持っていること、などである。関連物体特定部23は、関連物体が複数存在する場合には、複数の関連物体を特定することもできる。 The related object identifying unit 23 serves as an object identifying means, and identifies objects that have a predetermined relationship with a person as related objects based on the area containing the person and the area containing objects other than the person detected by the object detection unit 22. do. The predetermined relationship includes that the person is carrying an object. A person carrying an object means, for example, that a person is holding an object in their hand. The related object specifying unit 23 can also specify a plurality of related objects when a plurality of related objects exist.

関連物体を特定する方法としては、例えば、人物と物体との距離が基準距離よりも短い物体を関連物体として特定する方法などが挙げられる。基準距離は、事前に設定した値を用いてもよいし、適宜補正した値を用いてもよい。基準距離を補正する場合には、検出された人物や物体に応じて補正を行うようにしてもよい。例えば、検出された人物または物体の大きさが小さいほど基準距離を短く補正する、といった具合である。この他にも、検出された人物や物体の位置が画像の中央から離れているほど基準距離を長くするように補正してもよい。 Examples of a method for specifying related objects include a method for specifying, as a related object, an object in which the distance between the person and the object is shorter than a reference distance. As the reference distance, a value set in advance may be used, or a value corrected as appropriate may be used. When correcting the reference distance, the correction may be performed depending on the detected person or object. For example, the smaller the size of the detected person or object, the shorter the reference distance is corrected. In addition to this, the reference distance may be corrected to be longer as the position of the detected person or object is farther from the center of the image.

人物と物体との距離は、人物を含む領域上に設定した点と、人物以外の物体を含む領域上に設定した点とを結んだ直線の距離を用いて算出してもよい。さらには、人物を構成する身体のパーツの位置を考慮して、人物を含む領域上に点を設定するようにしてもよい。例えば、身体パーツとして手の位置を特定し、手の位置に人物上の点を設定する、といった具合である。なお、人物を構成する身体のパーツを求める場合には、既知の骨格推定技術を用いてもよいし、身体のパーツ毎の特徴量を学習した学習器を用いて、所望の身体パーツの位置を特定するようにしてもよい。 The distance between a person and an object may be calculated using the distance of a straight line connecting a point set on an area containing a person and a point set on an area containing an object other than the person. Furthermore, points may be set on a region including the person, taking into account the positions of the body parts that make up the person. For example, the position of a hand is specified as a body part, and a point on a person is set at the position of the hand. Note that when determining the body parts that make up a person, you may use known skeletal estimation technology, or you can use a learning device that has learned the features of each body part to find the position of the desired body part. It may be specified.

携帯方法推定部24は、携帯方法推定手段を担い、関連物体を含む領域に基づいて、関連物体の携帯方法を推定する。携帯方法推定部24は、携帯方法として、例えば、人物が物体を地面に対して垂直にして携帯していることを推定する。また、人物が物体を地面に対して水平にして携帯していることを推定する。さらに、人物が物体を地面に対して角度をつけて携帯していることを推定する。また、後述する定義に基づいて、より具体的な携帯方法として、関連物体を縦持ち、横持ち、斜持ちしているかを推定する。なお、縦持ちは、人物が物体を地面に対して垂直にして携帯していることを示す推定結果の一例である。また、横持ちは、人物が物体を地面に対して水平にして携帯していることを示す推定結果の一例である。さらに、斜持ちは、人物が物体を地面に対して角度をつけて携帯していることを示す推定結果の一例である。 The carrying method estimating unit 24 serves as a carrying method estimating means, and estimates the carrying method of the related object based on the area including the related object. The carrying method estimating unit 24 estimates, for example, that a person carries an object perpendicular to the ground. It is also estimated that the person is carrying the object horizontally to the ground. Furthermore, it is estimated that the person is carrying the object at an angle to the ground. Furthermore, based on the definition described later, it is estimated whether the related object is held vertically, horizontally, or diagonally as a more specific carrying method. Note that "vertical holding" is an example of an estimation result indicating that the person is carrying the object perpendicular to the ground. Further, horizontal carrying is an example of an estimation result indicating that a person carries an object horizontally with respect to the ground. Further, "holding at an angle" is an example of an estimation result indicating that a person is carrying an object at an angle with respect to the ground.

ここで、図4を用いながら、携帯方法の推定の仕方ついて説明する。図4は、携帯方法の推定の仕方を説明するための図である。図4には、人物と、傘を写した画像100を示している。携帯方法推定部24は、関連物体特定部23によって特定された関連物体を含む領域110から第1の長さ120と、第2の長さ130を取得する。図4に示す例では、関連物体特定部23は、傘を関連物体として特定しており、関連物体を含む領域110から第1の長さ120と、第2の長さ130を取得している。ここで、第1の長さ120は、関連物体を含む領域110において第1の方向に沿った長さである。また、第2の長さ130は、関連物体を含む領域110において第2の方向に沿った長さである。ここでは、第1の方向を画像の縦方向、第2の方向を画像の横方向として説明する。なお、第1の方向および第2の方向は、人物を含む領域に基づいて定めてもよい。例えば、人物の高さ方向に沿う方向を第1の方向とし、第1の方向と直行する方向を第2の方向とする、といった具合である。 Here, a method of estimating the carrying method will be explained using FIG. 4. FIG. 4 is a diagram for explaining how to estimate the carrying method. FIG. 4 shows an image 100 of a person and an umbrella. The carrying method estimating unit 24 acquires the first length 120 and the second length 130 from the region 110 including the related object specified by the related object specifying unit 23. In the example shown in FIG. 4, the related object specifying unit 23 specifies the umbrella as the related object, and acquires the first length 120 and the second length 130 from the area 110 including the related object. . Here, the first length 120 is the length along the first direction in the region 110 including the related object. Further, the second length 130 is the length along the second direction in the region 110 including the related object. Here, the description will be made assuming that the first direction is the vertical direction of the image, and the second direction is the horizontal direction of the image. Note that the first direction and the second direction may be determined based on an area including a person. For example, a direction along the height direction of the person is defined as a first direction, and a direction perpendicular to the first direction is defined as a second direction.

そして、第1の長さ120と第2の長さ130とを比較する。比較の結果、第1の長さ120のほうが第2の長さ130よりも長い場合(第1の長さ120>第2の長さ130)、関連物体が縦持ちされていると判定する。これに対して、第1の長さ120よりも第2の長さ130のほうが長い場合(第1の長さ120<第2の長さ130)、関連物体が横持ちされていると判定する。さらに、第1の長さ120と第2の長さ130とが等しい場合(第1の長さ120=第2の長さ130)、関連物体が斜持ちされていると判定する。 Then, the first length 120 and the second length 130 are compared. As a result of the comparison, if the first length 120 is longer than the second length 130 (first length 120>second length 130), it is determined that the related object is held vertically. On the other hand, if the second length 130 is longer than the first length 120 (first length 120<second length 130), it is determined that the related object is held sideways. . Further, if the first length 120 and the second length 130 are equal (first length 120=second length 130), it is determined that the related object is held obliquely.

関連物体を含む領域110における第1の長さ120と第2の長さ130は、例えば、図5に示す方法によって求めてもよい。図5は、関連物体を含む領域110の長さを求める方法を説明するための図である。第1の長さ120は、図5に示すように、関連物体を含む領域110上に設定した点121および点122の距離を求めることによって取得してもよい。より詳細には、画像100の縦方向における点121と点122までの距離を求めればよい。なお、点121と点122の組み合わせは、計算によって自動的に求めるようにしてもよい。例えば、点121と点122との距離が最も長くなる組み合わせを探索する、といった具合である。 The first length 120 and the second length 130 in the region 110 including the related object may be determined by the method shown in FIG. 5, for example. FIG. 5 is a diagram for explaining a method for determining the length of the region 110 including the related object. The first length 120 may be obtained by determining the distance between a point 121 and a point 122 set on the area 110 including the related object, as shown in FIG. More specifically, the distance between the points 121 and 122 in the vertical direction of the image 100 may be found. Note that the combination of points 121 and 122 may be automatically determined by calculation. For example, a combination that provides the longest distance between points 121 and 122 is searched for.

また、同様に第2の長さ130は、関連物体を含む領域110上に設定した点131および点132の距離を求めることによって取得してもよい。より詳細には、画像100の縦方向と直行する方向における点131と点132までの距離を求めればよい。 Similarly, the second length 130 may be obtained by determining the distance between a point 131 and a point 132 set on the area 110 including the related object. More specifically, the distance between the points 131 and 132 in the direction perpendicular to the vertical direction of the image 100 may be found.

携帯方法推定部24は、縦持ちと横持ちの判定に際し、第1の長さ120と第2の長さ130との差が所定の長さ以上長いことを、さらに判定するようにしてもよい。これにより、第1の長さ120と第2の長さ130との差が小さい場合に、携帯方法の推定結果がばらつくことを抑制できる。また、斜持ちの判定に際しては、第1の長さ120と第2の長さ130との差が所定の長さよりも短いことを判定するようにしてもよい。これにより、第1の長さ120と、第2の長さ130との間に多少の差があったとしても、関連物体を斜持ちしていると判定することができる。 The carrying method estimating unit 24 may further determine that the difference between the first length 120 and the second length 130 is longer than a predetermined length when determining whether to carry vertically or horizontally. . Thereby, when the difference between the first length 120 and the second length 130 is small, it is possible to suppress variations in the estimation results of the carrying method. Further, when determining whether the device is held diagonally, it may be determined that the difference between the first length 120 and the second length 130 is shorter than a predetermined length. Thereby, even if there is some difference between the first length 120 and the second length 130, it can be determined that the related object is being held obliquely.

また、関連物体を含む領域110は、図4、5に示したような関連物体を囲う矩形の領域に限らず、図6A、図6Bに示すように様々な形状であってもよい。図6A、図6Bは、関連物体を含む領域110の形状について説明するための図である。例えば、図6Aに示す関連物体を含む領域111のように、領域の形状が関連物体を囲う円であってもよい。また、図6Bに示す関連物体を含む領域のように、関連物体に沿った形状であってもよい。 Further, the area 110 containing the related object is not limited to the rectangular area surrounding the related object as shown in FIGS. 4 and 5, but may have various shapes as shown in FIGS. 6A and 6B. 6A and 6B are diagrams for explaining the shape of the region 110 including related objects. For example, the shape of the area may be a circle surrounding the related object, like the area 111 including the related object shown in FIG. 6A. Alternatively, the shape may be along the related object, as in the area including the related object shown in FIG. 6B.

携帯方法推定部24は、第1の長さ120と第2の長さ130との大小関係に基づいて、持ち方を推定することに限らず、様々な方法によって携帯方法を推定してもよい。例えば、第1の長さ120と第2の長さ130との比に基づいて、関連物体の携帯方法を推定してもよい。そのような場合には、第1の長さ120に対する第2の長さ130の比が1を下回る場合に、関連物体を縦持ちしていると推定してもよい。また、第1の長さ120に対する第2の長さ130の比が1を上回る場合に、関連物体を横持ちしていると推定してもよい。さらには、第1の長さ120に対する第2の長さ130の比が1と等しい場合に、関連物体を斜持ちしていると推定してもよい。このような第1の長さ120に対する第2の長さ130の比率として、関連物体を含む領域110の縦横比を用いてもよい。 The carrying method estimating unit 24 is not limited to estimating the carrying method based on the magnitude relationship between the first length 120 and the second length 130, and may estimate the carrying method using various methods. . For example, the method of carrying the related object may be estimated based on the ratio of the first length 120 and the second length 130. In such a case, if the ratio of the second length 130 to the first length 120 is less than 1, it may be assumed that the related object is held vertically. Furthermore, if the ratio of the second length 130 to the first length 120 is greater than 1, it may be assumed that the related object is being held horizontally. Furthermore, if the ratio of the second length 130 to the first length 120 is equal to 1, it may be assumed that the related object is held obliquely. As the ratio of the second length 130 to the first length 120, the aspect ratio of the region 110 including the related object may be used.

次に、図7を用いて、人物が所持する物体の携帯方法を推定する処理について説明する。図7は、実施形態2の情報処理装置20が行う情報処理方法を例示するフローチャートである。 Next, with reference to FIG. 7, a process for estimating the method of carrying an object owned by a person will be described. FIG. 7 is a flowchart illustrating an information processing method performed by the information processing apparatus 20 of the second embodiment.

画像取得部21は、種々の装置から画像100を取得する(S201)。続いて、物体検出部22は、画像取得部21が取得した画像100から、人物を含む領域と人物以外の物体を含む領域を検出する(S202)。そして、関連物体特定部23は、物体検出部22によって検出された人物と所定の関係にある人物以外の物体を関連物体として特定する(S203)。 The image acquisition unit 21 acquires images 100 from various devices (S201). Subsequently, the object detection unit 22 detects an area including a person and an area including an object other than the person from the image 100 acquired by the image acquisition unit 21 (S202). Then, the related object identifying unit 23 identifies objects other than the person who has a predetermined relationship with the person detected by the object detecting unit 22 as related objects (S203).

携帯方法推定部24は、関連物体特定部23によって特定された関連物体を含む領域110から第1の長さ120と第2の長さ130を取得する(S204)。その後、第1の長さ120と第2の長さ130とが等しいかを判定する(S205)。S205において等しいと判定した場合、人物が物体を地面に対して角度をつけて携帯していることを出力する。関連物体が斜めに持たれていることを出力して(S206)、フローを終了する。 The carrying method estimating unit 24 acquires the first length 120 and the second length 130 from the region 110 including the related object specified by the related object specifying unit 23 (S204). Thereafter, it is determined whether the first length 120 and the second length 130 are equal (S205). If it is determined in S205 that they are equal, it is output that the person is carrying the object at an angle to the ground. It outputs that the related object is being held diagonally (S206) and ends the flow.

一方、S205において第1の長さ120と第2の長さ130が等しくないと判定した場合は、さらに第1の長さ120が第2の長さ130よりも長いか否かを判定する(S207)。そして、S207の判定において、第1の長さ120が第2の長さ130よりも長いと判定した場合、関連物体が縦に持たれていることを出力して(S208)、フローを終了する。これに対して、S207の判定において第1の長さ120が第2の長さ130よりも長くないと判定した場合、関連物体が横に持たれていることを出力して(S209)、フローを終了する。 On the other hand, if it is determined in S205 that the first length 120 and the second length 130 are not equal, it is further determined whether the first length 120 is longer than the second length 130 ( S207). Then, in the determination in S207, if it is determined that the first length 120 is longer than the second length 130, it outputs that the related object is held vertically (S208) and ends the flow. . On the other hand, if it is determined in S207 that the first length 120 is not longer than the second length 130, it is outputted that the related object is held sideways (S209), and the flow end.

なお、S206では、関連物体の携帯方法として、斜持ちしていることを出力するようにしたが、出力の態様はこれに限定されない。斜持ちに替えて、人物が物体を地面に対して角度をつけて携帯していることを示す種々の出力を行うようにしてもよい。同様に、S208の処理によって得られる出力は、縦持ちに限らず、人物が物体を地面に対して垂直にして携帯していることを示す種々の出力であってもよい。さらに、S209の処理によって得られる出力は、横持ちに限らず、人物が物体を地面に対して水平にして携帯していることを示す種々の出力であってもよい。 Note that in S206, the method of carrying the related object is to output that the related object is held diagonally, but the output mode is not limited to this. Instead of holding the object diagonally, various outputs may be provided to indicate that the person is holding the object at an angle to the ground. Similarly, the output obtained by the process of S208 is not limited to holding the object vertically, but may be various outputs indicating that the person is holding the object perpendicular to the ground. Furthermore, the output obtained by the process of S209 is not limited to horizontal carrying, but may be various outputs indicating that the person is carrying the object horizontally with respect to the ground.

次に、実施形態2に係る情報処理装置20の使用例について、図8A~図8Dを用いて説明する。図8A~図8Dは、実施形態2の情報処理装置20の使用例を説明するための図である。図8Aには、傘Bを所持した人物Aを監視カメラ210が撮影している状況について示している。このような状況において、情報処理装置20は、監視カメラ210と連携し、画像100を取得する。 Next, an example of use of the information processing device 20 according to the second embodiment will be described using FIGS. 8A to 8D. 8A to 8D are diagrams for explaining usage examples of the information processing device 20 of the second embodiment. FIG. 8A shows a situation where the surveillance camera 210 is photographing a person A carrying an umbrella B. In such a situation, the information processing device 20 cooperates with the surveillance camera 210 to acquire the image 100.

情報処理装置20は、画像100から人物を含む領域と、人物以外の物体を含む領域を検出する。これにより、図8Bに示すように、人物を含む領域101と、人物以外の物体を含む領域102が検出される。そして、情報処理装置20は、図8Cに示すように、検出した人物を含む領域101の上に設定した点151と、人物以外の物体を含む領域102の上に設定した点152とを結んだ直線の距離が基準距離未満であるかを判定する。これにより、人物以外の物体を含む領域102は、関連物体を含む領域110であるかが特定される。 The information processing device 20 detects a region containing a person and a region containing objects other than the person from the image 100. As a result, as shown in FIG. 8B, an area 101 including a person and an area 102 including an object other than the person are detected. Then, as shown in FIG. 8C, the information processing device 20 connects a point 151 set on the area 101 containing the detected person and a point 152 set on the area 102 containing objects other than the person. Determine whether the straight line distance is less than the reference distance. This specifies whether the region 102 containing objects other than people is the region 110 containing related objects.

そして、図8Dに示すように、情報処理装置20は、関連物体を含む領域110から第1の長さ120と第2の長さ130を取得する。そして、情報処理装置20は、第1の長さ120と、第2の長さ130を比較する。比較の結果、この例では、第1の長さ120は、第2の長さ130よりも長くないと判定される。これにより、関連物体が横持ちされていると推定する。 Then, as shown in FIG. 8D, the information processing device 20 acquires the first length 120 and the second length 130 from the region 110 including the related object. The information processing device 20 then compares the first length 120 and the second length 130. As a result of the comparison, the first length 120 is determined to be no longer than the second length 130 in this example. As a result, it is estimated that the related object is being held horizontally.

このように、実施形態2の構成によれば、関連物体特定部23によって、人物と所定の関係にある物体を関連物体として特定することができる。また、携帯方法推定部24よって、関連物体を含む領域110に基づいて、関連物体がどのように携帯されているかを推定することができる。これにより、人物が物体をどのように携帯しているかを推定することができる。 In this way, according to the configuration of the second embodiment, the related object identifying unit 23 can specify an object that has a predetermined relationship with a person as a related object. Furthermore, the carrying method estimating unit 24 can estimate how the related object is being carried based on the area 110 including the related object. This makes it possible to estimate how the person is carrying the object.

なお、本開示における実施形態2は、上述した態様に限らず、例えば次のように構成されてもよい。
情報処理装置20は、物体検出部22が検出した人物について、人物ごとに処理の履歴を記録するように構成してもよい。また、処理の履歴は、関連物体の携帯方法を推定する処理を行っていないことを含んでいてもよい。さらには、画像ごとの推定結果を同一の人物に紐づけるようにしてもよい。このような構成によれば、既に関連物体の携帯方法を推定する処理を行った人物に対して同様の処理が繰り返し行われることを抑制することができる。また、特定の画像から関連物体の携帯方法を推定することができなかった場合、他の画像から推定された携帯方法を考慮して、その人物が関連物体をどのように持っているかを推定することができる。
Note that the second embodiment of the present disclosure is not limited to the above-described aspect, and may be configured as follows, for example.
The information processing device 20 may be configured to record a processing history for each person detected by the object detection unit 22. Further, the processing history may include that the processing for estimating the carrying method of the related object has not been performed. Furthermore, the estimation results for each image may be linked to the same person. According to such a configuration, it is possible to prevent the same process from being repeated for a person who has already undergone the process of estimating the carrying method of the related object. Additionally, if it is not possible to estimate how a person is holding a related object from a specific image, the system considers the carrying method estimated from other images to estimate how the person is holding the related object. be able to.

また、物体検出部22は、人物以外の物体を含む領域102を検出するうえで、長尺物以外の物体の検出を抑制するように構成してもよい。もしくは、長尺物以外の物体を検出しないように構成してもよい。このような構成によれば、携帯方法の推定に適さない関連物体に対して、携帯方法の推定が行われることを抑制できる。 Further, the object detection unit 22 may be configured to suppress detection of objects other than elongated objects when detecting the region 102 including objects other than people. Alternatively, the configuration may be such that objects other than long objects are not detected. According to such a configuration, it is possible to suppress estimation of the carrying method from being performed for related objects that are not suitable for estimation of the carrying method.

より詳細に説明すると、正方形の物体を関連物体として特定した場合、関連物体を含む領域110から求まる第1の長さ120と第2の長さ130は等しくなる。そのため、携帯方法推定部24は、実際の携帯方法に依らず、正方形の物体を常に斜持ちしていると推定してしまう。これに対して、物体検出部22が長尺物以外の物体の検出を抑制する、もしくは、検出しないように構成した場合、正方形の物体が検出されることを抑制できる。そのため、携帯方法の推定に適さない物体に対して携帯方法の推定が行われることを抑制できる To explain in more detail, when a square object is specified as a related object, the first length 120 and the second length 130 determined from the region 110 including the related object are equal. Therefore, the carrying method estimating unit 24 estimates that the square object is always held obliquely, regardless of the actual carrying method. On the other hand, if the object detection unit 22 is configured to suppress or not detect objects other than elongated objects, detection of square objects can be suppressed. Therefore, it is possible to prevent the carrying method from being estimated for objects that are not suitable for carrying method estimation.

また、携帯方法推定部24は、携帯方法の推定結果が所定回数以上同じであった場合、推定した携帯方法を出力するようにしてもよい。さらには、同じ携帯方法をしていると推定した時間が所定時間以上継続した場合、推定した携帯方法を出力するようにしてもよい。このような構成によれば、携帯方法の推定精度を向上させることができる。 Further, the carrying method estimating unit 24 may output the estimated carrying method if the estimation results of the carrying method are the same for a predetermined number of times or more. Furthermore, if the time period during which it is estimated that the same carrying method is used continues for a predetermined period of time or more, the estimated carrying method may be output. According to such a configuration, the estimation accuracy of the carrying method can be improved.

<実施形態3>
図9から図11を用いて、本開示の実施形態3について説明する。本実施形態の情報処理装置は、前述の実施形態1または2の情報処理装置に対して、領域調整部をさらに備える点で相違する。
<Embodiment 3>
Embodiment 3 of the present disclosure will be described using FIGS. 9 to 11. The information processing apparatus of this embodiment is different from the information processing apparatus of the first or second embodiment described above in that it further includes an area adjustment section.

図9は、実施形態3の情報処理装置30の構成を示すブロック図である。情報処理装置30は、少なくとも画像取得部31と、物体検出部32と、関連物体特定部33と、携帯方法推定部34と、領域調整部35と、を備える。 FIG. 9 is a block diagram showing the configuration of the information processing device 30 according to the third embodiment. The information processing device 30 includes at least an image acquisition section 31, an object detection section 32, a related object identification section 33, a carrying method estimation section 34, and an area adjustment section 35.

領域調整部35は、画像に関する情報と、人物の情報と、人物以外の物体の情報とのいずれかに基づいて、関連物体を含む領域に関する情報を補正する。画像に関する情報は、画像を生成した装置の情報を含んでいてもよい。画像を生成した装置の情報は、例えば、撮像装置の位置や、撮像方向、俯角、レンズの倍率などを含んでいてもよい。人物の情報は、画像上の人物の位置や、人物の移動方向などを含んでいてもよい。人物以外の物体の情報は、画像上の人物以外の物体の位置や、人物以外の物体の移動方向などを含んでいてもよい。なお、人物の情報や、人物以外の物体の情報は、過去に取得した画像を考慮して求めたものであってもよい。例えば、特定の時刻における人物または物体の画像上の位置や、人物または物体の動線などである。 The area adjustment unit 35 corrects the information regarding the area including the related object based on any of the information regarding the image, the information about the person, and the information about objects other than the person. The information regarding the image may include information about the device that generated the image. The information on the device that generated the image may include, for example, the position of the imaging device, the imaging direction, the angle of depression, the magnification of the lens, and the like. The person information may include the position of the person on the image, the direction of movement of the person, and the like. The information on objects other than people may include the position of objects other than people on the image, the moving direction of objects other than people, and the like. Note that the information on a person and the information on an object other than a person may be obtained by taking into consideration images acquired in the past. For example, the information includes the position of a person or object on an image at a specific time, the line of movement of the person or object, and the like.

ここで、図10A~図10Dを用いて、関連物体を含む領域に関する情報を補正する方法について説明する。図10A~図10Dは、関連物体を含む領域に関する情報を補正する方法について説明するための図である。図10Aには、紙面左下方向に向かって歩行する人物が傘を携帯している様子を写した画像100を示している。 Here, a method for correcting information regarding a region including a related object will be described using FIGS. 10A to 10D. FIGS. 10A to 10D are diagrams for explaining a method of correcting information regarding a region including a related object. FIG. 10A shows an image 100 depicting a person walking toward the lower left of the page and carrying an umbrella.

領域調整部35は、人物の情報に基づいて、関連物体を含む領域に関する情報を補正する。ここでは、人物の情報として、人物の移動方向を用いている。まず始めに、領域調整部35は、画像100に写る人物の移動方向を求める。人物の移動方向は、例えば、人物の視線や人物の動線などから求めることができる。また、オプティカルフローなどを解析することによって求めるようにしてもよい。そして、人物の移動方向と、基準方向とで成す角度を求める。基準方向は、例えば、画像100における縦方向または横方向を用いてもよい。ここでは、基準方向を画像100における横方向として説明する。これにより、図10Bに示すような、人物の移動方向Vと基準方向とで成す角度Θが求まる。なお、この例では、人物の移動方向と基準方向とで成す角度を求めているが、人物の移動方向に変えて、物体の移動方向と基準方向とで成す角度を求めるようにしてもよい。 The area adjustment unit 35 corrects information regarding the area including the related object based on information about the person. Here, the moving direction of the person is used as the information about the person. First, the area adjustment unit 35 determines the moving direction of the person appearing in the image 100. The moving direction of the person can be determined from, for example, the person's line of sight or the person's line of movement. Alternatively, it may be obtained by analyzing optical flow or the like. Then, the angle formed by the direction of movement of the person and the reference direction is determined. The reference direction may be, for example, the vertical direction or the horizontal direction in the image 100. Here, the reference direction will be explained as the horizontal direction in the image 100. As a result, the angle Θ between the moving direction V of the person and the reference direction is determined as shown in FIG. 10B. In this example, the angle formed by the direction of movement of the person and the reference direction is determined, but the angle formed by the direction of movement of the object and the reference direction may be determined instead of the direction of movement of the person.

そして、領域調整部35は、画像100から特定した関連物体を含む領域に関する情報を補正する。例えば、図10Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130に対して、角度を引数とした所定の関数を乗算する、といった具合である。このような処理の結果、図10Dに示すように、第1の長さ120と第2の長さ130を補正した、補正後の第1の長さ125と補正後の第2の長さ135を求めることができる。 Then, the area adjustment unit 35 corrects information regarding the area including the related object identified from the image 100. For example, as shown in FIG. 10C, the first length 120 and second length 130 in the region 110 including the related object are multiplied by a predetermined function using an angle as an argument. As a result of such processing, as shown in FIG. 10D, the first length 125 after correction and the second length 135 after correction are obtained by correcting the first length 120 and the second length 130. can be found.

領域調整部35は、上述した人物の移動方向に基づいて補正を行う方法に限らず、次のような方法によって補正を行うようにしてもよい。例えば、画像100を生成した装置に関する情報に基づいて補正を行う場合、撮像装置の位置や、撮像方向、俯角、レンズの倍率などを引数とした関数を定義するようにしてもよい。このような関数は、例えば、関連物体を特定の視点や距離から撮像した場合に検出される関連物体を含む領域の大きさまたは位置へ変換するためのものであってもよい。 The area adjustment unit 35 is not limited to the method of performing correction based on the moving direction of the person described above, but may also perform correction using the following method. For example, when correction is performed based on information regarding the device that generated the image 100, a function may be defined using arguments such as the position of the imaging device, the imaging direction, the angle of depression, and the magnification of the lens. Such a function may be for converting into the size or position of a region containing the related object detected when the related object is imaged from a specific viewpoint or distance, for example.

また、領域調整部35は、関連物体を含む領域110における第1の長さ120と、第2の長さ130に限らず、様々な関連物体を含む領域に関する情報を補正してもよい。例えば、第1の長さに対する第2の長さの比率を補正する、といった具合である。 Further, the region adjustment unit 35 may correct information regarding the region including various related objects, without being limited to the first length 120 and the second length 130 in the region 110 including the related object. For example, the ratio of the second length to the first length is corrected.

次に、図11を用いて、補正後の関連物体を含む領域に関する情報に基づいて、関連物体の携帯方法を推定する処理について説明する。図11は、実施形態3の情報処理装置30が行う処理を例示するフローチャートである。なお、前述の実施形態と重複する処理については、一部説明を省略している。 Next, with reference to FIG. 11, a process of estimating a method of carrying a related object based on information regarding a region including the corrected related object will be described. FIG. 11 is a flowchart illustrating processing performed by the information processing device 30 of the third embodiment. Note that some explanations of processes that overlap with those of the above-described embodiments are omitted.

情報処理装置30は、前述の実施形態と同様に、画像100から関連物体を含む領域110を特定する(S301~S303)。また、情報処理装置30は、関連物体を含む領域110から第1の長さ120と、第2の長さ130を求める(S304)。 The information processing device 30 identifies the region 110 containing the related object from the image 100 (S301 to S303), as in the above-described embodiment. Furthermore, the information processing device 30 obtains the first length 120 and the second length 130 from the region 110 including the related object (S304).

次に、領域調整部35は、画像に関する情報を取得する(S305)。そして、領域調整部35は、取得した画像に関する情報に基づいて、関連物体を含む領域に関する情報を補正する(S306)。この処理において補正される情報は、例えば、S304によって取得された関連物体を含む領域110における第1の長さ120と第2の長さ130である。その後、情報処理装置30は、補正後の第1の長さ125と第2の長さ135に基づいて、関連物体の携帯方法を推定する(S307~S311)。 Next, the area adjustment unit 35 acquires information regarding the image (S305). Then, the area adjustment unit 35 corrects the information regarding the area including the related object based on the information regarding the acquired image (S306). The information corrected in this process is, for example, the first length 120 and the second length 130 in the region 110 including the related object acquired in S304. Thereafter, the information processing device 30 estimates how to carry the related object based on the corrected first length 125 and second length 135 (S307 to S311).

なお、図11に例示したフローチャートに記載の処理順序に限らず、領域調整部35は、S301によって画像を取得した後に、画像に関する情報を取得する処理(S305)を実行するようにしてもよい。また、同様にS306の処理の一部を、S302~S304に先行して実行するようにしてもよい。S306の処理の一部は、画像に関する情報に基づいて補正項を算出する処理などである。さらに、領域調整部35は、S305およびS306の処理の一部を、S302~S304と並行して実行するようにしてもよい。 Note that the processing order is not limited to the processing order described in the flowchart illustrated in FIG. 11, and the area adjustment unit 35 may execute the process of obtaining information regarding the image (S305) after obtaining the image in S301. Similarly, part of the processing in S306 may be executed prior to S302 to S304. Part of the processing in S306 is processing for calculating a correction term based on information regarding the image. Further, the area adjustment unit 35 may execute part of the processing in S305 and S306 in parallel with S302 to S304.

このように、実施形態3の構成によれば、領域調整部35によって、画像100に関する情報に基づいて、関連物体を含む領域に関する情報を補正することができる。これにより、画像に写る人物や人物以外の物体の位置や向きを考慮して、関連物体の携帯方法を推定することができる。 In this manner, according to the configuration of the third embodiment, the area adjustment unit 35 can correct information regarding the area including the related object based on information regarding the image 100. With this, it is possible to estimate the method of carrying a related object, taking into consideration the position and orientation of a person or an object other than a person in the image.

<実施形態4>
図12から図15用いて、本開示の実施形態4について説明する。本実施形態の情報処理装置は、前述の実施形態1から3に記載の情報処理装置のいずれかに対して、さらに詳細特定部を備える点で相違する。
<Embodiment 4>
Embodiment 4 of the present disclosure will be described using FIGS. 12 to 15. The information processing apparatus of this embodiment is different from any of the information processing apparatuses described in Embodiments 1 to 3 described above in that it further includes a detailed specifying section.

図12は、実施形態4の情報処理装置40の構成を示すブロック図である。情報処理装置40は、少なくとも画像取得部41と、物体検出部42と、関連物体特定部43と、携帯方法推定部44と、詳細特定部46と、を備える。 FIG. 12 is a block diagram showing the configuration of the information processing device 40 according to the fourth embodiment. The information processing device 40 includes at least an image acquisition section 41 , an object detection section 42 , a related object identification section 43 , a carrying method estimation section 44 , and a detailed identification section 46 .

詳細特定部46は、関連物体の携帯方法に基づいて、関連物体の詳細を特定する。また、関連物体の携帯方法が所定の携帯方法である場合、詳細特定部46は、関連物体の詳細を特定する。関連物体の詳細は、例えば、関連物体の具体的な名称に限らず、形状、色、大きさなどを含んでいてもよい。また、関連物体の詳細を特定する処理は、特定の物体を検出するために調整された検出器を用いることによって実現してもよい。例えば、関連物体を地面に対して角度をつけて携帯していることが推定された場合、第1の検出器を用いる、といった具合である。第1の検出器は、例えば、白杖などの地面に対して角度をつけて携帯することが想定される物体を検出するための検出器である。同様に、関連物体を地面に対して垂直にして携帯していることが推定された場合、第2の検出器を用いてもよい。第2の検出器は、例えば、傘などの地面に対して垂直にして携帯することが想定される物体を検出するための検出器である。さらには、関連物体を地面に対して水平にして携帯していることが推定された場合、第3の検出器を用いるようにしてもよい。第3の検出器は、カバンなどの地面に対して水平にして携帯することが想定される物体を検出するための検出器である。 The details specifying unit 46 specifies details of the related object based on the method of carrying the related object. Further, when the method of carrying the related object is a predetermined carrying method, the details specifying unit 46 specifies the details of the related object. The details of the related object may include, for example, not only the specific name of the related object, but also its shape, color, size, and the like. Additionally, the process of identifying details of the relevant object may be achieved by using a detector that is tuned to detect the specific object. For example, if it is estimated that the relevant object is being carried at an angle to the ground, the first detector may be used. The first detector is a detector for detecting an object, such as a white cane, that is assumed to be carried at an angle to the ground. Similarly, a second detector may be used if it is estimated that the relevant object is being carried perpendicular to the ground. The second detector is, for example, a detector for detecting an object such as an umbrella that is assumed to be carried perpendicular to the ground. Furthermore, if it is estimated that the relevant object is being carried horizontally with respect to the ground, a third detector may be used. The third detector is a detector for detecting an object such as a bag that is assumed to be carried horizontally with respect to the ground.

第1の検出器は、複数の検出器を有していてもよい。同様に、第2の検出器や第3の検出器が複数の検出器を有していてもよい。さらに、第1の検出器は、第2の検出器または第3の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。同様に、第2の検出器は、第1の検出器または第3の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。また、第3の検出器は、第1の検出器または第2の検出器が検出可能な物体と同じ種類の物体を検出することが可能であってもよい。 The first detector may include multiple detectors. Similarly, the second detector and the third detector may have a plurality of detectors. Furthermore, the first detector may be capable of detecting the same type of object that the second detector or the third detector is capable of detecting. Similarly, the second detector may be capable of detecting the same type of object that the first detector or the third detector is capable of detecting. Further, the third detector may be capable of detecting the same type of object as the first detector or the second detector.

さらには、第1の検出器が複数の検出器から構成される場合、特定の検出器に対してラベルを付与してもよい。ラベルは、例えば「歩行補助具」、「雨具」といったものである。同様に、第2の検出器や第3の検出器を構成する複数の検出器に対してもラベルを付与してもよい。 Furthermore, when the first detector is composed of a plurality of detectors, a label may be given to a specific detector. Examples of the labels include "walking aid" and "rain gear." Similarly, labels may be given to a plurality of detectors constituting the second detector and the third detector.

なお、詳細特定部46は、必ずしも第1の検出器と第2の検出器と第3の検出器とを備えている必要はなく、いずれかのみを備えるように構成してもよい。そのような場合、関連物体が特定の携帯方法であると推定された時以外は、関連物体の詳細を特定せずに処理を終了するようにしてもよい。 Note that the detail specifying unit 46 does not necessarily need to include the first detector, the second detector, and the third detector, and may be configured to include only any of them. In such a case, the process may be terminated without specifying the details of the related object, unless it is estimated that the related object is a specific carrying method.

関連物体の詳細を特定する処理は、上述の検出器を用いた方法に限らず、携帯方法を検索キーとして含むデータベースを検索することによって特定するものであってもよい。 The process of identifying details of the related object is not limited to the method using the above-described detector, but may also be performed by searching a database that includes the carrying method as a search key.

また、携帯方法推定部44によって推定された携帯方法に加えて、参考情報を考慮して関連物体の詳細を特定するようにしてもよい。参考情報は、例えば、人物の属性を含んでいてもよい。人物の属性は、年齢、性別、表情といった情報などである。これにより、高齢者であることを示す参考情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。 Further, in addition to the carrying method estimated by the carrying method estimating unit 44, reference information may be taken into consideration to specify the details of the related object. The reference information may include, for example, attributes of the person. The person's attributes include information such as age, gender, and facial expression. Thereby, when reference information indicating that the person is an elderly person is acquired, it is possible to perform processing such as preferentially applying a detector labeled with a "walking aid".

上述した例に限らず、参考情報は、環境に関する情報を含んでいてもよい。環境に関する情報は、例えば、交差点、駅の構内、点字ブロックが設けられた通路といった、場所や施設、設備の有無を示す情報などである。これにより、点字ブロックの周辺に関連物体が存在することを示す参考情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。 The reference information is not limited to the example described above, and may include information regarding the environment. The information regarding the environment includes, for example, information indicating the presence or absence of locations, facilities, and equipment, such as intersections, station premises, and passageways with Braille blocks. As a result, when reference information indicating that a related object exists around a Braille block is obtained, processing can be performed such as giving priority to a detector labeled as "walking aid". I can do it.

さらに参考情報は、外部の情報提供装置から取得した情報を含んでいてもよい。このような外部の情報提供装置から取得した情報は、例えば、天候や、交通に関する情報が挙げられる。これにより、雨や雪などの情報を取得した場合には、「歩行補助具」のラベルが付与された検出器を優先して適用する、といった処理を行うことができる。 Further, the reference information may include information obtained from an external information providing device. Examples of the information acquired from such an external information providing device include information regarding the weather and traffic. As a result, when information such as rain or snow is acquired, it is possible to perform processing such as preferentially applying a detector labeled with a "walking aid" label.

次に、図13を用いて、推定した携帯方法に基づいて所定の処理を実行するまでの一連の流れについて説明する。図13は、実施形態4の情報処理装置40が行う処理を例示するフローチャートである。なお、前述の実施形態1から3と重複する処理については、一部説明を省略している。 Next, a series of steps up to executing a predetermined process based on the estimated carrying method will be described using FIG. 13. FIG. 13 is a flowchart illustrating processing performed by the information processing device 40 of the fourth embodiment. Note that some explanations of processes that overlap with those of the first to third embodiments described above are omitted.

情報処理装置40は、前述の実施形態1から3と同様に、関連物体の携帯方法を推定する(S401~S404)。次に、詳細特定部46は、関連物体が斜持ちされているか判定を行う(S405)。そして、関連物体が斜持ちされていると判定した場合、第1の検出器を用いて関連物体の詳細を特定する処理を行い(S406)、フローを終了する。 The information processing device 40 estimates the method of carrying the related object, as in the first to third embodiments described above (S401 to S404). Next, the detail specifying unit 46 determines whether the related object is held obliquely (S405). If it is determined that the related object is held obliquely, a process of specifying details of the related object using the first detector is performed (S406), and the flow ends.

一方、関連物体が斜持ちされていると判定されなかった場合、関連物体は縦持ちされているかを判定する(S407)。そして、関連物体が縦持ちされていると判定した場合、第2の検出器を用いて関連物体の詳細を特定する処理(S408)を行い、フローを終了する。 On the other hand, if it is not determined that the related object is held diagonally, it is determined whether the related object is held vertically (S407). If it is determined that the related object is held vertically, a process of specifying details of the related object using the second detector (S408) is performed, and the flow ends.

また、S407において、関連物体は縦持ちされていると判定されなかった場合、第3の検出器を用いて関連物体の詳細を特定する処理(S409)を行い、フローを終了する。 Further, if it is determined in S407 that the related object is not held vertically, a process of specifying details of the related object using the third detector (S409) is performed, and the flow ends.

なお、図13に例示したフローチャートでは、第1の検出器または、第2の検出器、第3の検出器のいずれかによって、関連物体の詳細を特定するようにしたが、携帯方法の判定を一部除いてフローを構成するようにしてもよい。例えば、S405の処理において、関連物体が斜めに持たれていると判定されなかった場合、S407を実行せずにフローを終了する、といった具合である。また、S405とは異なる方法を用いて、関連物体が地面に対して角度をつけて携帯されていることを判定するようにしてもよい。同様に、S407とは異なる方法を用いて関連物体が地面に対して垂直にして携帯されていることを判定するようにしてもよい。そして、これらの判定結果に応じた検出器を用いて関連物体の詳細を特定するようにしてもよい。 Note that in the flowchart illustrated in FIG. 13, the details of the related object are specified using either the first detector, the second detector, or the third detector. The flow may be configured with some exceptions. For example, in the process of S405, if it is not determined that the related object is being held diagonally, the flow may be ended without executing S407. Alternatively, a method different from S405 may be used to determine whether the related object is being carried at an angle to the ground. Similarly, a method different from S407 may be used to determine whether the related object is being carried perpendicular to the ground. Then, the details of the related object may be specified using a detector according to these determination results.

次に、実施形態4の情報処理装置40の使用例について、図14A~図14Dを用いて説明する。図14A~図14Dは、実施形態4の情報処理装置40の使用例を説明するための図である。 Next, an example of how the information processing device 40 of the fourth embodiment is used will be described using FIGS. 14A to 14D. 14A to 14D are diagrams for explaining usage examples of the information processing device 40 of the fourth embodiment.

ここで取りあげる使用例では、図14Aに示すように、白杖Cを所持した人物Aを監視カメラ210で撮影している状況を想定して説明を行う。情報処理装置40は、監視カメラ210と連携し、画像100を取得する。そして、情報処理装置40は、画像100から人物を含む領域101と、人物以外の物体を含む領域102を検出する。これにより、図14Bに示すように、人物を含む領域101と、人物以外の物体を含む領域102が検出される。 In the usage example to be discussed here, a situation will be described assuming that a person A carrying a white cane C is photographed by the surveillance camera 210, as shown in FIG. 14A. The information processing device 40 cooperates with the surveillance camera 210 to acquire the image 100. The information processing device 40 then detects an area 101 containing a person and an area 102 containing objects other than the person from the image 100. As a result, as shown in FIG. 14B, an area 101 including a person and an area 102 including an object other than the person are detected.

情報処理装置40は、人物を含む領域101と、人物以外の物体を含む領域102に基づいて、検出した人物と人物以外の物体とが関連物体であるかを特定する。さらに、情報処理装置40は、関連物体として特定された人物以外の物体を含む領域102を、関連物体を含む領域110として、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得する。これにより、図14Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得することができる。この例では、第1の長さ120と第2の長さ130とが等しいため、関連物体を含む領域110に含まれる関連物体は、人物を含む領域101内の人物に斜持ちされていると推定される。 The information processing device 40 identifies whether the detected person and the object other than the person are related objects based on the area 101 including the person and the area 102 including the object other than the person. Further, the information processing device 40 defines the region 102 including an object other than the person identified as a related object as the region 110 including the related object, and defines the first length 120 and the second length in the region 110 including the related object. 130 is obtained. Thereby, as shown in FIG. 14C, the first length 120 and the second length 130 in the region 110 including the related object can be obtained. In this example, since the first length 120 and the second length 130 are equal, the related object included in the related object containing area 110 is held diagonally by a person in the person containing area 101. Presumed.

その後、情報処理装置40は、図14Dに示すように、第1の検出器170、第2の検出器171、第3の検出器172の中から、携帯方法に応じて検出器を選択する。この例における第1の検出器170は、関連物体が斜持ちされていると推定された場合に適用される検出器であり、白杖を検出することができる。一方、第2の検出器171および第3の検出器172は、関連物体が縦持ちまたは横持ちされている
と推定された場合に適用される検出器であり、歩行杖または傘を検出するための検出器として示している。この例では、情報処理装置40は、関連物体が斜持ちされていると推定したため、第1の検出器170を用いて、関連物体の詳細を特定する。以上の処理により、情報処理装置40は、関連物体が白杖であることを特定する。
Thereafter, the information processing device 40 selects a detector from among the first detector 170, the second detector 171, and the third detector 172 according to the carrying method, as shown in FIG. 14D. The first detector 170 in this example is a detector that is applied when the related object is estimated to be held at an angle, and can detect a white cane. On the other hand, the second detector 171 and the third detector 172 are detectors that are applied when the related object is estimated to be held vertically or horizontally, and are used to detect a walking cane or an umbrella. It is shown as a detector. In this example, since the information processing device 40 estimates that the related object is being held obliquely, it uses the first detector 170 to identify details of the related object. Through the above processing, the information processing device 40 identifies that the related object is a white cane.

このように、実施形態4の構成によれば、詳細特定部46によって、推定した携帯方法に応じて関連物体の詳細を特定することができる。これにより、携帯方法に応じて関連物体の詳細を特定することができる。 In this way, according to the configuration of the fourth embodiment, the detail specifying unit 46 can specify the details of the related object according to the estimated carrying method. Thereby, details of the related object can be specified depending on the carrying method.

<実施形態5>
図15から図17A~図17D用いて、本開示の実施形態5について説明する。本実施形態の情報処理装置は、前述の実施形態1から4に記載の情報処理装置のいずれかに対して、さらに通知部を備える点で相違する。
<Embodiment 5>
Embodiment 5 of the present disclosure will be described using FIGS. 15 to 17A to 17D. The information processing apparatus of this embodiment is different from any of the information processing apparatuses described in Embodiments 1 to 4 described above in that it further includes a notification section.

図15は、実施形態5の情報処理装置50の構成を示すブロック図である。情報処理装置50は、少なくとも画像取得部51と、物体検出部52と、関連物体特定部53と、携帯方法推定部54と、通知部57と、を備える。 FIG. 15 is a block diagram showing the configuration of an information processing device 50 according to the fifth embodiment. The information processing device 50 includes at least an image acquisition section 51 , an object detection section 52 , a related object identification section 53 , a carrying method estimation section 54 , and a notification section 57 .

通知部57は、関連物体の携帯方法に基づいて、関連物体に関する通知を行う。また、通知部57は、推定された携帯方法が所定の携帯方法である場合、関連物体に関する通知を行う。通知は、例えば、注意喚起や、支援要請など様々である。通知を行う対象は、関連物体と所定の関係にある人物や、画像100を取得した装置の周辺にいる人物などである。この他にも、監視センタなどの遠隔地にいる人物に対して通知を行うようにしてもよい。さらに、通知部57は、関連物体の携帯方法に応じて、通知の内容を異なるようにしてもよい。例えば、通知の長さや、回数、頻度、間隔などを異なるようにしてもよい。 The notification unit 57 provides notification regarding the related object based on the method of carrying the related object. Further, the notification unit 57 provides notification regarding the related object when the estimated carrying method is a predetermined carrying method. There are various types of notifications, such as a warning or a request for assistance. Targets to be notified include people who have a predetermined relationship with the related object, people who are around the device that acquired the image 100, and the like. In addition to this, the notification may be sent to a person in a remote location such as a monitoring center. Further, the notification unit 57 may change the content of the notification depending on the method of carrying the related object. For example, the length, number of times, frequency, interval, etc. of notifications may be made different.

通知部57は、例えば、関連物体の携帯方法が周囲に危害を及ぼす可能性のある携帯方法であると判定した場合、通知を行うようにしてもよい。危害を及ぼす可能性のある携帯方法は、単に特定の携帯方法によって関連物体を携帯しているかを判定するものであってもよい。また、携帯方法に加えて、関連物体の大きさや、混雑度を考慮するようにしてもよい。例えば、関連物体の大きさを考慮する場合、関連物体が大きいほど周囲に危害を及ぼす可能性があると判定されやすくする、といった具合である。また、混雑度を考慮する場合には、混雑度が混雑していることを示すほど周囲に危害を及ぼす可能性があると判定されやすくする、といった具合である。なお、混雑度は、画像100に写る人の数に基づいて算出するようにしてもよいし、他の装置によって算出された混雑度を用いてもよい。 For example, the notification unit 57 may issue a notification when it is determined that the method of carrying the related object is a method of carrying that may cause harm to the surroundings. The carrying method that may cause harm may simply be a determination of whether a related object is being carried by a particular carrying method. Furthermore, in addition to the carrying method, the size of related objects and the degree of crowding may be taken into consideration. For example, when considering the size of a related object, the larger the related object, the more likely it is to be determined that it is likely to cause harm to the surroundings. Furthermore, when considering the degree of crowding, the more the degree of crowding indicates that the place is crowded, the more likely it is to be determined that there is a possibility of harm to the surroundings. Note that the degree of crowding may be calculated based on the number of people in the image 100, or the degree of crowding calculated by another device may be used.

通知部57は、関連物体の詳細を考慮して、関連物体に関する通知を行うようにしてもよい。また、関連物体の詳細に応じて、通知の内容、通知を行う条件、通知を行う対象を変更するようにしてもよい。例えば、白杖を縦に持って歩く人と、横に持って歩く人とで、異なった内容の注意喚起を行う、といった具合である。なお、関連物体の詳細は、前述の検出器を用いた方法によって特定してもよいし、他の方法によって特定するようにしてもよい。 The notification unit 57 may take the details of the related object into consideration and provide notification regarding the related object. Further, the content of the notification, the conditions for notification, and the target for notification may be changed depending on the details of the related object. For example, different warnings may be given for people who walk with a white cane vertically and those who walk horizontally. Note that the details of the related object may be specified by the method using the aforementioned detector, or may be specified by another method.

また、通知部57は、種々の報知装置を介して通知する。種々の報知装置は、例えば、スピーカなどの音声出力装置や、ディスプレイなどの表示装置である。また、これらの報知装置は、道路、施設、監視センタなどの特定の場所に設置されるものであってもよいし、移動または携帯可能な可搬性を有した装置であってもよい。さらには、特定の人物に限定して情報を伝達可能な指向性を有していてもよい。なお、種々の報知装置と情報処理装置50は一体に構成されていてもよい。 The notification unit 57 also provides notification via various notification devices. Various notification devices include, for example, audio output devices such as speakers, and display devices such as displays. Further, these notification devices may be installed at specific locations such as roads, facilities, monitoring centers, etc., or may be portable devices that can be moved or carried. Furthermore, it may have directionality that allows information to be transmitted only to a specific person. Note that various notification devices and the information processing device 50 may be configured integrally.

次に、図16を用いて、推定した携帯方法に基づいて所定の処理を実行するまでの一連の流れについて説明する。図16は、実施形態5の情報処理装置50が行う処理を例示するフローチャートである。なお、前述の実施形態1から4と重複する処理については、一部説明を省略している。 Next, a series of steps up to executing a predetermined process based on the estimated carrying method will be described using FIG. 16. FIG. 16 is a flowchart illustrating processing performed by the information processing device 50 of the fifth embodiment. Note that some descriptions of processes that overlap with those of the first to fourth embodiments described above are omitted.

情報処理装置50は、前述の実施形態1から4と同様に、関連物体の携帯方法を推定する(S501~S504)。そして、通知部57は、関連物体が横持ちされているかを判定する(S505)。関連物体が横持ちされていると判定した場合、通知を行う処理を行い(S506)、フローを終了する。一方、S505において、関連物体が横持ちされていると判定されなかった場合にもフローを終了する。 The information processing device 50 estimates the method of carrying the related object, as in the first to fourth embodiments described above (S501 to S504). Then, the notification unit 57 determines whether the related object is being held horizontally (S505). If it is determined that the related object is being held horizontally, a notification process is performed (S506), and the flow ends. On the other hand, the flow also ends if it is determined in S505 that the related object is not held sideways.

なお、図16に例示したフローチャートでは、S505において関連物体が横持ちされている場合にのみ通知を行うようにしたが、横持ちされていない場合にも通知を行うようにしてもよい。その際、通知の内容を異ならせるようにしてもよい。また、関連物体を縦持ちまたは斜持ちしていると判定した場合に通知を行うようにしてもよい。さらには、推定された携帯方法の種類に応じて通知の内容を異ならせるようにしてもよい。また、S505とは異なる方法を用いて、関連物体が地面に対して水平にして携帯されていることを判定するようにしてもよい。 Note that in the flowchart illustrated in FIG. 16, the notification is performed only when the related object is held horizontally in S505, but the notification may be performed even when the related object is not held horizontally. At that time, the content of the notification may be different. Further, the notification may be performed when it is determined that the related object is being held vertically or diagonally. Furthermore, the content of the notification may vary depending on the estimated type of carrying method. Further, a method different from S505 may be used to determine whether the related object is being carried horizontally with respect to the ground.

次に、実施形態5の情報処理装置50の使用例について、図17A~図17Dを用いて説明する。図17A~図17Dは、実施形態5の情報処理装置50の使用例を説明するための図である。 Next, an example of how the information processing device 50 of the fifth embodiment is used will be described using FIGS. 17A to 17D. 17A to 17D are diagrams for explaining usage examples of the information processing device 50 of the fifth embodiment.

ここで取りあげる使用例では、図17Aに示すように、傘Bを所持した人物Aを監視カメラ210で撮影している状況を想定して説明を行う。情報処理装置50は、監視カメラ210と連携し、画像100を取得する。そして、情報処理装置50は、画像100から人物Aを含む領域101と、人物以外の物体を含む領域102を検出する。これにより、図17Bに示すように、人物Aを含む領域101と、人物以外の物体を含む領域102が検出される。 In the example of use discussed here, a situation will be described assuming that a person A carrying an umbrella B is photographed by the surveillance camera 210, as shown in FIG. 17A. The information processing device 50 cooperates with the surveillance camera 210 to acquire the image 100. Then, the information processing device 50 detects an area 101 including the person A and an area 102 including an object other than the person from the image 100. As a result, as shown in FIG. 17B, an area 101 including the person A and an area 102 including objects other than the person are detected.

情報処理装置50は、人物を含む領域101と、人物以外の物体を含む領域102に基づいて、検出した人物と人物以外の物体とが関連物体であるかを特定する。さらに、情報処理装置50は、関連物体として特定された人物以外の物体を含む領域102を、関連物体を含む領域110として、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得する。これにより、図17Cに示すように、関連物体を含む領域110における第1の長さ120と第2の長さ130を取得することができる。この例では、第1の長さ120よりも第2の長さ130のほうが長いため、関連物体は、人物Aに横持ちされていると推定される。 The information processing device 50 specifies whether the detected person and the object other than the person are related objects based on the area 101 including the person and the area 102 including the object other than the person. Furthermore, the information processing device 50 defines the region 102 that includes an object other than the person identified as the related object as the region 110 that includes the related object, and defines the first length 120 and the second length of the region 110 that includes the related object. 130 is obtained. Thereby, as shown in FIG. 17C, the first length 120 and the second length 130 in the region 110 including the related object can be obtained. In this example, since the second length 130 is longer than the first length 120, it is estimated that the related object is being held sideways by person A.

その後、情報処理装置50は、推定された携帯方法に基づいて、関連物体が周囲に危害を及ぼす可能性のある携帯方法にて携帯されているかを判定する。判定の結果、関連物体が周囲に危害を及ぼす可能性のある携帯方法によって携帯されていると判定したため、情報処理装置50は、図17Dに示すように、画像100を取得した監視カメラ210の周辺に設置されたスピーカ220を通じて、人物Aに対して、関連物体として特定した傘Bの携帯方法に対する注意を行う。 Thereafter, the information processing device 50 determines, based on the estimated carrying method, whether the related object is being carried in a carrying manner that may cause harm to the surroundings. As a result of the determination, it is determined that the related object is being carried in a manner that may cause harm to the surrounding area, so the information processing device 50 detects the surroundings of the surveillance camera 210 that acquired the image 100, as shown in FIG. 17D. Through a speaker 220 installed at , a warning is given to person A regarding how to carry umbrella B, which has been identified as a related object.

このように、実施形態5の構成によれば、通知部57によって、推定した携帯方法に応じて通知を行うことができる。これにより、携帯方法に応じた通知を行うことができる。 In this manner, according to the configuration of the fifth embodiment, the notification unit 57 can provide notification according to the estimated carrying method. This allows notifications to be made in accordance with the carrying method.

なお、本開示における実施形態5は、上述した態様に限らず、例えば次のように構成されてもよい。
情報処理装置50は、事前に登録された人物に対して通知を行うようにしてもよい。例えば、通知部57が通知を行うことを決定した場合、情報処理装置50は、事前に登録された人物に対して通知を行う、といった具合である。また、事前に登録された人物の中から通知条件を満たす人物に対してのみ通知を行うようにしてもよい。
Note that the fifth embodiment of the present disclosure is not limited to the above-described aspect, and may be configured as follows, for example.
The information processing device 50 may notify a person registered in advance. For example, when the notification unit 57 determines to notify, the information processing device 50 notifies a person registered in advance. Further, the notification may be made only to those who satisfy the notification conditions from among the persons registered in advance.

通知条件は、例えば、画像100に基づいて通知部57が通知を行うと判定した場合、画像100を生成した装置の周辺にいることを条件に含んでいてもよい。また、事前に登録された人物を特定する処理は、監視カメラ210と連携し、既知の顔認証技術によって特定してもよい。さらには、顔認証に限らず、ジオフェンシングなどの位置情報を活用した種々の技術によって、事前に登録された人物が画像100を生成した装置の周辺エリアに存在するかを特定するようにしてもよい。 The notification conditions may include, for example, when the notification unit 57 determines to issue a notification based on the image 100, the condition is that the user is in the vicinity of the device that generated the image 100. Further, the process of identifying a person who has been registered in advance may be performed in cooperation with the surveillance camera 210, using known face recognition technology. Furthermore, in addition to facial recognition, various technologies using location information such as geofencing may be used to identify whether a pre-registered person exists in the area surrounding the device that generated the image 100. good.

また、情報処理装置50は、通知部57が通知を行うと判定した際に検出していた人物を、通知に関する情報と紐づけて記憶装置に記憶するようにしてもよい。通知に関する情報は、通知した日時や、通知の内容、通知の方法などを含んでいてもよい。さらに、通知部57は、既に記憶装置に記憶されている同一の人物に対して通知を行う場合、過去に行った通知の方法と異なる方法を用いて通知を行うようにしてもよい。例えば、特定の人物に対して注意喚起を行う必要があると判定した際、過去にその人物に対してスピーカを通じて注意喚起を行った履歴が存在する場合には、スピーカによる注意喚起に替えて周辺にいる警備員から注意を行うように種々の報知装置を通じて要請する、といった具合である。 Further, the information processing device 50 may store the person detected when the notification unit 57 determines to issue the notification in the storage device in association with information regarding the notification. The information regarding the notification may include the date and time of notification, the content of the notification, the method of notification, and the like. Furthermore, when notifying the same person who is already stored in the storage device, the notification unit 57 may use a method different from the method of notification performed in the past. For example, when it is determined that it is necessary to alert a specific person, if there is a history of alerting that person through a loudspeaker in the past, then instead of alerting the person through a loudspeaker, For example, a security guard located at the location would request caution through various notification devices.

(ハードウェア構成について)
本開示の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置500とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置500のハードウェア構成の一例を示すブロック図である。情報処理装置500は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)501
・ROM(Read Only Memory)502
・RAM(Random Access Memory)503
・RAM503にロードされるプログラム504
・プログラム504を格納する記憶装置505
・記録媒体506の読み書きを行うドライブ装置507
・通信ネットワーク509と接続する通信インターフェース508
・データの入出力を行う入出力インターフェース510
・各構成要素を接続するバス511
(About hardware configuration)
In each embodiment of the present disclosure, each component of each device represents a functional unit block. A part or all of each component of each device is realized by an arbitrary combination of an information processing device 500 and a program as shown in FIG. 18, for example. FIG. 18 is a block diagram illustrating an example of the hardware configuration of the information processing device 500 that implements each component of each device. Information processing device 500 includes the following configuration, as an example.
・CPU (Central Processing Unit) 501
・ROM (Read Only Memory) 502
・RAM (Random Access Memory) 503
Program 504 loaded into RAM 503
- Storage device 505 that stores the program 504
- A drive device 507 that reads and writes from the recording medium 506
- Communication interface 508 connected to communication network 509
- Input/output interface 510 for inputting and outputting data
Bus 511 connecting each component

各実施形態における各装置の各構成要素は、これらの機能を実現するプログラム504をCPU501が取得して実行することによって実現される。より具体的には、CPU501は、画像100を取得するプログラムや、画像100から物体を検出するプログラム、人物と所定の関係にある物体を関連物体として特定するプログラム、関連物体の携帯方法を推定するプログラムなどの各種プログラムを実行し、RAM503や記憶装置505等に保持された様々なパラメーターの更新処理を実施することによって実現される。 Each component of each device in each embodiment is realized by the CPU 501 acquiring and executing a program 504 that realizes these functions. More specifically, the CPU 501 estimates a program for acquiring the image 100, a program for detecting an object from the image 100, a program for identifying an object that has a predetermined relationship with a person as a related object, and a method for carrying the related object. This is achieved by executing various programs such as programs and updating various parameters held in the RAM 503, the storage device 505, etc.

各装置の各構成要素の機能を実現するプログラム504は、例えば、予め記憶装置505やROM502に格納されており、必要に応じてCPU501が読み出す。なお、プログラム504は、通信ネットワーク509を介してCPU501に供給されてもよい。また、予め記録媒体506に格納されたプログラムをドライブ装置507が読み出してCPU501に供給してもよい。 A program 504 that realizes the functions of each component of each device is stored, for example, in advance in a storage device 505 or ROM 502, and is read out by the CPU 501 as necessary. Note that the program 504 may be supplied to the CPU 501 via the communication network 509. Alternatively, the drive device 507 may read out a program stored in the recording medium 506 in advance and supply it to the CPU 501.

また、プログラム504は、出力装置を介して、処理の経過または処理結果を表示することができる。さらには、通信インターフェースを介して、外部の装置と通信することもできる。なお、プログラム504は、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することもできる。 Furthermore, the program 504 can display the progress of processing or processing results via an output device. Furthermore, it is also possible to communicate with external devices via the communication interface. Note that the program 504 can also be recorded on a computer-readable (non-transitory) storage medium.

各装置は、上述の構成に限らず様々な構成で実現することができる。例えば、各装置は、構成要素毎にそれぞれ異なる情報処理装置500とプログラム504とを任意に組み合わせて実現してもよい。また、各装置が備える複数の構成要素が、一つの情報処理装置500とプログラム504との任意の組み合わせによって実現されていてもよい。 Each device can be realized not only in the above-mentioned configuration but also in various configurations. For example, each device may be realized by arbitrarily combining information processing device 500 and program 504, which are different for each component. Further, a plurality of components included in each device may be realized by an arbitrary combination of one information processing device 500 and the program 504.

また、各装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。 In addition, some or all of the components of each device are realized by other general-purpose or dedicated circuits, processors, etc., or a combination thereof. These may be configured by a single chip or multiple chips connected via a bus.

各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。 A part or all of each component of each device may be realized by a combination of the circuits and the like described above and a program.

各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される情報処理システムの形態として実現されてもよい。 When some or all of the components of each device are realized by multiple information processing devices, circuits, etc., the multiple information processing devices, circuits, etc. may be centrally located or distributed. Good too. For example, the information processing device, circuit, etc. may be realized in the form of an information processing system, such as a client and server system, a cloud computing system, etc., in which each is connected via a communication network.

なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではない。即ち、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。 The embodiments described above are preferred embodiments of the present disclosure, and the scope of the present disclosure is not limited to the embodiments described above. That is, it is possible for those skilled in the art to modify or substitute each of the embodiments described above without departing from the gist of the present disclosure, and to construct embodiments with various changes.

上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Part or all of the embodiments described above may be described as in the following supplementary notes, but are not limited to the following.

<付記1>
画像を取得する画像取得部と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、
人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、
を備える情報処理装置。
<付記2>
前記携帯方法推定部は、前記関連物体を含む領域における第1の長さと、前記関連物体を含む領域における第2の長さとに基づいて、前記関連物体の携帯方法を推定する、
付記1に記載の情報処理装置。
<付記3>
前記携帯方法推定部は、前記第1の長さに対する前記第2の長さの比に基づいて、前記関連物体の携帯方法を推定する、
付記2に記載の情報処理装置。
<付記4>
前記携帯方法推定部は、前記第1の長さが前記第2の長さよりも所定の長さ以上長いことを示す場合、前記関連物体の携帯方法が縦持ちであると推定する、
付記2または3に記載の情報処理装置。
<付記5>
前記携帯方法推定部は、前記第2の長さが前記第1の長さよりも所定の長さ以上長いことを示す場合、前記関連物体の携帯方法が横持ちであると推定する、
付記2から4のいずれかに記載の情報処理装置。
<付記6>
前記携帯方法推定部は、前記第1の長さと前記第2の長さとの差が前記所定の長さよりも短い場合、前記関連物体の携帯方法が斜持ちであると推定する、
付記2から5のいずれかに記載の情報処理装置。
<付記7>
前記携帯方法推定部は、前記関連物体を含む領域において、前記画像の縦方向に沿う長さを前記第1の長さとして取得し、前記第1の長さと直行する方向に沿う長さを前記第2の長さとして取得する、
付記2から6のいずれかに記載の情報処理装置。
<付記8>
前記画像に関する情報と、前記人物の情報と、前記人物以外の物体の情報とのいずれかに基づいて、前記関連物体を含む領域に関する情報を補正する領域調整部を備える、
付記1から7のいずれかに記載の情報処理装置。
<付記9>
前記関連物体を含む領域に関する情報は、前記第1の長さまたは前記第2の長さを含む
付記7に記載の情報処理装置。
<付記10>
前記画像に関する情報は、人物の移動方向を含み、
前記領域調整部は、前記人物の移動方向と基準方向とに基づいて、前記関連物体を含む領域に関する情報を補正する、
付記8のいずれかに記載の情報処理装置。
<付記11>
前記関連物体の携帯方法に基づいて、前記関連物体の詳細を特定する詳細特定部を備える、
付記1から10のいずれかに記載の情報処理装置。
<付記12>
前記詳細特定部は、前記携帯方法が所定の携帯方法である場合、前記関連物体の詳細を特定する、
付記11に記載の情報処理装置。
<付記13>
前記関連物体の携帯方法に基づいて、前記関連物体に関する通知を行う通知部を備える、
付記1から12のいずれかに記載の情報処理装置。
<付記14>
前記通知部は、前記携帯方法が所定の携帯方法である場合、前記関連物体に関する通知を行う、
付記13に記載の情報処理装置。
<付記15>
画像を取得する画像取得手段と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、
人物と所定の関係にある物体を関連物体として特定する特定手段と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、
を備える情報処理システム。
<付記16>
画像を取得し、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、
人物と所定の関係にある物体を関連物体として特定し、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する、
情報処理方法。
なお、上記付記15~付記16の形態は、付記1と同様に、付記2~付記14の形態に展開することが可能である。
<Additional note 1>
an image acquisition unit that acquires an image;
an object detection unit that detects an area including a person and an area including an object other than the person from the image;
a related object identification unit that identifies an object that has a predetermined relationship with the person as a related object;
a carrying method estimation unit that estimates a carrying method of the related object based on a region including the related object;
An information processing device comprising:
<Additional note 2>
The carrying method estimation unit estimates the carrying method of the related object based on a first length in a region including the related object and a second length in a region including the related object.
The information processing device according to supplementary note 1.
<Additional note 3>
The carrying method estimation unit estimates a carrying method of the related object based on a ratio of the second length to the first length.
The information processing device according to supplementary note 2.
<Additional note 4>
The carrying method estimating unit estimates that the carrying method of the related object is vertically when the first length is longer than the second length by a predetermined length or more.
The information processing device according to supplementary note 2 or 3.
<Additional note 5>
The carrying method estimation unit estimates that the carrying method of the related object is horizontally when the second length indicates that the second length is longer than the first length by a predetermined length or more.
The information processing device according to any one of Supplementary Notes 2 to 4.
<Additional note 6>
The carrying method estimating unit estimates that the carrying method of the related object is to carry the related object diagonally, if the difference between the first length and the second length is shorter than the predetermined length.
The information processing device according to any one of Supplementary Notes 2 to 5.
<Additional note 7>
The carrying method estimation unit obtains a length along the vertical direction of the image as the first length in a region including the related object, and obtains a length along a direction perpendicular to the first length as the first length. obtained as the second length,
The information processing device according to any one of Supplementary Notes 2 to 6.
<Additional note 8>
comprising an area adjustment unit that corrects information regarding the area including the related object based on any of information regarding the image, information about the person, and information about objects other than the person;
The information processing device according to any one of Supplementary Notes 1 to 7.
<Additional note 9>
The information processing device according to appendix 7, wherein the information regarding the area including the related object includes the first length or the second length.
<Additional note 10>
The information regarding the image includes a moving direction of the person,
The area adjustment unit corrects information regarding the area including the related object based on a moving direction of the person and a reference direction.
The information processing device according to any one of appendix 8.
<Additional note 11>
comprising a details specifying unit that specifies details of the related object based on a method of carrying the related object;
The information processing device according to any one of Supplementary Notes 1 to 10.
<Additional note 12>
The details specifying unit specifies details of the related object when the carrying method is a predetermined carrying method.
The information processing device according to appendix 11.
<Additional note 13>
comprising a notification unit that provides a notification regarding the related object based on a method of carrying the related object;
The information processing device according to any one of Supplementary Notes 1 to 12.
<Additional note 14>
The notification unit provides a notification regarding the related object when the carrying method is a predetermined carrying method.
The information processing device according to appendix 13.
<Additional note 15>
an image acquisition means for acquiring an image;
object detection means for detecting an area including a person and an area including an object other than the person from the image;
identification means for identifying an object that has a predetermined relationship with a person as a related object;
carrying method estimating means for estimating a carrying method of the related object based on a region including the related object;
An information processing system equipped with.
<Additional note 16>
Get the image and
detecting an object from the image, which detects an area including a person and an area including an object other than the person;
Identify objects that have a predetermined relationship with a person as related objects,
estimating a method of carrying the related object based on a region including the related object;
Information processing method.
It should be noted that the forms of Supplementary Notes 15 to 16 above can be developed into the forms of Supplementary Notes 2 to 14, similar to Supplementary Note 1.

10、20、30、40、500 情報処理装置
11、21、31、41 画像取得部
12、22、32、42 物体検出部
13、23、33、43 関連物体特定部
14、24、34、44 携帯方法推定部
35 領域調整部
46 詳細特定部
57 通知部
100 画像
501 CPU(Central Processing Unit)
502 ROM(Read Only Memory)
503 RAM(Random Access Memory)
504 プログラム
505 記憶装置
506 記録媒体
507 ドライブ装置
508 通信インターフェース
509 通信ネットワーク
510 入出力インターフェース
511 バス
10, 20, 30, 40, 500 Information processing device 11, 21, 31, 41 Image acquisition unit 12, 22, 32, 42 Object detection unit 13, 23, 33, 43 Related object identification unit 14, 24, 34, 44 Carrying method estimation section 35 Area adjustment section 46 Detail specification section 57 Notification section 100 Image 501 CPU (Central Processing Unit)
502 ROM (Read Only Memory)
503 RAM (Random Access Memory)
504 Program 505 Storage device 506 Recording medium 507 Drive device 508 Communication interface 509 Communication network 510 Input/output interface 511 Bus

Claims (10)

画像を取得する画像取得部と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出部と、
人物と所定の関係にある物体を関連物体として特定する関連物体特定部と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定部と、
を備える情報処理装置。
an image acquisition unit that acquires an image;
an object detection unit that detects an area including a person and an area including an object other than the person from the image;
a related object identification unit that identifies an object that has a predetermined relationship with the person as a related object;
a carrying method estimation unit that estimates a carrying method of the related object based on a region including the related object;
An information processing device comprising:
前記携帯方法推定部は、前記関連物体を含む領域における第1の長さと、前記関連物体を含む領域における第2の長さとに基づいて、前記関連物体の携帯方法を推定する、
請求項1に記載の情報処理装置。
The carrying method estimation unit estimates the carrying method of the related object based on a first length in a region including the related object and a second length in a region including the related object.
The information processing device according to claim 1.
前記携帯方法推定部は、前記第1の長さに対する前記第2の長さの比に基づいて、前記関連物体の携帯方法を推定する、
請求項2に記載の情報処理装置。
The carrying method estimation unit estimates a carrying method of the related object based on a ratio of the second length to the first length.
The information processing device according to claim 2.
前記携帯方法推定部は、前記関連物体を含む領域において、前記画像の縦方向に沿う長さを前記第1の長さとして取得し、前記第1の長さと直行する方向に沿う長さを前記第2の長さとして取得する、
請求項2または3のいずれかに記載の情報処理装置。
The carrying method estimation unit obtains a length along the vertical direction of the image as the first length in a region including the related object, and obtains a length along a direction perpendicular to the first length as the first length. obtained as the second length,
The information processing device according to claim 2 or 3.
前記画像に関する情報と、前記人物の情報と、前記人物以外の物体の情報とのいずれかに基づいて、前記関連物体を含む領域に関する情報を補正する領域調整部を備える、
請求項1から4のいずれかに記載の情報処理装置。
comprising an area adjustment unit that corrects information regarding the area including the related object based on any of information regarding the image, information about the person, and information about objects other than the person;
An information processing device according to any one of claims 1 to 4.
前記画像に関する情報は、人物の移動方向を含み、
前記領域調整部は、前記人物の移動方向と基準方向とに基づいて、前記関連物体を含む領域に関する情報を補正する、
請求項5のいずれかに記載の情報処理装置。
The information regarding the image includes a moving direction of the person,
The area adjustment unit corrects information regarding the area including the related object based on a moving direction of the person and a reference direction.
The information processing device according to claim 5.
前記関連物体の携帯方法に基づいて、前記関連物体の詳細を特定する詳細特定部を備える、
請求項1から6のいずれかに記載の情報処理装置。
comprising a details specifying unit that specifies details of the related object based on a method of carrying the related object;
An information processing device according to any one of claims 1 to 6.
前記関連物体の携帯方法に基づいて、前記関連物体に関する通知を行う通知部を備える、
請求項1から7のいずれかに記載の情報処理装置。
comprising a notification unit that provides a notification regarding the related object based on a method of carrying the related object;
An information processing device according to any one of claims 1 to 7.
画像を取得する画像取得手段と、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出する物体検出手段と、
人物と所定の関係にある物体を関連物体として特定する特定手段と、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する携帯方法推定手段と、
を備える情報処理システム。
an image acquisition means for acquiring an image;
object detection means for detecting an area including a person and an area including an object other than the person from the image;
identification means for identifying an object that has a predetermined relationship with a person as a related object;
carrying method estimating means for estimating a carrying method of the related object based on a region including the related object;
An information processing system equipped with.
画像を取得し、
前記画像から、人物を含む領域と人物以外の物体を含む領域とを検出するオブジェクトを検出し、
人物と所定の関係にある物体を関連物体として特定し、
前記関連物体を含む領域に基づいて、前記関連物体の携帯方法を推定する、
情報処理方法。
Get the image and
detecting an object from the image, which detects an area including a person and an area including an object other than the person;
Identify objects that have a predetermined relationship with a person as related objects,
estimating a method of carrying the related object based on a region including the related object;
Information processing method.
JP2022046296A 2022-03-23 2022-03-23 Information processing device, information processing system, and information processing method Pending JP2023140450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022046296A JP2023140450A (en) 2022-03-23 2022-03-23 Information processing device, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022046296A JP2023140450A (en) 2022-03-23 2022-03-23 Information processing device, information processing system, and information processing method

Publications (1)

Publication Number Publication Date
JP2023140450A true JP2023140450A (en) 2023-10-05

Family

ID=88205619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022046296A Pending JP2023140450A (en) 2022-03-23 2022-03-23 Information processing device, information processing system, and information processing method

Country Status (1)

Country Link
JP (1) JP2023140450A (en)

Similar Documents

Publication Publication Date Title
KR102339323B1 (en) Target recognition method, apparatus, storage medium and electronic device
JP2018160219A (en) Moving route prediction device and method for predicting moving route
US11776274B2 (en) Information processing apparatus, control method, and program
US20130108172A1 (en) Position Estimation Device, Position Estimation Method, And Program
US11120838B2 (en) Information processing apparatus, control method, and program
CN113228626B (en) Video monitoring system and method
CN109961472B (en) Method, system, storage medium and electronic device for generating 3D thermodynamic diagram
KR20190118965A (en) System and method for eye-tracking
WO2009039350A1 (en) System and method for estimating characteristics of persons or things
Tepelea et al. A vision module for visually impaired people by using Raspberry PI platform
JP2015002477A (en) Information processing apparatus, information processing system, and information processing method
JP2019160310A (en) On-demand visual analysis focalized on salient events
JP2009140264A (en) Crime prevention device and program
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
US10366286B2 (en) Detection of traffic light signal changes
CN111126159A (en) Method, apparatus, electronic device, and medium for tracking pedestrian in real time
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
CN111310595B (en) Method and device for generating information
JP2023140450A (en) Information processing device, information processing system, and information processing method
US9832427B2 (en) Camera, camera system, and self-diagnosis method
US20210166012A1 (en) Information processing apparatus, control method, and non-transitory storage medium
CN113792569B (en) Object recognition method, device, electronic equipment and readable medium
JP2020052788A (en) Image processing system and method therefor, and program
JP2022019988A (en) Information processing apparatus, display device, and control method
CN112241671B (en) Personnel identity recognition method, device and system