JP2022052193A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2022052193A
JP2022052193A JP2020158426A JP2020158426A JP2022052193A JP 2022052193 A JP2022052193 A JP 2022052193A JP 2020158426 A JP2020158426 A JP 2020158426A JP 2020158426 A JP2020158426 A JP 2020158426A JP 2022052193 A JP2022052193 A JP 2022052193A
Authority
JP
Japan
Prior art keywords
image
person
unit
touched
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020158426A
Other languages
Japanese (ja)
Inventor
亮行 永井
Akiyuki Nagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020158426A priority Critical patent/JP2022052193A/en
Priority to PCT/JP2021/020804 priority patent/WO2022064774A1/en
Priority to EP21871907.8A priority patent/EP4220548A4/en
Priority to CN202180061374.2A priority patent/CN116157833A/en
Publication of JP2022052193A publication Critical patent/JP2022052193A/en
Priority to US18/187,739 priority patent/US20230230294A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing device and an image processing program which assist efficient disinfection of a space with the possibility that a virus adheres to somewhere.SOLUTION: A video acquisition section 21 acquires a video of a space with a person, which has been taken by an imaging section. A video analysis section 22 analyzes the acquired video so as to detect places which the person has touched with his/her hands in the space. A picture generation section 24 generates displaying pictures allowing all the touched places which the person has touched with his/her hands to be recognized from the start of the imaging by the imaging section. The imaging section may be installed in a vehicle so as to image a person in the interior of the vehicle.SELECTED DRAWING: Figure 1

Description

本発明は、撮像部により撮像された映像を処理する画像処理装置、及び画像処理プログラムに関する。 The present invention relates to an image processing device for processing an image captured by an image pickup unit and an image processing program.

2020年現在、COVID-19(以下、新型コロナウイルスという)の感染が世界的に拡大している。新型コロナウイルスの感染予防対策として、マスク、手洗い、ソーシャルディスタンスの確保などが挙げられている。また、物を介した感染を予防するために、人が触れた物をこまめに消毒することが求められている。 As of 2020, COVID-19 (hereinafter referred to as the new coronavirus) infection is spreading worldwide. Masks, hand washing, and securing social distance are mentioned as preventive measures against the infection of the new coronavirus. In addition, in order to prevent infection through objects, it is required to diligently disinfect the objects touched by humans.

車の中は狭い密閉空間であるため、換気が悪い状態で使用した場合、車内の備品に付着したウイルスが滞留しやすい。例えば、レンタカーやカーシェアリングなど、前に乗車した人の乗車時の様子が分からない場合、車内を念入りに清掃・消毒する必要がある。 Since the inside of the car is a narrow closed space, the virus attached to the equipment inside the car tends to stay when used in poor ventilation. For example, if you do not know the state of the person who got on the car before, such as renting a car or car sharing, you need to carefully clean and disinfect the inside of the car.

特開2011-257849号公報Japanese Unexamined Patent Publication No. 2011-257894

しかしながら、短時間で清掃・消毒する必要がある場合、車内全体を念入りに清掃・消毒することが難しい。車内を清掃・消毒する際、ウイルスが付着している可能性がある場所が分かれば、その場所を優先的に消毒することができ、消毒作業を効率化することができる。 However, when it is necessary to clean and disinfect in a short time, it is difficult to thoroughly clean and disinfect the entire interior of the vehicle. When cleaning and disinfecting the inside of a car, if the place where the virus may be attached is known, the place can be preferentially disinfected, and the disinfection work can be made more efficient.

本実施形態はこうした状況に鑑みてなされたものであり、その目的は、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援する技術を提供することにある。 The present embodiment is made in view of such a situation, and an object thereof is to provide a technique for supporting efficient disinfection of a space where a virus may be attached somewhere.

上記課題を解決するために、本実施形態のある態様の画像処理装置は、撮像部により撮像された、人物が存在する空間の映像を取得する映像取得部と、取得された映像を解析して、前記空間内で前記人物が手で触った場所を検出する映像解析部と、前記撮像部による撮像開始から、前記人物が手で触った全ての接触場所を認識できる表示用画像を生成する画像生成部と、を備える。 In order to solve the above-mentioned problems, the image processing apparatus according to an embodiment of the present embodiment analyzes an image acquisition unit that acquires an image of a space in which a person exists and an acquired image captured by the image pickup unit. An image that generates a display image that can recognize all the contact locations touched by the person from the start of imaging by the image analysis unit and the image analysis unit that detects the place touched by the person in the space. It is provided with a generation unit.

なお、以上の構成要素の任意の組合せ、本実施形態の表現を、装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present embodiment between devices, methods, systems, recording media, computer programs, and the like are also effective as aspects of the present embodiment.

本実施形態によれば、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援することができる。 According to this embodiment, it is possible to support efficient disinfection of a space where a virus may be attached somewhere.

車両内の撮像装置の設置例を示す図である。It is a figure which shows the installation example of the image pickup apparatus in a vehicle. 実施の形態1に係る人物監視システムの構成例を示す図である。It is a figure which shows the configuration example of the person monitoring system which concerns on Embodiment 1. FIG. 実施の形態1に係る、車両の走行中に撮像されたフレーム画像の一例を示す図である。It is a figure which shows an example of the frame image which was taken while traveling of the vehicle which concerns on Embodiment 1. FIG. 実施の形態1に係る接触場所画像の一例を示す図である。It is a figure which shows an example of the contact place image which concerns on Embodiment 1. FIG. 実施の形態1に係る接触場所画像の別の例を示す図である。It is a figure which shows another example of the contact place image which concerns on Embodiment 1. FIG. 実施の形態2に係る滞在場所画像の第1の例を示す図である。It is a figure which shows the 1st example of the stay place image which concerns on Embodiment 2. FIG. 実施の形態2に係る滞在場所画像の第2の例を示す図である。It is a figure which shows the 2nd example of the stay place image which concerns on Embodiment 2. FIG. 図8(a)-(c)は、実施の形態2に係る滞在場所画像の第3の例を示す図である。8 (a)-(c) are views showing a third example of the staying place image according to the second embodiment. 実施の形態2に係る滞在場所画像の第4の例を示す図である。It is a figure which shows the 4th example of the stay place image which concerns on Embodiment 2. FIG. 実施の形態2に係る滞在場所画像の第5の例を示す図である。It is a figure which shows the 5th example of the stay place image which concerns on Embodiment 2. FIG.

本発明の実施の形態1は、車室内に設置されたカメラで乗員を撮影し、乗員が手で触った場所を監視・記録する人物監視システムに関する。 Embodiment 1 of the present invention relates to a person monitoring system that photographs a occupant with a camera installed in a vehicle interior and monitors and records a place touched by the occupant.

図1は、車両C1内の撮像装置10の設置例を示す図である。図1では撮像装置10は、ルームミラーに取り付けられている。なお撮像装置10は、センタバイザーやセンタコンソール上に設置されてもよい。また撮像装置10は車室内の天井に、車室内を上から俯瞰するように設置されてもよい。例えば円周魚眼レンズを使用すれば、車室内の半球状の全周囲を画角に収めることができる。 FIG. 1 is a diagram showing an installation example of the image pickup apparatus 10 in the vehicle C1. In FIG. 1, the image pickup device 10 is attached to a rear-view mirror. The image pickup device 10 may be installed on the center visor or the center console. Further, the image pickup apparatus 10 may be installed on the ceiling of the vehicle interior so as to have a bird's-eye view of the vehicle interior from above. For example, if a circumferential fisheye lens is used, the entire circumference of the hemisphere in the vehicle interior can be captured in the angle of view.

撮像装置10として、専用のカメラを設置してもよいし、ドライブレコーダや車室内モニタリングシステムのカメラを使用してもよい。車室内モニタリングシステムは、助手席や後部座席を含む車室全体を監視するシステムであり、ドライバの居眠りや脇見に加えて、助手席や後部座席に座っている乗員の数、ドライバを含む乗員全員のシートベルトの着用の有無などを検知することができる。 As the image pickup apparatus 10, a dedicated camera may be installed, or a drive recorder or a camera of a vehicle interior monitoring system may be used. The passenger seat monitoring system is a system that monitors the entire passenger compartment including the passenger seat and the back seat, and in addition to the driver's doze and inattentiveness, the number of passengers sitting in the passenger seat and the back seat, and all the passengers including the driver. It is possible to detect whether or not the seat belt is worn.

撮像装置10は、レンズ、固体撮像素子、信号処理回路を備える。固体撮像素子には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子は、レンズを介して入射される光を、電気的な映像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される映像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置20に出力する。 The image pickup device 10 includes a lens, a solid-state image pickup device, and a signal processing circuit. For example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Devices) image sensor can be used as the solid-state image sensor. The solid-state image sensor converts the light incident through the lens into an electrical video signal and outputs it to a signal processing circuit. The signal processing circuit performs signal processing such as A / D conversion and noise removal on the video signal input from the solid-state image sensor, and outputs the signal to the image processing device 20.

撮像装置10は、距離画像を生成するための深度センサを備えていてもよい。深度センサとして例えば、3D-LiDAR(Light Detection and Ranging)を使用することができる。LiDARは撮影方向にレーザ光を照射し、その反射光を受光するまでの時間を計測して撮影方向にある物体までの距離を検出する。また撮像装置10は2眼のステレオカメラで構成されていてもよい。この場合、深度センサを設けなくても、2つの画像の視差をもとに距離画像を生成することができる。 The image pickup apparatus 10 may include a depth sensor for generating a distance image. For example, 3D-LiDAR (Light Detection and Ranging) can be used as the depth sensor. LiDAR irradiates a laser beam in the shooting direction, measures the time until the reflected light is received, and detects the distance to an object in the shooting direction. Further, the image pickup apparatus 10 may be composed of a two-lens stereo camera. In this case, a distance image can be generated based on the parallax between the two images without providing a depth sensor.

図2は、実施の形態1に係る人物監視システム1の構成例を示す図である。人物監視システム1は、画像処理装置20、表示装置30、記録媒体40及び音声出力装置50を備える。画像処理装置20は、映像取得部21、映像解析部22、画像保持部23、画像生成部24、及び警告制御部25を含む。これらの構成要素は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ISP(Image Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェアなどのプログラムを利用できる。 FIG. 2 is a diagram showing a configuration example of the person monitoring system 1 according to the first embodiment. The person monitoring system 1 includes an image processing device 20, a display device 30, a recording medium 40, and an audio output device 50. The image processing device 20 includes a video acquisition unit 21, a video analysis unit 22, an image holding unit 23, an image generation unit 24, and a warning control unit 25. These components can be realized by the cooperation of hardware resources and software resources, or only by hardware resources. As hardware resources, CPU, ROM, RAM, GPU (Graphics Processing Unit), DSP (Digital Signal Processor), ISP (Image Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc. LSI can be used. Programs such as firmware can be used as software resources.

画像処理装置20は、専用のIC基板上に実装されてもよいし、カーナビゲーションシステムやドライブレコーダシステムと統合されて実装されてもよい。また画像処理装置20は、スマートフォン、タブレットなどの汎用の情報端末装置の一機能として構成されてもよい。撮像装置10と画像処理装置20間は有線または無線で接続される。画像処理装置20が専用のIC基板上に実装される場合、画像処理装置20と撮像装置10は、同じ筐体内に設置されてもよいし、別々の筐体内に設置されてもよい。 The image processing device 20 may be mounted on a dedicated IC board, or may be mounted integrally with a car navigation system or a drive recorder system. Further, the image processing device 20 may be configured as one function of a general-purpose information terminal device such as a smartphone or a tablet. The image pickup device 10 and the image processing device 20 are connected by wire or wirelessly. When the image processing device 20 is mounted on a dedicated IC substrate, the image processing device 20 and the image pickup device 10 may be installed in the same housing or may be installed in separate housings.

映像取得部21は、撮像装置10により撮像された映像を取得する。映像解析部22は、映像取得部21により取得された映像を解析する。実施の形態1では映像解析部22は、車室内で乗員が手で触った場所を検出する。 The image acquisition unit 21 acquires the image captured by the image pickup device 10. The video analysis unit 22 analyzes the video acquired by the video acquisition unit 21. In the first embodiment, the video analysis unit 22 detects a place touched by the occupant in the vehicle interior.

映像解析部22は、対象物認識部22a、対象物追尾部22b及び三次元空間認識部22cを含む。対象物認識部22aは、映像取得部21により取得された映像のフレーム内において対象物を探索する。対象物認識部22aは辞書データとして、特定の対象物が写った多数の画像を学習して生成された特定の対象物の識別器を有する。実施の形態1では人物の手の識別器を用意する。人物の手の識別器は少なくとも、手の甲が開いた状態の識別器を含む。なお手の識別器として、様々な状態の手を様々な角度から見た複数の識別器を用意することが好ましい。 The image analysis unit 22 includes an object recognition unit 22a, an object tracking unit 22b, and a three-dimensional space recognition unit 22c. The object recognition unit 22a searches for an object in the frame of the image acquired by the image acquisition unit 21. The object recognition unit 22a has, as dictionary data, a discriminator for a specific object generated by learning a large number of images showing the specific object. In the first embodiment, a person's hand classifier is prepared. The classifier for a person's hand includes at least a classifier with the back of the hand open. As the hand classifier, it is preferable to prepare a plurality of hand classifiers in which hands in various states are viewed from various angles.

また人物の手の識別器に加えて、車室内に存在する様々な装備品の識別器を用意しておいてもよい。例えば、ステアリング、シートベルト、シフトレバーなどの識別器を用意しておいてもよい。 Further, in addition to the classifier of a person's hand, a classifier of various equipment existing in the vehicle interior may be prepared. For example, a classifier such as a steering wheel, a seat belt, and a shift lever may be prepared.

対象物認識部22aは、映像のフレーム内を各対象物の識別器を用いて探索する。対象物の認識には例えば、HOG(Histograms of Oriented Gradients)特徴量を用いることができる。なお、Haar-like特徴量やLBP(Local Binary Patterns)特徴量などを用いてもよい。フレーム内に対象物が存在する場合、対象物認識部22aは、矩形の検出枠で当該対象物を補足する。 The object recognition unit 22a searches within the frame of the image using the classifier of each object. For example, a HOG (Histograms of Oriented Gradients) feature quantity can be used for recognizing an object. In addition, Haar-like feature amount, LBP (Local Binary Patterns) feature amount, and the like may be used. When an object exists in the frame, the object recognition unit 22a captures the object with a rectangular detection frame.

対象物追尾部22bは、対象物認識部22aが認識した対象物を、後続するフレーム内において追尾する。対象物の追尾には、例えば、パーティクルフィルタやミーンシフト法を使用することができる。実施の形態1では追尾する対象物は、対象物認識部22aにより認識された人物の手である。 The object tracking unit 22b tracks the object recognized by the object recognition unit 22a in the subsequent frame. For example, a particle filter or a mean shift method can be used for tracking an object. In the first embodiment, the object to be tracked is the hand of a person recognized by the object recognition unit 22a.

三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内に、対象物認識部22aにより検出された対象物をマッピングする。実施の形態1では三次元空間認識部22cは、三次元空間内で、乗員の手が触れた場所を検出する。車室内に存在する装備品も対象物として認識している場合、乗員の手が触れた装備品も特定することができる。 The three-dimensional space recognition unit 22c maps the object detected by the object recognition unit 22a in the three-dimensional space specified by the distance image acquired from the image pickup device 10. In the first embodiment, the three-dimensional space recognition unit 22c detects a place touched by the occupant's hand in the three-dimensional space. If the equipment existing in the passenger compartment is also recognized as an object, the equipment touched by the occupant's hand can be identified.

三次元空間認識部22cは、乗員の手が装備品に触れた状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。画像保持部23は、フレーム画像を一時的に格納するための揮発性メモリである。 When the three-dimensional space recognition unit 22c detects a frame image in a state where the occupant's hand touches the equipment, the detected frame image is temporarily stored in the image holding unit 23. The image holding unit 23 is a volatile memory for temporarily storing a frame image.

画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、車室内で乗員が触った全ての接触場所をユーザが認識できる接触場所表示用の画像(以下、接触場所画像という)を生成する。画像生成部24は、接触場所画像として、乗員が手で触った可能性が高い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、接触可能性にもとづき3段階に分類されたヒートマップ画像を生成してもよい。例えば、乗員の手が接触した領域を赤色、接触した可能性がある領域を黄色、接触していない領域を緑色で表示したヒートマップ画像を生成してもよい。なお、接触していない領域は無色としてもよい。 The image generation unit 24 is for displaying the contact location so that the user can recognize all the contact locations touched by the occupant in the vehicle interior from the start of imaging by the image pickup device 10 based on the frame image stored in the image holding unit 23. An image (hereinafter referred to as a contact location image) is generated. The image generation unit 24 may generate a heat map image as a contact location image, which is displayed in a more prominent color as the location is more likely to be touched by the occupant. For example, a heat map image classified into three stages based on contact possibility may be generated. For example, a heat map image may be generated in which the area in contact with the occupant's hand is displayed in red, the area in which the occupant's hand may be in contact is displayed in yellow, and the area in which the occupant's hand is not in contact is displayed in green. The non-contact area may be colorless.

画像生成部24は、乗員の手が接触した領域の明るさを最も明るく表示させ、接触した可能性がある領域の明るさを次に明るく表示させ、接触していない領域の明るさを最も暗く表示した接触場所画像を生成してもよい。また乗員の手が接触した領域が点滅している接触場所画像を生成してもよい。 The image generation unit 24 displays the brightness of the area where the occupant's hand touches the brightest, displays the brightness of the area where the occupant's hand may have touched next brightest, and makes the brightness of the non-contact area the darkest. The displayed contact location image may be generated. Further, a contact location image in which the area touched by the occupant's hand is blinking may be generated.

表示態様を目立たせる領域は装備品単位であってもよいし、実際に触った領域単位であってもよい。装備品単位で目立たせる場合、例えばシートベルトの一部しか触っていない場合でも、シートベルト全体を目立たせる。 The area where the display mode is conspicuous may be an equipment unit or an area unit actually touched. If you want to make the equipment stand out, for example, even if you are touching only a part of the seatbelt, make the whole seatbelt stand out.

画像生成部24は、乗員が手で触った回数が多い接触場所ほど目立つ表示態様の接触場所画像を生成してもよい。例えば、接触回数が多い接触場所ほど彩度を高くしてもよい。 The image generation unit 24 may generate a contact location image having a display mode that is more conspicuous as the contact location is touched more frequently by the occupant. For example, the saturation may be increased as the number of contacts increases.

画像生成部24は、画像保持部23に格納された、乗員の手がどこかに触れている状態の複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、乗員の手がどこかに触れている状態の複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。 The image generation unit 24 may generate a digest moving image for displaying the contact location by connecting a plurality of frame images stored in the image holding unit 23 in a state where the occupant's hand is touching somewhere. Further, the image generation unit 24 may generate a single still image by superimposing a plurality of frame images in a state where the occupant's hand is touching somewhere.

なお画像生成部24は、車室内において乗員が手で触った装備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、乗員の手が装備品に触れた状態のフレーム画像を画像保持部23に蓄積する必要はなく、乗員の手が触れた装備品を特定するための管理情報を保持しておけばよい。 The image generation unit 24 may generate an image in which the equipment touched by the occupant in the vehicle interior is simply listed by text information. In this case, it is not necessary to store the frame image in the state where the occupant's hand touches the equipment in the image holding unit 23, and it is sufficient to retain the management information for identifying the equipment touched by the occupant's hand. ..

車室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、接触場所画像の表示指示操作がなされると、画像生成部24は、接触場所画像を生成し、生成した接触場所画像を表示装置30に表示させる。 When a user who is trying to clean and disinfect the interior of the vehicle instructs the operation unit (not shown) to display a contact location image, the image generation unit 24 generates a contact location image and the generated contact location. The image is displayed on the display device 30.

表示装置30は、車両C1内に設置されているカーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムのディスプレイ(例えば、液晶ディスプレイ、有機ELディスプレイ)であってもよい。また表示装置30は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのディスプレイであってもよい。また表示装置30は、車両内に設置されているメータパネル内のディスプレイであってもよい。なお表示装置30は、本実施の形態に係る人物監視システム1に専用のディスプレイであってもよい。 The display device 30 may be a display (for example, a liquid crystal display, an organic EL display) of a car navigation system, a display audio system, or a drive recorder system installed in the vehicle C1. Further, the display device 30 may be a display of a smartphone or a tablet linked with a car navigation system, a display audio system or a drive recorder system. Further, the display device 30 may be a display in the meter panel installed in the vehicle. The display device 30 may be a display dedicated to the person monitoring system 1 according to the present embodiment.

なお画像生成部24は、車両C1の走行中にリアルタイムに接触場所画像を生成し、表示装置30に表示させてもよい。この場合、乗員が車室内の何かを触ると、接触場所画像が更新される。画像生成部24は、接触場所画像として、撮像装置10により撮像されている映像上に、接触場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。 The image generation unit 24 may generate a contact location image in real time while the vehicle C1 is traveling and display it on the display device 30. In this case, when the occupant touches something in the passenger compartment, the contact location image is updated. The image generation unit 24 may display the AR image on which the attention marker indicating the contact location is superimposed on the image captured by the image pickup device 10 as the contact location image on the display device 30.

記録媒体40は、撮像装置10により撮像された映像を記録するための不揮発性の記録媒体である。例えば、半導体メモリカード(例えば、SDカード)や光ディスクを使用することができる。画像生成部24により生成された接触場所画像も記録媒体40に記録することができる。 The recording medium 40 is a non-volatile recording medium for recording an image captured by the image pickup apparatus 10. For example, a semiconductor memory card (for example, an SD card) or an optical disk can be used. The contact location image generated by the image generation unit 24 can also be recorded on the recording medium 40.

以上の説明では、映像解析部22が撮像装置10から距離画像を取得できることを前提とした。撮像装置10に深度センサを設けたり、撮像装置10を二眼構成としたりするとコストが上昇する。以下の説明では、映像解析部22が撮像装置10から距離画像を取得できない場合の処理例を説明する。この処理例では、三次元空間認識部22cは設けられず、二次元の映像のみから車室内で乗員が手で触った場所を検出する。 In the above description, it is assumed that the video analysis unit 22 can acquire a distance image from the image pickup device 10. If the image pickup device 10 is provided with a depth sensor or the image pickup device 10 has a binocular configuration, the cost increases. In the following description, a processing example when the video analysis unit 22 cannot acquire a distance image from the image pickup device 10 will be described. In this processing example, the three-dimensional space recognition unit 22c is not provided, and the place touched by the occupant in the vehicle interior is detected only from the two-dimensional image.

この処理例では、車室内において装備品ごとに、乗員が装備品を様々な格好で触っている多数の画像を学習して、乗員が装備品を触っている状態を認識するための複数の識別器を辞書データとして用意する。乗員が装備品を触っている状態を認識するための識別器のセットは、車種ごとに用意されてもよい。この場合、撮像された映像内において各装備品の位置を高精度に特定できるとともに、乗員が装備品を触っているか否かを高精度に判定することができる。 In this processing example, for each equipment in the vehicle interior, a plurality of identifications for recognizing a state in which the occupant is touching the equipment by learning a large number of images in which the occupant is touching the equipment in various appearances. Prepare the vessel as dictionary data. A set of classifiers for recognizing the state in which the occupant is touching the equipment may be prepared for each vehicle type. In this case, the position of each equipment can be specified with high accuracy in the captured image, and it can be determined with high accuracy whether or not the occupant is touching the equipment.

さらに辞書データとして、マスクをしている人物の顔を認識するための識別器を用意してもよい。また乗員が咳き込んでいる状態を認識するための識別器を用意してもよい。 Further, as dictionary data, a classifier for recognizing the face of a person wearing a mask may be prepared. In addition, a classifier may be provided for recognizing the state in which the occupant is coughing.

対象物認識部22aはフレーム画像内において、マスクをしていない乗員を検出した場合、マスク未着用の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、咳き込んでいる乗員を検出した場合、咳の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、後部座席に座っている二人の乗員間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力する。警告制御部25は、対象物認識部22aからマスク未着用、咳、または距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。 When the object recognition unit 22a detects an unmasked occupant in the frame image, the object recognition unit 22a outputs a detection signal without a mask to the warning control unit 25. When the object recognition unit 22a detects a coughing occupant in the frame image, the object recognition unit 22a outputs a cough detection signal to the warning control unit 25. When the distance between the two occupants sitting in the rear seats is equal to or less than the set value in the frame image, the object recognition unit 22a outputs a distance approach detection signal to the warning control unit 25. When the warning control unit 25 receives a detection signal of not wearing a mask, coughing, or approaching a distance from the object recognition unit 22a, the voice output device 50 causes the voice output device 50 to output a warning sound or a warning message.

音声出力装置50は、車両C1内に設置されているカーナビゲーションシステムまたはディスプレイオーディオシステムのスピーカであってもよい。また音声出力装置50は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのスピーカであってもよい。なお音声出力装置50は、本実施の形態に係る人物監視システム1に専用のスピーカであってもよい。 The voice output device 50 may be a speaker of a car navigation system or a display audio system installed in the vehicle C1. Further, the voice output device 50 may be a speaker of a smartphone or a tablet linked with a car navigation system, a display audio system or a drive recorder system. The voice output device 50 may be a speaker dedicated to the person monitoring system 1 according to the present embodiment.

警告制御部25は、映像解析部22からマスク未着用の検出信号が入力されると、「マスクを着用してください。」といった注意喚起メッセージを音声出力装置50に出力させる。また警告制御部25は、咳の検出信号が入力されると、「換気してください。」、「窓を開けてください。」、「エアコンを外気導入モードにしてください。」、「マイナスイオン発生器を稼働させてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお本実施の形態に係る人物監視システム1と、車両C1内のエアーコンディショナシステムを連携させてもよい。その場合、警告制御部25は咳の検出信号が入力されると、エアーコンディショナシステムを外気導入モードに自動的に切り替えることができる。 When the detection signal of not wearing a mask is input from the video analysis unit 22, the warning control unit 25 causes the voice output device 50 to output a warning message such as "Please wear a mask." When the cough detection signal is input, the warning control unit 25 will "ventilate", "open the window", "set the air conditioner to the outside air introduction mode", and "generate negative ions". A warning message such as "Please operate the device." Is output to the voice output device 50. The person monitoring system 1 according to the present embodiment may be linked with the air conditioner system in the vehicle C1. In that case, the warning control unit 25 can automatically switch the air conditioner system to the outside air introduction mode when the cough detection signal is input.

警告制御部25は、映像解析部22から距離接近の検出信号が入力されると、「もう少し席の間隔を明けてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお映像解析部22が後部座席に三人の乗員を検出し、助手席に乗員を検出しない場合、席移動の指示信号を警告制御部25に出力してよい。警告制御部25は、映像解析部22から席移動の指示信号が入力されると、「一人、助手席に移動してください。」といった注意喚起メッセージを音声出力装置50に出力させる。 When the warning control unit 25 receives a distance approach detection signal from the video analysis unit 22, the warning control unit 25 causes the voice output device 50 to output a warning message such as "Please leave a little more space between seats." If the video analysis unit 22 detects three occupants in the rear seat and does not detect the occupants in the passenger seat, the seat movement instruction signal may be output to the warning control unit 25. When the warning control unit 25 receives an instruction signal for seat movement from the video analysis unit 22, the warning control unit 25 causes the voice output device 50 to output a warning message such as "Please move to the passenger seat alone."

特定の人物の画像を登録することにより、手で触った場所の監視処理の対象から特定の人物を除外することができる。具体的には、監視処理の対象から除外したい人物の顔を撮像装置10で撮像し、対象物認識部22aの辞書データとして登録する。なお当該人物の顔が写った静止画を、外部から画像処理装置20に入力してもよい。 By registering an image of a specific person, it is possible to exclude the specific person from the target of the monitoring process of the place touched by the hand. Specifically, the face of a person to be excluded from the monitoring process is imaged by the image pickup apparatus 10, and registered as dictionary data of the object recognition unit 22a. A still image showing the face of the person may be input to the image processing device 20 from the outside.

対象物認識部22aは、フレーム画像内において人物の顔を認識した場合、当該人物の顔が、除外対象として登録されている人物の顔であるか否か判定する。除外対象の人物の顔である場合、対象物認識部22aまたは三次元空間認識部22cは、当該人物の手を監視対象から除外する。フレーム画像内において認識した人物の顔が、除外対象の人物の顔でない場合、上述した手が触れた場所の検出・記録処理が適用される。 When the object recognition unit 22a recognizes the face of a person in the frame image, the object recognition unit 22a determines whether or not the face of the person is the face of a person registered as an exclusion target. In the case of the face of the person to be excluded, the object recognition unit 22a or the three-dimensional space recognition unit 22c excludes the person's hand from the monitoring target. If the face of the person recognized in the frame image is not the face of the person to be excluded, the above-mentioned detection / recording process of the place touched by the hand is applied.

除外対象として登録する人物として、車両C1の所有者、及びその家族が考えられる。また、PCR検査、抗原検査または抗体検査の結果から、感染している可能性が低いと判定された人物を登録してもよい。例えば、車両C1の所有者、及びその家族を除外対象として登録することにより、画像処理装置20の負荷を軽減することができる。 The owner of the vehicle C1 and his / her family can be considered as the person to be registered as the exclusion target. In addition, a person who is determined to have a low possibility of being infected from the results of a PCR test, an antigen test, or an antibody test may be registered. For example, by registering the owner of the vehicle C1 and its family as exclusion targets, the load on the image processing device 20 can be reduced.

図3は、実施の形態1に係る、車両C1の走行中に撮像されたフレーム画像F1の一例を示す図である。このフレーム画像F1では人物として、運転者P1、助手席の同乗者P2、後部座席の二人の同乗者P3、P4が検出されている。車室内にある装備品として、ステアリングO1、センタコンソールO2上にあるボトルホルダO2aなどが検出されている。また、運転者P1の手Dh1が監視対象として追尾されている。なお図示しないが、同乗者P2、P3、P4の手も監視対象となる。 FIG. 3 is a diagram showing an example of a frame image F1 captured while the vehicle C1 is traveling according to the first embodiment. In this frame image F1, the driver P1, the passenger P2 in the passenger seat, and the two passengers P3 and P4 in the rear seat are detected as persons. Steering O1 and bottle holder O2a on the center console O2 have been detected as equipment in the vehicle interior. Further, the hand Dh1 of the driver P1 is being tracked as a monitoring target. Although not shown, the hands of passengers P2, P3, and P4 are also monitored.

図4は、実施の形態1に係る接触場所画像Ft1の一例を示す図である。車室内を清掃・消毒しようとしているユーザにより接触場所画像Ft1の表示が指示されると、表示装置30に接触場所画像Ft1が表示される。図4では、運転者P1が運転中に、ステアリングO1とボトルホルダO2aを触った例を示している。図4ではステアリングO1と、ボトルホルダO2aを含むセンタコンソールO2全体の領域が赤色でマークされている。 FIG. 4 is a diagram showing an example of the contact location image Ft1 according to the first embodiment. When the user who is trying to clean and disinfect the vehicle interior is instructed to display the contact location image Ft1, the contact location image Ft1 is displayed on the display device 30. FIG. 4 shows an example in which the driver P1 touches the steering O1 and the bottle holder O2a while driving. In FIG. 4, the entire area of the center console O2 including the steering O1 and the bottle holder O2a is marked in red.

図5は、実施の形態1に係る接触場所画像Ft2の別の例を示す図である。図5ではステアリングO1とボトルホルダO2aが赤色でマークされ、ボトルホルダO2aが設置されているセンタコンソールO2全体の領域(ボトルホルダO2aの領域を除く)が黄色でマークされている。 FIG. 5 is a diagram showing another example of the contact location image Ft2 according to the first embodiment. In FIG. 5, the steering O1 and the bottle holder O2a are marked in red, and the entire area of the center console O2 (excluding the area of the bottle holder O2a) in which the bottle holder O2a is installed is marked in yellow.

なお接触場所画像Ftは、実際に撮像された車室内の画像上に、ウイルスが存在する可能性がある領域を示す注意マーカが重畳されたものであってもよいし、簡略化された車室内の模式図上に注意マーカが重畳されたものであってもよい。なお乗員が必ず手で触れる装備品(例えば、ステアリング、シフトレバー、ウインカレバー、ドアノブなど)に関しては、デフォルトで注意マーカが重畳されていてもよい。なお接触場所画像Ftは、ヒートマップ画像で生成されてもよい。 The contact location image Ft may be an image of the vehicle interior actually captured, on which a caution marker indicating a region where a virus may be present is superimposed, or a simplified vehicle interior. A caution marker may be superimposed on the schematic diagram of. For equipment that the occupant always touches by hand (for example, steering, shift lever, winker lever, doorknob, etc.), a caution marker may be superimposed by default. The contact location image Ft may be generated as a heat map image.

以上説明したように実施の形態1によれば、乗員が触った可能性がある領域を示す接触場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、レンタカー事業者の清掃担当者やガソリンスタンドの店員など、車両C1に乗車していなかった人で、短時間で効率的に車室内を清掃・消毒する必要がある人にとって有効である。もちろん、車両C1に乗車していた人にとっても、乗員全員分の触った場所を把握して記憶していることは困難であるため、接触場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the first embodiment, by generating and displaying a contact location image showing an area that the occupant may have touched, the user who is trying to clean and disinfect preferentially disinfects where. You can intuitively understand what to do. This is particularly effective for people who have not boarded the vehicle C1, such as a person in charge of cleaning a car rental company or a clerk at a gas station, who need to efficiently clean and disinfect the interior of the vehicle in a short time. Of course, it is difficult for the person who was in the vehicle C1 to grasp and remember the touched place for all the occupants, so it is useful to clean and disinfect while looking at the contact place image. ..

次に、実施の形態2に係る人物監視システム1を説明する。実施の形態1では、車室内に設置されたカメラで乗員を撮影し、乗員の手を検出して、乗員が手で触った場所を監視・記録する人物監視システム1を説明した。これに対して実施の形態2は、建物内の部屋に設置されたカメラで部屋の中の人物を検出し、人物が滞在した場所を監視・記録する人物監視システム1に関する。 Next, the person monitoring system 1 according to the second embodiment will be described. In the first embodiment, a person monitoring system 1 has been described in which an occupant is photographed by a camera installed in the vehicle interior, the occupant's hand is detected, and the place touched by the occupant is monitored and recorded. On the other hand, the second embodiment relates to a person monitoring system 1 that detects a person in a room with a camera installed in the room in the building and monitors and records the place where the person stayed.

実施の形態2に係る人物監視システム1は、会議室やコンベンションホールなど、広い室内空間の部屋を監視する例を想定している。一般的に屋内の監視カメラは部屋の天井に設置される。一台の監視カメラで広い部屋を監視する場合、広角に撮影する必要があり、フレーム画像内における人物のサイズが小さくなる。またフレーム画像内に大勢の人物が含まれる場合がある。これに対して実施の形態1では、狭い車室空間を撮影しているため、フレーム画像内の人物のサイズが一定サイズ以下になることがない。また普通車の場合、フレーム画像に含まれる人物の数は最大で5人である。 The person monitoring system 1 according to the second embodiment assumes an example of monitoring a room in a large indoor space such as a conference room or a convention hall. Indoor surveillance cameras are generally installed on the ceiling of a room. When monitoring a large room with a single surveillance camera, it is necessary to shoot at a wide angle, and the size of the person in the frame image becomes small. Also, a large number of people may be included in the frame image. On the other hand, in the first embodiment, since the narrow vehicle interior space is photographed, the size of the person in the frame image does not become smaller than a certain size. In the case of an ordinary car, the maximum number of people included in the frame image is five.

このように、会議室やコンベンションホールなどに設置される撮像装置10で撮像されたフレーム画像から画像認識により各人物の手を検出し、検出した手を追尾することは難しい。そこで実施の形態2では、人物の頭部または全身を検出し、検出した頭部または全身を追尾する。 As described above, it is difficult to detect each person's hand by image recognition from the frame image captured by the image pickup device 10 installed in a conference room, a convention hall, or the like, and to track the detected hand. Therefore, in the second embodiment, the head or the whole body of the person is detected, and the detected head or the whole body is tracked.

以下の説明では、撮像装置10が部屋の天井の中央に設置され、部屋全体を俯瞰するように撮影する例を想定する。この場合、監視対象は上から見た人物の頭部となる。なお撮像装置10が天井と壁の角に設置され、部屋全体を斜めに見下ろすように撮影してもよい。その場合、監視対象は斜めから見た人物の頭部または全身となる。 In the following description, it is assumed that the image pickup apparatus 10 is installed in the center of the ceiling of the room and takes a bird's-eye view of the entire room. In this case, the monitoring target is the head of the person seen from above. The image pickup device 10 may be installed at the corners of the ceiling and the wall, and may take a picture so as to look down on the entire room at an angle. In that case, the monitoring target is the head or the whole body of the person viewed from an angle.

画像処理装置20は、PC、タブレット、スマートフォンなどの汎用の情報端末装置の一機能として構成される。画像処理装置20と撮像装置10は有線(例えば、LANケーブルやUSBケーブル)または無線(例えば、無線LAN)で接続され、映像取得部21は撮像装置10から映像を取得する。 The image processing device 20 is configured as one function of a general-purpose information terminal device such as a PC, a tablet, or a smartphone. The image processing device 20 and the image pickup device 10 are connected by wire (for example, a LAN cable or USB cable) or wirelessly (for example, a wireless LAN), and the image acquisition unit 21 acquires an image from the image pickup device 10.

実施の形態2では映像解析部22は、部屋の中で人物が滞在した場所を検出する。対象物認識部22aは辞書データとして、人物の頭部または全身の識別器を有している。また人物の頭部または全身の識別器に加えて、室内に存在する様々な備品の識別器を用意しておいてもよい。例えば、机、椅子などの識別器を用意しておいてもよい。 In the second embodiment, the video analysis unit 22 detects the place where the person stayed in the room. The object recognition unit 22a has a discriminator for the head or the whole body of a person as dictionary data. In addition to the discriminator for the head or the whole body of a person, a discriminator for various equipment existing in the room may be prepared. For example, a classifier such as a desk or a chair may be prepared.

対象物認識部22aはフレーム画像内において、人物の検出領域の周囲に付随領域を設定してもよい。例えば、人物を中心として半径1m~2m程度の円に相当する、画像内の領域を付随領域に設定してもよい。以下、人物の検出領域と当該人物の周囲に設定される付随領域を合わせた領域を行動領域と呼ぶ。なお、実空間における距離と画像内における距離の換算比率、及び付随領域の設定範囲は、ユーザが変更可能である。 The object recognition unit 22a may set an accompanying area around the detection area of a person in the frame image. For example, an area in the image corresponding to a circle having a radius of about 1 m to 2 m centered on a person may be set as an accompanying area. Hereinafter, the area in which the detection area of the person and the accompanying area set around the person are combined is referred to as an action area. The user can change the conversion ratio of the distance in the real space and the distance in the image, and the setting range of the accompanying area.

対象物追尾部22bは、対象物認識部22aにより認識された人物の頭部または全身を追尾する。フレーム画像内において複数の人物が認識されている場合、人物ごとに追尾する。 The object tracking unit 22b tracks the head or the whole body of the person recognized by the object recognition unit 22a. If multiple people are recognized in the frame image, each person is tracked.

三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内で、人物が滞在した場所を検出する。室内に存在する備品も対象物として認識している場合、人物が触れたと推定される備品も特定することができる。例えば、人物の行動領域と備品の検出領域に重複部分が発生した場合、当該人物が当該備品に触れたと推定する。 The three-dimensional space recognition unit 22c detects the place where the person stays in the three-dimensional space specified by the distance image acquired from the image pickup device 10. If the equipment existing in the room is also recognized as an object, the equipment presumed to have been touched by a person can be identified. For example, when an overlapping portion occurs between the action area of a person and the detection area of equipment, it is presumed that the person touches the equipment.

三次元空間認識部22cは、人物が備品に触れたと推定される状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。なお実施の形態2では、人物が検出されている全てのフレーム画像を、画像保持部23に一時保存するようにしてもよい。 When the three-dimensional space recognition unit 22c detects a frame image in a state in which it is presumed that a person has touched the equipment, the detected frame image is temporarily stored in the image holding unit 23. In the second embodiment, all the frame images in which a person is detected may be temporarily stored in the image holding unit 23.

画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、室内において人物が滞在した全ての滞在場所をユーザが認識できる滞在場所表示用の画像(以下、滞在場所画像という)を生成する。画像生成部24は、室内における人物の移動軌跡を認識できる滞在場所画像を生成してもよい。また画像生成部24は、室内における人物の移動に伴う、行動領域の軌跡を認識できる滞在場所画像を生成してもよい。 Based on the frame image stored in the image holding unit 23, the image generation unit 24 is an image for displaying a place of stay in which the user can recognize all the places of stay in the room from the start of imaging by the image pickup device 10. (Hereinafter referred to as a place of stay image) is generated. The image generation unit 24 may generate a staying place image capable of recognizing the movement locus of a person in the room. Further, the image generation unit 24 may generate a stay place image capable of recognizing the locus of the action area accompanying the movement of the person in the room.

画像生成部24は、滞在場所画像として、人物が滞在した場所に近い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、人物が滞在した領域を赤色で表示し、付随領域を黄色で表示し、それ以外の領域を緑色(または無色)で表示したヒートマップ画像を生成してもよい。また、人物が滞在した領域を赤色で表示し、人物が滞在した領域から遠ざかるにつれ赤色→黄色→緑色(または無色)と徐々に変化していくヒートマップ画像を生成してもよい。 The image generation unit 24 may generate a heat map image as a stay place image, which is displayed in a more conspicuous color at a place closer to the place where the person stayed. For example, a heat map image may be generated in which the area where the person stays is displayed in red, the accompanying area is displayed in yellow, and the other areas are displayed in green (or colorless). Further, the area where the person stays may be displayed in red, and a heat map image which gradually changes from red to yellow to green (or colorless) may be generated as the person moves away from the area where the person stays.

また画像生成部24は、人物が滞在した領域の明るさを最も明るくし、人物が滞在した領域から遠ざかるにつれ明るさを暗くした滞在場所画像を生成してもよい。また人物が滞在した領域が点滅している滞在場所画像を生成してもよい。 Further, the image generation unit 24 may generate a staying place image in which the brightness of the area where the person stays is brightest and the brightness becomes darker as the person moves away from the area where the person stays. Further, a staying place image in which the area where the person stayed is blinking may be generated.

人物の行動領域と備品の検出領域に重複部分が発生した場合、画像生成部24は、当該備品全体を目立つ表示態様としてもよいし、当該重複部分のみを目立つ表示態様としてもよい。当該備品の床からの高さが推定できる場合、画像生成部24は当該備品の床からの高さが、人物が座った状態または立った状態の手の高さに近いほど、当該備品を目立つ表示態様としてもよい。 When an overlapping portion occurs in the action area of the person and the detection area of the equipment, the image generation unit 24 may display the entire equipment in a conspicuous display mode or may display only the overlapping portion in a conspicuous display mode. When the height of the equipment from the floor can be estimated, the image generation unit 24 makes the equipment stand out as the height of the equipment from the floor is closer to the height of the hand when the person is sitting or standing. It may be a display mode.

画像生成部24は、複数の人物の検出領域の重複が多い領域ほど、目立つ表示態様としてもよい。例えば、検出領域の重複数が多い領域ほど、彩度を高くしてもよい。なお画像生成部24は、複数の人物の行動領域の重複が多い領域ほど、目立つ表示態様としてもよい。 The image generation unit 24 may have a more conspicuous display mode as the area where the detection areas of a plurality of persons overlap more. For example, the saturation may be increased as the number of overlapping detection regions increases. The image generation unit 24 may have a more conspicuous display mode as the area where the action areas of a plurality of persons overlap more.

画像生成部24は、画像保持部23に格納された、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。 The image generation unit 24 generates a digest movie for displaying a place of stay by connecting a plurality of frame images in which an overlapping portion occurs in the action area of a person and the detection area of equipment stored in the image holding unit 23. You may. Further, the image generation unit 24 may generate one still image by superimposing a plurality of frame images in which overlapping portions occur in the action area of the person and the detection area of the equipment.

なお画像生成部24は、室内において人物が触れたと推定される備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、フレーム画像を画像保持部23に蓄積する必要はなく、人物が触れたと推定される備品を特定するための管理情報を保持しておけばよい。 The image generation unit 24 may generate an image in which equipment presumed to have been touched by a person in the room is simply listed by text information. In this case, it is not necessary to store the frame image in the image holding unit 23, and it is sufficient to hold the management information for identifying the equipment presumed to have been touched by the person.

室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、滞在場所画像の表示指示操作がなされると、画像生成部24は、滞在場所画像を生成し、生成した滞在場所画像を表示装置30に表示させる。 When the user who is trying to clean and disinfect the room instructs the operation unit (not shown) to display the stay location image, the image generation unit 24 generates the stay location image and the generated stay location image. Is displayed on the display device 30.

表示装置30は、PC、タブレット、スマートフォンなどの汎用の情報端末装置のディスプレイであってもよい。また表示装置30は当該情報端末装置に接続されたプロジェクタであってよい。その場合、プロジェクタは滞在場所画像をスクリーンに投影させる。また表示装置30は当該情報端末装置に接続されたヘッドマウントディスプレイであってもよい。その場合、ヘッドマウントディスプレイは、滞在場所画像をVR画像で表示させることができる。なお接触場所用の表示映像が立体映像で生成される場合、ヘッドマウントディスプレイは、立体VR映像を表示させることができる。 The display device 30 may be a display of a general-purpose information terminal device such as a PC, a tablet, or a smartphone. Further, the display device 30 may be a projector connected to the information terminal device. In that case, the projector projects the image of the place of stay on the screen. Further, the display device 30 may be a head-mounted display connected to the information terminal device. In that case, the head-mounted display can display the staying place image as a VR image. When the display image for the contact place is generated as a stereoscopic image, the head-mounted display can display the stereoscopic VR image.

なお画像生成部24は、部屋の使用中(例えば、会議中)に、リアルタイムに滞在場所画像を生成し、表示装置30(例えば、プロジェクタ)に表示させてもよい。この場合、人物が入室または退室したり、部屋の中で人物が場所を移動したりすると滞在場所画像が更新される。画像生成部24は、滞在場所画像として、撮像装置10により撮像されている映像上に、人物の滞在場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。 The image generation unit 24 may generate an image of the place of stay in real time while the room is in use (for example, during a meeting) and display it on the display device 30 (for example, a projector). In this case, the stay location image is updated when a person enters or leaves the room, or when a person moves from one place to another in the room. The image generation unit 24 may display the AR image on which the attention marker indicating the staying place of the person is superimposed on the image captured by the image pickup device 10 as the staying place image on the display device 30.

実施の形態2においても、対象物認識部22aはフレーム画像内において、人物間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力することができる。警告制御部25は、対象物認識部22aから距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。なお、マスク未着用の人物、または咳き込んでいる人物を検出した場合も、音声出力装置50に警告音または警告メッセージを出力させることができる。 Also in the second embodiment, the object recognition unit 22a can output the distance approach detection signal to the warning control unit 25 when the distance between the persons is equal to or less than the set value in the frame image. When the warning control unit 25 receives the detection signal of approaching a distance from the object recognition unit 22a, the warning control unit 25 causes the voice output device 50 to output a warning sound or a warning message. Even when a person who does not wear a mask or a person who is coughing is detected, the voice output device 50 can output a warning sound or a warning message.

また実施の形態2においても、特定の人物の画像を登録することにより、滞在場所の監視処理の対象から、登録した人物を除外することができる。 Further, also in the second embodiment, by registering an image of a specific person, the registered person can be excluded from the target of the monitoring process of the place of stay.

図6は、実施の形態2に係る滞在場所画像Fs1の第1の例を示す図である。室内を清掃・消毒しようとしているユーザにより滞在場所画像Fs1の表示が指示されると、表示装置30に滞在場所画像Fs1が表示される。図6では、部屋の使用中に、三人の人物P1、P2、P3が左側の第1の机D1を使用していた場合の滞在場所画像Fs1を示している。右側の第2の机D2は使用されていない。図6では、左側の第1の机D1が注意領域として赤色でマークされる。 FIG. 6 is a diagram showing a first example of the staying place image Fs1 according to the second embodiment. When the user who is trying to clean and disinfect the room instructs to display the staying place image Fs1, the staying place image Fs1 is displayed on the display device 30. FIG. 6 shows a staying place image Fs1 when three people P1, P2, and P3 are using the first desk D1 on the left side while using the room. The second desk D2 on the right is not used. In FIG. 6, the first desk D1 on the left side is marked in red as a caution area.

対象物認識部22aは各フレーム画像内において、各人物P1、P2、P3の検出領域と第1の机D1の検出領域が重複したか否か、及び各人物P1、P2、P3の検出領域と第2の机D2の検出領域が重複したか否かを判定する。対象物認識部22aは、重複がある机を使用された机(図6では第1の机D1)と判定する。 The object recognition unit 22a determines whether or not the detection area of each person P1, P2, P3 and the detection area of the first desk D1 overlap in each frame image, and the detection area of each person P1, P2, P3. It is determined whether or not the detection areas of the second desk D2 overlap. The object recognition unit 22a determines that the overlapping desk is the used desk (first desk D1 in FIG. 6).

図7は、実施の形態2に係る滞在場所画像Fs2の第2の例を示す図である。図7では、室内における人物P1の移動軌跡を表示した滞在場所画像Fs2を示している。図7に示す画像において、部屋の出入口が右側にあり、人物P1が第2の机D2及び第1の机D1の下側を左に移動し、第1の机D1の左側を上に移動し、第1の机D1の上側を右に移動して、現在の場所に到達したことを示している。なお、人物P1の周囲に付随領域が付加された行動領域の移動軌跡を表示してもよい。 FIG. 7 is a diagram showing a second example of the staying place image Fs2 according to the second embodiment. FIG. 7 shows a staying place image Fs2 showing a movement locus of a person P1 in a room. In the image shown in FIG. 7, the doorway of the room is on the right side, the person P1 moves the lower side of the second desk D2 and the first desk D1 to the left, and the left side of the first desk D1 moves up. , The upper side of the first desk D1 is moved to the right to indicate that the current location has been reached. It should be noted that the movement locus of the action area to which the accompanying area is added around the person P1 may be displayed.

図8(a)-(c)は、実施の形態2に係る滞在場所画像Fs3の第3の例を示す図である。第3の例は、試験会場や大教室など、机と椅子の位置が固定されている部屋の例である。図8(a)に示す滞在場所画像Fs3aでは、左側の第1の椅子S1に第1の人物P1が座っている。右側の第2の椅子S2は空席である。この場合、左側の第1の椅子S1と第1の机D1が注意領域として赤色でマークされる。 8 (a)-(c) are views showing a third example of the staying place image Fs3 according to the second embodiment. The third example is an example of a room where the positions of desks and chairs are fixed, such as a test site or a large classroom. In the staying place image Fs3a shown in FIG. 8A, the first person P1 sits on the first chair S1 on the left side. The second chair S2 on the right side is vacant. In this case, the first chair S1 and the first desk D1 on the left side are marked in red as attention areas.

図8(b)に示す滞在場所画像Fs3bでは、左側の第1の椅子S1に第1の人物P1が座っており、右側の第2の椅子S2に第2の人物P2が座っている。この場合、左側の第1の椅子S1と第1の机D1、及び右側の第2の椅子S2と第2の机D2の両方が注意領域として赤色でマークされる。 In the staying place image Fs3b shown in FIG. 8B, the first person P1 sits on the first chair S1 on the left side, and the second person P2 sits on the second chair S2 on the right side. In this case, both the first chair S1 and the first desk D1 on the left side and the second chair S2 and the second desk D2 on the right side are marked in red as attention areas.

図8(c)に示す滞在場所画像Fs3cは、右側の第2の椅子S2に座っていた第2の人物P2が退席した後の状態を示している。第2の人物P2が右側の第2の椅子S2と第2の机D2の位置に滞在していたため、第2の人物P2が退席した後も、右側の第2の椅子S2と第2の机D2は注意領域として赤色でマークされる。 The staying place image Fs3c shown in FIG. 8C shows a state after the second person P2 sitting in the second chair S2 on the right side has left. Since the second person P2 stayed at the positions of the second chair S2 and the second desk D2 on the right side, even after the second person P2 left the seat, the second chair S2 and the second desk on the right side D2 is marked in red as a caution area.

図9は、実施の形態2に係る滞在場所画像Fs4の第4の例を示す図である。図6-図8(a)-(c)に示した例では、人物が触れたと推定される机全体の領域を赤色でマークした。これに対して図9に示す第4の例では、机全体の領域のうち、人物が触れた可能性が高い領域のみを注意領域として赤色でマークする。図9では、第1の人物P1の位置から所定距離の第1範囲R1、及び第2の人物P2の位置から所定距離の第2範囲R2が注意領域として赤色でマークされる。このマークされる領域は、人物P1、P2の移動に伴い拡大する。 FIG. 9 is a diagram showing a fourth example of the staying place image Fs4 according to the second embodiment. In the example shown in FIGS. 6-8 (a)-(c), the area of the entire desk presumed to have been touched by a person is marked in red. On the other hand, in the fourth example shown in FIG. 9, only the area of the entire desk that is likely to be touched by a person is marked in red as a caution area. In FIG. 9, the first range R1 at a predetermined distance from the position of the first person P1 and the second range R2 at a predetermined distance from the position of the second person P2 are marked in red as attention areas. This marked area expands as the persons P1 and P2 move.

所定距離はソーシャルディスタンスを考慮して、例えば2mに設定される。この所定距離は、マスクの着用の有無により切り替えられてもよい。その場合、マスク未着用の人物の所定距離は、マスク着用の人物の所定距離より長く設定される。 The predetermined distance is set to, for example, 2 m in consideration of social distance. This predetermined distance may be switched depending on whether or not a mask is worn. In that case, the predetermined distance of the person who does not wear the mask is set longer than the predetermined distance of the person who wears the mask.

また対象物認識部22aが人物の手の動きを検出できる場合、机全体の領域の中で手が動いた範囲を注意領域として赤色でマークしてもよい。その際、机全体の領域の中でマークされる領域は、実際に手の動きを検出した範囲に所定のバッファ領域を加えた領域であってもよい。また机全体の領域の中でマークされる領域は、人物P1、P2の行動領域と重複する領域であってもよい。 Further, when the object recognition unit 22a can detect the movement of the hand of the person, the range in which the hand moves in the area of the entire desk may be marked in red as the attention area. At that time, the area marked in the area of the entire desk may be an area in which a predetermined buffer area is added to the range in which the movement of the hand is actually detected. Further, the area marked in the area of the entire desk may be an area overlapping with the action area of the persons P1 and P2.

なお、第1範囲R1と第2範囲R2の重複範囲R3を、よりレベルの高い注意領域として相対的に目立つ色でマークしてもよい。例えば、第1範囲R1と第2範囲R2のうち、両者が重複していない範囲を緑色でマークし、両者の重複範囲R3を赤色でマークしてもよい。また、一人の人物の所定距離の範囲を緑色でマークし、二人の人物の所定距離の範囲の重複領域を黄色でマークし、三人以上の人物の所定距離の範囲の重複領域を赤色でマークしてもよい。 The overlapping range R3 of the first range R1 and the second range R2 may be marked with a relatively conspicuous color as a higher level attention area. For example, of the first range R1 and the second range R2, the range in which both do not overlap may be marked in green, and the overlapping range R3 in both may be marked in red. In addition, the range of the predetermined distance of one person is marked in green, the overlapping area of the range of the predetermined distance of two people is marked in yellow, and the overlapping area of the range of the predetermined distance of three or more people is marked in red. You may mark it.

図10は、実施の形態2に係る滞在場所画像Fs5の第5の例を示す図である。図10に示す滞在場所画像Fs5では、部屋の中で人物の移動が多い通路の領域R5が注意領域として赤色でマークされている。なお、人物が通路を通った回数に応じて色を変えてもよい。例えば、1~5回は緑色でマークし、6~10回は黄色でマークし、11回以上は赤色でマークしてもよい。なお、図10では通路全体の領域R5を注意領域としてマークしているが、実際に人物が通った移動軌跡、すなわち人物と通路が重複した部分のみをマークしてもよい。 FIG. 10 is a diagram showing a fifth example of the staying place image Fs5 according to the second embodiment. In the staying place image Fs5 shown in FIG. 10, the area R5 of the passage where people move frequently in the room is marked in red as a caution area. The color may be changed according to the number of times the person has passed through the passage. For example, it may be marked in green 1 to 5 times, marked in yellow 6 to 10 times, and marked in red 11 times or more. Although the area R5 of the entire passage is marked as a caution area in FIG. 10, only the movement trajectory actually passed by the person, that is, the portion where the person and the passage overlap may be marked.

以上説明したように実施の形態2によれば、人物が滞在した領域を示す滞在場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、外部の清掃業者など、部屋を使用していなかった(例えば、会議に参加していなかった)人で、短時間で効率的に部屋の中を清掃・消毒する必要がある人にとって有効である。もちろん、部屋を使用していた人にとっても、部屋の中にいた人全員分の動きを把握し記憶していることは困難であるため、滞在場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the second embodiment, where should the user who is trying to clean and disinfect preferentially disinfect by generating and displaying a staying place image showing the area where the person stayed? Can be grasped intuitively. It is especially effective for people who have not used the room (for example, did not attend the meeting), such as an outside cleaner, who need to clean and disinfect the room efficiently in a short time. be. Of course, it is difficult for people who used the room to grasp and remember the movements of all the people in the room, so it is useful to clean and disinfect while looking at the image of the place of stay. be.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. It is understood by those skilled in the art that this embodiment is an example, and that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. be.

実施の形態1において、例えば運転者は運転中、基本的にステアリングを手で握っている。一方で、それ以外の動き(例えば、水を飲むためにボトルホルダを触る動きなど)をしている状態では、ステアリングを握っている通常の状態の画像とは大きく異なる画像となる。対象物認識部22aは、フレーム画像内において運転者がステアリングを手で握っていないフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に接触場所画像を生成することができる。 In the first embodiment, for example, the driver basically holds the steering wheel by hand while driving. On the other hand, in the state of other movements (for example, the movement of touching the bottle holder to drink water), the image is significantly different from the image in the normal state of holding the steering wheel. The object recognition unit 22a may store in the image holding unit 23 all the frame images in which the driver does not hold the steering wheel in the frame image. The image generation unit 24 may connect a plurality of frame images stored in the image holding unit 23 to generate a digest moving image for displaying the contact location. Further, the image generation unit 24 may superimpose a plurality of frame images stored in the image holding unit 23 to generate one still image. In this case, the accuracy is reduced, but the contact location image can be easily generated.

実施の形態2において、対象物認識部22aは、フレーム画像内で人物が検出されたフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に滞在場所画像を生成することができる。 In the second embodiment, the object recognition unit 22a may store all the frame images in which a person is detected in the frame image in the image holding unit 23. The image generation unit 24 may connect a plurality of frame images stored in the image holding unit 23 to generate a digest moving image for displaying the place of stay. Further, the image generation unit 24 may superimpose a plurality of frame images stored in the image holding unit 23 to generate one still image. In this case, the accuracy is lowered, but the staying place image can be easily generated.

実施の形態1では、人物の手を監視対象とし、車室内を監視する例を説明した。この点、人物の手を検出しやすい狭い空間の監視であれば、車室内を監視する例に限定されるものではない。建物内の部屋であっても、数人しか入れない狭い部屋の監視であれば、実施の形態1に係る人物監視システム1が有効に機能する。 In the first embodiment, an example in which the hand of a person is monitored and the interior of the vehicle is monitored has been described. In this respect, the monitoring of a narrow space where a person's hand can be easily detected is not limited to the example of monitoring the vehicle interior. Even if it is a room in a building, the person monitoring system 1 according to the first embodiment functions effectively as long as it monitors a small room that can accommodate only a few people.

実施の形態2では、人物自体を監視対象とし、建物内の部屋の中を監視する例を説明した。この点、電車、バス、飛行機、船舶などの移動体の中の室内空間の監視にも、実施の形態2に係る人物監視システム1を適用することができる。また一定範囲の屋外空間の監視にも適用可能である。 In the second embodiment, an example of monitoring the inside of a room in a building with a person itself as a monitoring target has been described. In this regard, the person monitoring system 1 according to the second embodiment can also be applied to the monitoring of the indoor space in a moving body such as a train, a bus, an airplane, or a ship. It can also be applied to monitor a certain range of outdoor space.

また新型コロナウイルスは、付着している物質や環境条件に依存するが、最長で7日程度で死滅する。したがって、車両や部屋の使用終了後、設定時間以上が経過している場合は、画像内に注意領域を表示する必要はない。 In addition, the new coronavirus will die in about 7 days at the longest, depending on the attached substance and environmental conditions. Therefore, it is not necessary to display the attention area in the image when the set time or more has passed after the vehicle or the room has been used.

C1 車両、 1 人物監視システム、 10 撮像装置、 20 画像処理装置、 21 映像取得部、 22 映像解析部、 22a 対象物認識部、 22b 対象物追尾部、 22c 三次元空間認識部、 23 画像保持部、 24 画像生成部、 25 警告制御部、 30 表示装置、 40 記録媒体、 50 音声出力装置。 C1 vehicle, 1 person monitoring system, 10 image pickup device, 20 image processing device, 21 image acquisition unit, 22 image analysis unit, 22a object recognition unit, 22b object tracking unit, 22c three-dimensional space recognition unit, 23 image holding unit. , 24 Image generator, 25 Warning control unit, 30 Display device, 40 Recording medium, 50 Audio output device.

Claims (5)

撮像部により撮像された、人物が存在する空間の映像を取得する映像取得部と、
取得された映像を解析して、前記空間内で前記人物が手で触った場所を検出する映像解析部と、
前記撮像部による撮像開始から、前記人物が手で触った全ての接触場所を認識できる表示用画像を生成する画像生成部と、
を備える画像処理装置。
An image acquisition unit that acquires an image of a space in which a person exists, which is captured by the image pickup unit, and an image acquisition unit.
An image analysis unit that analyzes the acquired image and detects a place touched by the person in the space.
An image generation unit that generates a display image that can recognize all contact locations touched by the person from the start of imaging by the image pickup unit.
An image processing device comprising.
前記画像生成部は、前記表示用画像として、前記人物が手で触った可能性が高い場所ほど目立つ色で表示されるヒートマップ画像を生成する、
請求項1に記載の画像処理装置。
The image generation unit generates, as the display image, a heat map image that is displayed in a more conspicuous color in a place where the person is more likely to touch it.
The image processing apparatus according to claim 1.
前記画像生成部は、前記人物が手で触った回数が多い接触場所ほど目立つ表示態様で表示させる表示用画像を生成する、
請求項1または2に記載の画像処理装置。
The image generation unit generates a display image to be displayed in a more conspicuous display mode as the contact location is frequently touched by the person.
The image processing apparatus according to claim 1 or 2.
前記撮像部は、車両内に設置され、当該車両内の車室空間を撮像するための撮像部である、
請求項1から3のいずれか1項に記載の画像処理装置。
The image pickup unit is installed in the vehicle and is an image pickup unit for imaging the vehicle interior space in the vehicle.
The image processing apparatus according to any one of claims 1 to 3.
撮像部により撮像された、人物が存在する空間の映像を取得する処理と、
取得された映像を解析して、前記空間内で前記人物が手で触った場所を検出する処理と、
前記撮像部による撮像開始から、前記人物が手で触った全ての接触場所を認識できる表示用画像を生成する処理と、
をコンピュータに実行させる画像処理プログラム。
The process of acquiring the image of the space where the person exists, which was captured by the image pickup unit,
A process of analyzing the acquired video to detect a place touched by the person in the space, and a process of detecting the place touched by the person.
From the start of imaging by the imaging unit, a process of generating a display image capable of recognizing all contact locations touched by the person.
An image processing program that lets your computer run.
JP2020158426A 2020-09-23 2020-09-23 Image processing device and image processing program Pending JP2022052193A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020158426A JP2022052193A (en) 2020-09-23 2020-09-23 Image processing device and image processing program
PCT/JP2021/020804 WO2022064774A1 (en) 2020-09-23 2021-06-01 Image processing device and image processing program
EP21871907.8A EP4220548A4 (en) 2020-09-23 2021-06-01 Image processing device and image processing program
CN202180061374.2A CN116157833A (en) 2020-09-23 2021-06-01 Image processing device and image processing program
US18/187,739 US20230230294A1 (en) 2020-09-23 2023-03-22 Picture processing device, picture processing method and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020158426A JP2022052193A (en) 2020-09-23 2020-09-23 Image processing device and image processing program

Publications (1)

Publication Number Publication Date
JP2022052193A true JP2022052193A (en) 2022-04-04

Family

ID=80948839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158426A Pending JP2022052193A (en) 2020-09-23 2020-09-23 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2022052193A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220144200A1 (en) * 2020-11-12 2022-05-12 Toyoda Gosei Co., Ltd. Vehicle occupant protection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220144200A1 (en) * 2020-11-12 2022-05-12 Toyoda Gosei Co., Ltd. Vehicle occupant protection system

Similar Documents

Publication Publication Date Title
US12061264B2 (en) Imaging device and electronic device
JP7173196B2 (en) Image processing device, image processing method, and program
JP6127659B2 (en) Driving support device and driving support method
US8599266B2 (en) Digital processing of video images
US10281721B2 (en) System and method for augmented reality head up display for vehicles
IT201900011403A1 (en) DETECTING ILLEGAL USE OF PHONE TO PREVENT THE DRIVER FROM GETTING A FINE
WO2011064831A1 (en) Diagnosis device and diagnosis method
EP1179958A4 (en) Image processing device and monitoring system
US20210350570A1 (en) Image processing device, image processing method, and program
JP2010191793A (en) Alarm display and alarm display method
US20180370461A1 (en) Vehicle system for reducing motion sickness
US20230230294A1 (en) Picture processing device, picture processing method and non-transitory computer-readable recording medium
Martin et al. Real time driver body pose estimation for novel assistance systems
JP2022052193A (en) Image processing device and image processing program
US11348347B2 (en) In-vehicle device
KR20150058881A (en) Air circulation control method for vehicle based on image recognition
KR20190119291A (en) Method and apparatus for monitoring of vehicle
JP7403196B2 (en) Information processing systems and programs, etc.
JP7540307B2 (en) Image processing device and image processing program
CN108073274A (en) Gesture operation method and system based on depth value
WO2023171068A1 (en) Surveillance system
US20210279486A1 (en) Collision avoidance and pedestrian detection systems
KR102288952B1 (en) vehicle and control method thereof
Chowdhury et al. Designing an empirical framework to estimate the driver's attention
JP2007148506A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241011