JP2017212647A - Seat monitoring apparatus, seat monitoring system, and seat monitoring method - Google Patents

Seat monitoring apparatus, seat monitoring system, and seat monitoring method Download PDF

Info

Publication number
JP2017212647A
JP2017212647A JP2016105433A JP2016105433A JP2017212647A JP 2017212647 A JP2017212647 A JP 2017212647A JP 2016105433 A JP2016105433 A JP 2016105433A JP 2016105433 A JP2016105433 A JP 2016105433A JP 2017212647 A JP2017212647 A JP 2017212647A
Authority
JP
Japan
Prior art keywords
seat
image
monitoring
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016105433A
Other languages
Japanese (ja)
Other versions
JP6485709B2 (en
Inventor
勇一郎 竹本
Yuichiro Takemoto
勇一郎 竹本
岩井 和彦
Kazuhiko Iwai
和彦 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016105433A priority Critical patent/JP6485709B2/en
Publication of JP2017212647A publication Critical patent/JP2017212647A/en
Application granted granted Critical
Publication of JP6485709B2 publication Critical patent/JP6485709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a seat monitoring apparatus capable of protecting privacy of a user imaged in a picture obtained by imaging a monitoring area while visualizing a use state on unauthorized use and the like of each seat on the picture obtained by imaging the monitoring area.SOLUTION: A seat monitoring apparatus comprises: a seat management information acquisition unit 53 for acquiring seat management information on the propriety of use for each seat; a sitting detection unit 54 for detecting a user sitting on each seat on the basis of a result of person detection with respect to an imaged picture obtained by imaging a monitoring area; a seat use information acquisition unit 55 for acquiring seat use information on illegal use of each seat, on the basis of the seat management information and a sitting detection result; and a monitoring picture generation unit 58 that on the basis of the seat use information, changes a display mode of an identification picture for each user arranged on the imaged picture to generate a monitoring picture in which a use situation for each seat is visualized and picture processing for privacy protection is performed on the user's person area on the imaged picture.SELECTED DRAWING: Figure 9

Description

本発明は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法に関するものである。   The present invention relates to a seat monitoring device, a seat monitoring system, and a seat monitoring method that generate output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged. .

近年、乗客が自由席を快適に利用することができるように、座席利用料を支払うことで利用可能な座席を設けた列車が運行されている。このような列車においては、座席の不正利用(不正乗車)を防止するため、座席を利用している乗客の切符を乗務員が確認する車内検札が行われていたが、この車内検札は非常に手間がかかることから、ICカードを用いて車内検札を行うシステムが運用されるようになっている。   In recent years, trains have been provided with seats that can be used by paying seat usage fees so that passengers can comfortably use free seats. In such trains, in order to prevent unauthorized use (illegal boarding) of seats, in-car check was performed by the crew member to check the ticket of the passenger using the seat. Therefore, a system for performing in-car inspection using an IC card is operated.

ところが、このようなICカードを用いて車内検札を行うシステムは、車内検札を無人化することができるものの、座席の不正利用そのものを防止することはできない。このため、座席の不正利用の状況を把握するには、乗務員が車内を巡回するしかない。一方、車内の座席をカメラで撮像することも考えられるが、その撮像画像のみでは、座席の不正利用の状況を即座に把握することができない。そこで、座席の不正利用の状況を監視者が即座に把握することができるように、座席の不正利用の状況を可視化して表示する技術が望まれる。   However, such a system that performs in-car inspection using an IC card can unmanned in-car inspection, but cannot prevent unauthorized use of the seat itself. For this reason, the only way to know the status of unauthorized use of seats is for the crew to go around the car. On the other hand, it is conceivable to take a picture of a seat in the car with a camera, but it is impossible to immediately grasp the situation of unauthorized use of the seat only with the taken image. Therefore, a technique for visualizing and displaying the status of unauthorized use of the seat is desired so that the supervisor can immediately grasp the status of unauthorized use of the seat.

このような座席の不正利用の状況を可視化して表示する技術に関するものとして、従来、列車の車内をカメラで撮像して、その車内の画像から、座席を利用している乗客を検知して、この検知結果と、予約された座席に関する予約情報とに基づいて、座席の不正利用、すなわち、予約済みでない座席を乗客が利用していることを判別して、その座席の不正利用を表すオブジェクトを車内の画像に重畳して表示する技術が知られている(特許文献1参照)。   As for the technology to visualize and display the situation of unauthorized use of such seats, conventionally, the inside of a train is imaged with a camera, and passengers using the seat are detected from the image in the vehicle, Based on the detection result and the reservation information on the reserved seat, it is determined that the seat is illegally used, that is, the passenger is using a seat that has not been reserved, and an object representing the unauthorized use of the seat is determined. A technique for displaying an image in a vehicle in a superimposed manner is known (see Patent Document 1).

また、映画館やスタジアムにおける観客席をカメラで撮像して、その観客席の画像から、座席を利用している観客を検知して、観客が利用している座席とその予約状況とを、観客席の画像上に表示することで、未予約の座席を観客が利用していることを監視員が容易に識別することができるようにした技術が知られている(特許文献2参照)。   In addition, the audience seats in a movie theater or stadium are imaged with a camera, the audience using the seats is detected from the images of the audience seats, and the seats used by the audience and the reservation status thereof are determined by the audience. A technique is known in which an observer can easily identify that a spectator is using an unreserved seat by displaying the image on a seat image (see Patent Document 2).

特開2011−210125号公報JP 2011-210125 A 特許第4367177号公報Japanese Patent No. 4367177

さて、前記従来の技術のように、監視エリアを撮像した撮像画像を表示することで、監視エリアの実際の状況をユーザが把握することができるが、撮像画像を表示することで、利用者のプライバシーが侵害されることは避けることが望まれる。特に、不正な利用者については、撮像画像をそのまま表示させて個人を識別する必要性があるが、正当な利用者については、個人を識別する必要性がないため、常時、プライバシーを保護することが望まれる。しかしながら、前記従来の技術では、このような撮像画像に写る利用者のプライバシーを保護することに関する考慮はなんらなく、利用者のプライバシーを保護することができないという問題があった。   Now, as in the prior art, by displaying the captured image obtained by capturing the monitoring area, the user can grasp the actual situation of the monitoring area. However, by displaying the captured image, the user's It is desirable to avoid infringement of privacy. In particular, for unauthorized users, it is necessary to display captured images as they are to identify individuals, but for legitimate users, there is no need to identify individuals, so always protect privacy. Is desired. However, the above conventional technique has no consideration on protecting the privacy of the user in the captured image, and there is a problem that the privacy of the user cannot be protected.

そこで、本発明は、監視エリアを撮像した画像上に、各座席の不正利用などに関する利用状況を可視化すると共に、監視エリアを撮像した画像に写る利用者のプライバシーを保護することができる座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法を提供することを主な目的とするものである。   Accordingly, the present invention provides a seat monitoring device that can visualize the usage situation regarding unauthorized use of each seat on an image obtained by imaging the monitoring area and protect the privacy of the user shown in the image obtained by imaging the monitoring area. The main object of the present invention is to provide a seat monitoring system and a seat monitoring method.

本発明の座席モニタリング装置は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリング装置であって、利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、を備えた構成とする。   A seat monitoring device according to the present invention is a seat monitoring device that generates output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area in which a plurality of seats are arranged. A seat usage information acquisition unit that acquires seat usage information relating to the usage status of the vehicle, and a display mode of an identification image for each user arranged on a captured image obtained by imaging the monitoring area based on the seat usage information And a monitoring image generation unit that generates a monitoring image in which a privacy protection image process is performed on at least a part of a person area of the user in the captured image, And an output information generation unit that generates the output information including:

また、本発明の座席モニタリングシステムは、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリングシステムであって、前記監視エリアを撮像して、撮像画像に対する人物検出を行うカメラと、利用者による座席の利用状況を可視化した前記出力情報を生成するサーバ装置と、前記出力情報に基づき、閲覧画面を表示するユーザ端末装置と、を有し、前記サーバ装置は、利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、前記座席利用情報に基づき、前記撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、を備えた構成とする。   The seat monitoring system of the present invention is a seat monitoring system that generates output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area in which a plurality of seats are arranged. A camera that picks up an area and detects a person in the picked-up image, a server device that generates the output information that visualizes the use status of a seat by a user, and a user terminal device that displays a browsing screen based on the output information The server device includes: a seat usage information acquisition unit that acquires seat usage information related to a seat usage status by a user; and for each user arranged on the captured image based on the seat usage information The usage status of each seat is visualized by changing the display mode of the identification image, and the person area of the user in the captured image is visualized. A monitoring image generation unit that generates a monitoring image that has been subjected to privacy-protected image processing for at least a part, and an output information generation unit that generates the output information including the monitoring image .

また、本発明の座席モニタリング方法は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する処理を情報処理装置に行わせる座席モニタリング方法であって、利用者による座席の利用状況に関する座席利用情報を取得し、前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成し、前記モニタリング画像を含む前記出力情報を生成する構成とする。   Also, the seat monitoring method of the present invention is a seat that causes an information processing device to perform processing for generating output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged. It is a monitoring method, the seat usage information regarding the seat usage status by the user is acquired, and based on the seat usage information, the display mode of the identification image for each user arranged on the captured image obtained by imaging the monitoring area The use status for each seat is visualized by changing the image, and a monitoring image in which privacy-protected image processing is performed on at least a part of the person area of the user in the captured image is generated, and the monitoring image is It is set as the structure which produces | generates the said output information containing.

本発明によれば、モニタリング画像において各座席の利用状況が可視化されるため、各座席の利用状況をユーザが即座に把握することができる。また、プライバシー保護の画像処理が実施されるため、モニタリング画像に写る利用者のプライバシーを保護することができる。   According to the present invention, since the usage situation of each seat is visualized in the monitoring image, the user can immediately grasp the usage situation of each seat. Further, since privacy-protected image processing is performed, it is possible to protect the privacy of the user shown in the monitoring image.

第1実施形態に係る座席モニタリングシステムの全体構成図Overall configuration diagram of a seat monitoring system according to the first embodiment 列車の車両におけるカメラ1の配置状況を示す説明図Explanatory drawing which shows the arrangement | positioning condition of the camera 1 in the vehicle of a train 路線マップ画像表示画面を示す説明図Explanatory drawing showing a route map image display screen 列車マップ画像表示画面を示す説明図Explanatory drawing showing the train map image display screen 車両マップ画像表示画面を示す説明図Explanatory drawing which shows a vehicle map image display screen 座席マップ画像表示画面を示す説明図Explanatory drawing showing the seat map image display screen モニタリング画像表示画面を示す説明図Explanatory drawing showing the monitoring image display screen カメラ1、サーバ装置2およびユーザ端末装置3のハードウェア構成を示すブロック図The block diagram which shows the hardware constitutions of the camera 1, the server apparatus 2, and the user terminal device 3 カメラ1およびサーバ装置2の機能ブロック図Functional block diagram of camera 1 and server device 2 第1実施形態の変形例に係るカメラ1およびサーバ装置2の機能ブロック図Functional block diagram of the camera 1 and the server device 2 according to a modification of the first embodiment 第2実施形態に係るモニタリング画像表示画面を示す説明図Explanatory drawing which shows the monitoring image display screen which concerns on 2nd Embodiment. 第2実施形態に係るカメラ1およびサーバ装置2の機能ブロック図Functional block diagram of camera 1 and server device 2 according to the second embodiment 第2実施形態の変形例に係るカメラ1およびサーバ装置2の機能ブロック図Functional block diagram of the camera 1 and the server device 2 according to a modification of the second embodiment

前記課題を解決するためになされた第1の発明は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリング装置であって、利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、を備えた構成とする。   A first invention made to solve the above-described problem is a seat monitoring device that generates output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged. A seat usage information acquisition unit that acquires seat usage information related to a seat usage status by a user, and an identification image for each user arranged on a captured image obtained by imaging the monitoring area based on the seat usage information A monitoring image that visualizes the usage situation for each seat by changing the display mode of the image and generates a monitoring image in which privacy-protected image processing is performed on at least a part of the person area of the user in the captured image It is set as the structure provided with the production | generation part and the output information generation part which produces | generates the said output information containing the said monitoring image.

これによると、モニタリング画像において各座席の利用状況が可視化されるため、各座席の利用状況をユーザが即座に把握することができる。また、プライバシー保護の画像処理が実施されるため、モニタリング画像に写る利用者のプライバシーを保護することができる。   According to this, since the usage status of each seat is visualized in the monitoring image, the user can immediately grasp the usage status of each seat. Further, since privacy-protected image processing is performed, it is possible to protect the privacy of the user shown in the monitoring image.

なお、識別画像は、モニタリング画像における利用者の人物領域上またはその近傍に配置すればよく、また、識別画像の表示態様を変更するとは、識別画像の表示色などの表示形態を変更する他に、識別画像の表示の有無を変更することを含み、識別画像の表示形態を変更することにより、また、識別画像を表示させるか否かにより、座席ごとの利用状況を可視化することができる。   The identification image may be arranged on or near the person area of the user in the monitoring image. Changing the display mode of the identification image includes changing the display form such as the display color of the identification image. The use status for each seat can be visualized by changing the display form of the identification image and changing whether or not to display the identification image.

また、第2の発明は、さらに、座席ごとの利用の可否に関する座席管理情報を取得する座席管理情報取得部と、前記撮像画像に対する人物検出の結果に基づき、各座席における利用者の在席を検知する在席検知部と、を備え、前記座席利用情報取得部は、前記座席管理情報および前記在席検知部の検知結果に基づき、各座席について不正利用か否かを判定して、各座席の不正利用に関する前記座席利用情報を取得する構成とする。   In addition, the second invention further includes a seat management information acquisition unit that acquires seat management information regarding availability of each seat, and the presence of the user in each seat based on the result of person detection for the captured image. A seat detection unit for detecting, based on the seat management information and the detection result of the presence detection unit, the seat use information acquisition unit determines whether each seat is illegally used, The seat use information related to unauthorized use is acquired.

これによると、不正利用か否かをユーザが即座に把握することができる。この場合、座席の利用の可否、すなわち、座席の利用が許可されているか否かに関する座席利用情報と、在席検知部の検知結果とを座席ごとに比較することで、各座席について不正利用か否かを判定することができる。   According to this, the user can immediately grasp whether or not the unauthorized use. In this case, whether each seat is used illegally or not by comparing the seat usage information on whether or not seat usage is permitted, that is, whether or not seat usage is permitted, and the detection result of the presence detection unit for each seat. It can be determined whether or not.

また、第3の発明は、前記モニタリング画像生成部は、前記座席利用情報に基づき、不正利用でない利用者の人物領域に対して前記プライバシー保護の画像処理を実施し、不正利用である利用者の人物領域に対して前記プライバシー保護の画像処理を実施しない構成とする。   According to a third aspect of the present invention, the monitoring image generation unit performs image processing for privacy protection on a person area of a user who is not unauthorized use based on the seat usage information, and The privacy protection image processing is not performed on the person area.

これによると、正当な利用者のプライバシーを保護することができる。一方、不正な利用者は未処理の状態で表示されるため、個人を識別することができる。   According to this, the privacy of a legitimate user can be protected. On the other hand, since an unauthorized user is displayed in an unprocessed state, an individual can be identified.

また、第4の発明は、前記モニタリング画像生成部は、前記プライバシー保護の画像処理として、モザイク処理、ぼかし処理、ブレンド処理のいずれかの識別性低減処理が実施された前記モニタリング画像を生成する構成とする。   In addition, according to a fourth aspect of the invention, the monitoring image generation unit generates the monitoring image that has been subjected to any discrimination reduction processing of mosaic processing, blurring processing, and blending processing as the privacy protection image processing. And

これによると、モザイク処理、ぼかし処理、ブレンド処理のいずれかの識別性低減処理を実施することで、個人を識別することができなくなるため、利用者のプライバシーを確実に保護することができる。   According to this, by performing any one of the distinctiveness reduction processes of the mosaic process, the blurring process, and the blending process, it becomes impossible to identify the individual, so that the privacy of the user can be reliably protected.

また、第5の発明は、前記モニタリング画像生成部は、前記識別性低減処理が実施された識別性低減画像上に、利用者の人物領域の少なくとも一部を取り囲む枠画像を重畳した前記モニタリング画像を生成し、前記座席利用情報に基づき、前記枠画像の表示形態を変更することで、座席ごとの利用状況を可視化する構成とする。   According to a fifth aspect of the present invention, the monitoring image generation unit superimposes a frame image surrounding at least a part of a user's person area on the distinguishability reduced image on which the distinguishability reduction processing has been performed. And the usage status of each seat is visualized by changing the display form of the frame image based on the seat usage information.

これによると、利用者ごとの枠画像の表示態様(例えば、表示色)により、利用者による座席の利用状況(例えば、不正利用か否か)が表現されるため、利用者による座席の利用状況を即座に把握することができる。   According to this, the usage state of the seat by the user (for example, whether or not it is unauthorized use) is expressed by the display mode (for example, display color) of the frame image for each user. Can be grasped immediately.

また、第6の発明は、前記モニタリング画像生成部は、前記プライバシー保護の画像処理として、前記撮像画像における利用者の人物領域をその人物領域の形状を表すマスク画像に置き換える画像処理が実施された前記モニタリング画像を生成する構成とする。   According to a sixth aspect of the invention, the monitoring image generation unit performs image processing for replacing the user's person area in the captured image with a mask image representing the shape of the person area as the privacy protection image processing. The monitoring image is generated.

これによると、撮像画像内の人物領域をマスク画像に置き換えることで、個人を識別することができなくなるため、利用者のプライバシーを確実に保護することができる。   According to this, by replacing the person area in the captured image with the mask image, it becomes impossible to identify the individual, so that the privacy of the user can be reliably protected.

また、第7の発明は、前記モニタリング画像生成部は、前記座席利用情報に基づき、前記マスク画像の表示形態を変更することで、座席ごとの利用状況を可視化する構成とする。   Moreover, 7th invention sets it as the structure which visualizes the utilization condition for every seat by the said monitoring image production | generation part changing the display form of the said mask image based on the said seat utilization information.

これによると、利用者ごとのマスク画像の表示態様(例えば、表示色)により、利用者による座席の利用状況(例えば、不正利用か否か)が表現されるため、利用者による座席の利用状況を即座に把握することができる。   According to this, the usage state of the seat by the user (for example, whether or not it is unauthorized use) is expressed by the display mode (for example, display color) of the mask image for each user. Can be grasped immediately.

また、第8の発明は、前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、前記モニタリング画像生成部は、駅構内での列車の発車時または停車時に撮像された前記撮像画像に対する人物検出の結果に基づいて前記プライバシー保護の画像処理が実施された前記モニタリング画像を生成する構成とする。   According to an eighth aspect of the present invention, the monitoring area is in a train of a train on which a seat charge is charged, and the monitoring image generation unit captures when the train starts or stops in the station premises. The monitoring image on which the privacy protection image processing has been performed is generated based on the result of person detection on the captured image.

これによると、列車の発車時または停車時の車両の揺れで乗客の身体に動きが生じることから、動体検知に基づく人物検出を確実に行うことができるため、乗客に対してプライバシー保護の画像処理が適切に実施されたモニタリング画像を生成することができる。   According to this, since the movement of the passenger's body is caused by the shaking of the vehicle when the train starts or stops, it is possible to reliably perform person detection based on the moving object detection, and thus image processing for privacy protection for the passenger Can generate a properly implemented monitoring image.

また、第9の発明は、前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、前記座席管理情報取得部は、駅構内での列車の発車時または停車時における前記座席管理情報を取得する構成とする。   According to a ninth aspect of the invention, the monitoring area is in the train of a train on which a seat is charged, and the seat management information acquisition unit is at the time of departure or stop of the train within the station premises. The seat management information is acquired.

これによると、列車の発車時または停車時に乗客が着席や離席を行う場合が多いため、適切な座席管理情報を取得することができる。   According to this, since passengers often sit and leave when the train starts or stops, appropriate seat management information can be acquired.

また、第10の発明は、さらに、監視エリアにおける座席の配置状況を表した模式図からなる座席マップ画像を生成し、前記座席利用情報に基づき、前記座席マップ画像における各座席を表す座席画像の表示態様を変更することで、座席ごとの利用者の利用状況を可視化するマップ画像生成部を備えた構成とする。   The tenth aspect of the invention further generates a seat map image composed of a schematic diagram showing a seat arrangement state in the monitoring area, and based on the seat use information, a seat image representing each seat in the seat map image By changing the display mode, a map image generation unit that visualizes the usage status of the user for each seat is provided.

これによると、監視エリアにおける座席ごとの利用状況を即座に把握することができる。   According to this, it is possible to immediately grasp the usage status of each seat in the monitoring area.

また、第11の発明は、前記出力情報生成部は、前記座席マップ画像を表示する画面上で座席を指定するユーザの操作入力に応じて、ユーザが指定する座席が属する座席区画に対応する前記モニタリング画像を含む前記出力情報を生成する構成とする。   In addition, according to an eleventh aspect of the invention, the output information generation unit corresponds to a seat section to which a seat specified by the user belongs in response to an operation input of the user specifying the seat on the screen displaying the seat map image. The output information including the monitoring image is generated.

これによると、座席マップ画像で座席ごとの利用状況を把握し、この座席マップ画像で注目する座席を指定することで、その座席が写るモニタリング画像を表示させて、注目する座席の実際の状況を確認することができるため、座席の利用状況を確認する作業を効率よく行うことができる。   According to this, the usage status of each seat is grasped in the seat map image, and by specifying the seat of interest in this seat map image, the monitoring image showing the seat is displayed and the actual situation of the seat of interest is displayed. Since it can be confirmed, it is possible to efficiently check the seat usage status.

また、第12の発明は、前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、さらに、前記座席利用情報取得部で取得した前記座席利用情報を、車両単位、列車単位、路線単位の少なくともいずれかで集約する座席利用情報集約部と、この座席利用情報集約部で集約された前記座席利用情報に基づき、路線ごとの利用状況を可視化した路線マップ画像、列車ごとの利用状況を可視化した列車マップ画像、車両ごとの利用状況を可視化した車両マップ画像の少なくともいずれかを生成するマップ画像生成部と、を備えた構成とする。   In a twelfth aspect of the invention, the monitoring area is in a train on which a seat where a seat usage fee is charged is arranged, and the seat usage information acquired by the seat usage information acquisition unit is , A seat usage information aggregating unit that aggregates at least one of a train unit and a route unit, a route map image that visualizes a usage situation for each route based on the seat usage information aggregated by the seat usage information aggregating unit, a train A map image generation unit that generates at least one of a train map image that visualizes the usage status of each vehicle and a vehicle map image that visualizes the usage status of each vehicle.

これによると、車両単位や列車単位や路線単位でユーザが座席の利用状況を把握することができる。   According to this, the user can grasp the use status of the seat in units of vehicles, trains or routes.

また、第13の発明は、前記モニタリング画像生成部は、初期状態において、前記プライバシー保護の画像処理を実施した前記モニタリング画像を生成し、プライバシー保護を解除するユーザの操作入力に応じて、前記プライバシー保護の画像処理を実施しない前記モニタリング画像を生成する構成とする。   According to a thirteenth aspect of the present invention, in the initial state, the monitoring image generation unit generates the monitoring image that has been subjected to the privacy protection image processing, and in response to a user operation input for releasing privacy protection, the privacy image is generated. The monitoring image is generated without performing the protection image processing.

これによると、ユーザが必要に応じてプライバシー保護を解除して、プライバシー保護の画像処理が実施されていないモニタリング画像を表示させることができる。   According to this, the user can cancel the privacy protection as necessary, and can display the monitoring image on which the privacy protection image processing is not performed.

また、第14の発明は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリングシステムであって、前記監視エリアを撮像して、撮像画像に対する人物検出を行うカメラと、利用者による座席の利用状況を可視化した前記出力情報を生成するサーバ装置と、前記出力情報に基づき、閲覧画面を表示するユーザ端末装置と、を有し、前記サーバ装置は、利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、前記座席利用情報に基づき、前記撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、を備えた構成とする。   A fourteenth aspect of the present invention is a seat monitoring system that generates output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area in which a plurality of seats are arranged. A camera that picks up an image and detects a person on the captured image; a server device that generates the output information that visualizes the use status of a seat by a user; a user terminal device that displays a browsing screen based on the output information; The server device includes: a seat usage information acquisition unit that acquires seat usage information related to seat usage status by a user; and identification for each user arranged on the captured image based on the seat usage information Visualize the usage status for each seat by changing the display mode of the image, and at least a part of the person area of the user in the captured image To the monitoring image generation unit in the image processing privacy generates a monitoring image that has been performed, the output information generation unit for generating the output information including the monitoring image, a configuration including a.

これによると、第1の発明と同様に、監視エリアを撮像した画像上に、各座席の不正利用などに関する利用状況を可視化すると共に、監視エリアを撮像した画像に写る利用者のプライバシーを保護することができる。   According to this, as in the first aspect of the invention, on the image obtained by imaging the monitoring area, the usage situation regarding unauthorized use of each seat is visualized, and the privacy of the user shown in the image obtained by imaging the monitoring area is protected. be able to.

また、第15の発明は、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する処理を情報処理装置に行わせる座席モニタリング方法であって、利用者による座席の利用状況に関する座席利用情報を取得し、前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成し、前記モニタリング画像を含む前記出力情報を生成する構成とする。   According to a fifteenth aspect of the invention, there is provided a seat monitoring method for causing an information processing apparatus to perform processing for generating output information that visualizes a use situation of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged. And the seat usage information regarding the usage status of the seat by the user is acquired, and based on the seat usage information, the display mode of the identification image for each user arranged on the captured image obtained by imaging the monitoring area is changed. The use status for each seat is visualized to generate a monitoring image in which privacy-protected image processing is performed on at least a part of the person area of the user in the captured image, and the monitoring image includes the monitoring image. The output information is generated.

これによると、第1の発明と同様に、監視エリアを撮像した画像上に、各座席の不正利用などに関する利用状況を可視化すると共に、監視エリアを撮像した画像に写る利用者のプライバシーを保護することができる。   According to this, as in the first aspect of the invention, on the image obtained by imaging the monitoring area, the usage situation regarding unauthorized use of each seat is visualized, and the privacy of the user shown in the image obtained by imaging the monitoring area is protected. be able to.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本実施形態に係る座席モニタリングシステムの全体構成図である。
(First embodiment)
FIG. 1 is an overall configuration diagram of a seat monitoring system according to the present embodiment.

この座席モニタリングシステムは、列車の車内を監視エリアとして、車内を撮影した画像などに基づいて生成された、座席ごとの利用状況を可視化したモニタリング画像を、監視センターの監視者などのユーザに提供するものであり、カメラ1と、サーバ装置(座席モニタリング装置)2と、ユーザ端末装置(閲覧装置)3と、車内検札装置4と、座席管理装置5と、を備えている。   This seat monitoring system provides a monitoring image generated based on an image of the inside of a train with the inside of the train as a monitoring area and visualizing the use status of each seat to a user such as a supervisor at the monitoring center. It includes a camera 1, a server device (seat monitoring device) 2, a user terminal device (browsing device) 3, an in-car ticket checking device 4, and a seat management device 5.

列車は、自由席で座席利用料が課される複数の座席が配置された特別車両(普通列車のグリーン車)が連結されたものであり、この特別車両では、乗客は座席利用料を支払うことで自由に座席を選択して利用することができる。この特別車両には、座席ごとの乗客の利用状況を監視するために、カメラ1および車内検札装置4が設置されている。このカメラ1および車内検札装置4は、車載ネットワークおよび無線通信部6と無線基地局7とを介して、VLAN(Virtual Local Area Network)などの閉域ネットワークに接続されている。   The train is a combination of special vehicles (green trains for ordinary trains) with multiple seats that are free seats and are subject to seat usage fees. In these special vehicles, passengers pay seat usage fees. You can select and use seats freely. The special vehicle is provided with a camera 1 and an in-car ticket checking device 4 in order to monitor the use situation of passengers for each seat. The camera 1 and the in-car inspection device 4 are connected to a closed network such as a VLAN (Virtual Local Area Network) via an in-vehicle network and a wireless communication unit 6 and a wireless base station 7.

カメラ1は、列車の車内の天井に設置され、列車の車内に設けられた座席を撮像する。このカメラ1では、車内の座席を撮像した撮像画像から人物を検出する処理が行われ、撮像画像および人物検出情報が出力される。   The camera 1 is installed on the ceiling in the train and images a seat provided in the train. In the camera 1, a process of detecting a person from a captured image obtained by capturing a seat in a vehicle is performed, and a captured image and person detection information are output.

車内検札装置4は、各座席の上方の天井に設置され、乗客が購入した座席利用券(グリーン券)を確認する車内検札を無人で行うものであり、リーダライタ8と、表示ランプ9と、を備えている。乗客は、駅構内の券売機などにおいてICカードを用いて座席利用券を購入した上で列車に乗車し、自分が着席する座席に対応する車内検札装置4のリーダライタ8にICカードをかざす操作を行うと、表示ランプ9が赤色から緑色に変わる。これにより、乗務員等は、車内検札が終了したことを確認することができる。なお、座席利用券の購入および車内検札を、スマートフォンなどの携帯端末装置で行うこともできる。   The in-car inspection device 4 is installed on the ceiling above each seat and performs unattended in-vehicle inspection to confirm the seat use ticket (green ticket) purchased by the passenger. The reader / writer 8, the display lamp 9, It has. A passenger purchases a seat use ticket using an IC card at a ticket vending machine in a station, gets on the train, and holds the IC card over the reader / writer 8 of the in-car ticket checking device 4 corresponding to the seat on which the passenger is seated. As a result, the display lamp 9 changes from red to green. As a result, the crew or the like can confirm that the in-car check has been completed. In addition, purchase of a seat use ticket and in-car check can also be performed with a mobile terminal device such as a smartphone.

座席管理装置5は、各列車に搭載された車内検札装置4と閉域ネットワークを介して接続されており、車内検札装置4から、各座席の車内検札が終了したか否かに関する車内検札情報を収集する。また、座席管理装置5は、閉域ネットワークを介してサーバ装置2に接続されており、座席ごとの利用の可否、すなわち、乗客が車内改札により座席を利用する権限があるか否かに関する座席管理情報をサーバ装置2に提供する。   The seat management device 5 is connected to the in-car inspection device 4 mounted on each train via a closed network, and collects in-vehicle inspection information from the in-car inspection device 4 regarding whether or not the in-vehicle inspection for each seat has been completed. To do. The seat management device 5 is connected to the server device 2 via the closed network, and seat management information relating to whether or not each seat can be used, that is, whether or not the passenger has the authority to use the seat through the in-vehicle ticket gate. Is provided to the server device 2.

サーバ装置2は、閉域ネットワークを介して各列車の各カメラ1に接続されており、各列車の各カメラ1から送信される撮像画像を受信する。また、サーバ装置2は、インターネットを介してユーザ端末装置3に接続されており、ユーザが閲覧する画面を生成してユーザ端末装置3に配信し、また、ユーザが画面で入力した情報を取得する。   The server apparatus 2 is connected to each camera 1 of each train via a closed network, and receives a captured image transmitted from each camera 1 of each train. The server device 2 is connected to the user terminal device 3 via the Internet, generates a screen to be browsed by the user, distributes it to the user terminal device 3, and acquires information input by the user on the screen. .

ユーザ端末装置3は、スマートフォンやタブレット端末やPCで構成される。このユーザ端末装置3では、サーバ装置2から配信されるモニタリング画像などの閲覧画面が表示される。このモニタリング画像などの閲覧画面をユーザが閲覧することで、各列車の各車両における乗客による座席の利用状況などを把握することができる。   The user terminal device 3 is configured by a smartphone, a tablet terminal, or a PC. In the user terminal device 3, a browsing screen such as a monitoring image distributed from the server device 2 is displayed. When the user browses the viewing screen such as the monitoring image, it is possible to grasp the seat usage status by the passengers in each vehicle of each train.

さて、本実施形態では、サーバ装置2において、カメラ1から取得した撮像画像に基づいて、各座席における乗客の在席を検知し、この在席検知結果と、座席管理装置5から取得した座席管理情報とに基づいて、ICカードによる車内検札の有無に応じて、座席に在席する乗客が不正乗車か否かを判定する。すなわち、ICカードによる車内検札が終了した座席に着席する乗客を正当な乗客とし、ICカードによる車内検札が終了していない座席に着席する乗客を不正な乗客とする。   In the present embodiment, the server device 2 detects the presence of a passenger in each seat based on the captured image acquired from the camera 1, and the presence management result and the seat management acquired from the seat management device 5. Based on the information, it is determined whether or not the passenger present in the seat is an illegal boarding depending on the presence or absence of an in-car check using an IC card. In other words, a passenger seated in a seat where the IC card check has been completed is regarded as a valid passenger, and a passenger seated in a seat where the IC card check has not been completed is defined as an unauthorized passenger.

なお、本実施形態では、座席利用券の購入および車内検札を全てICカードを用いて行い、ICカードを用いた車内検札を受けていない乗客を不正乗車とするが、座席利用券を切符で購入するようにしてもよい。この場合、座席利用券の切符を購入して乗車した乗客は、ICカードを用いた車内検札ができないため、車内検札を受けていない乗客は、正当か否かが未定となる。この場合、乗務員は、座席利用券の切符を確認した際に、所持する管理端末(図示せず)から車内検札終了に関する情報を入力することで、表示ランプ9を赤色から緑色に変えることができる。   In this embodiment, the purchase of the seat use ticket and the in-car ticket check are all performed using the IC card, and passengers who have not received the in-car check using the IC card are illegally boarded, but the seat use ticket is purchased with a ticket. You may make it do. In this case, passengers who purchase a ticket for a seat use ticket and get on the board cannot perform in-car check using an IC card. Therefore, it is undecided whether a passenger who has not received the in-car check is valid. In this case, the crew member can change the display lamp 9 from red to green by inputting information relating to the end of the in-car check from a management terminal (not shown) when the ticket of the seat use ticket is confirmed. .

次に、列車の各車両におけるカメラの配置状況について説明する。図2は、列車の車両におけるカメラ1の配置状況を示す説明図である。   Next, the arrangement state of the camera in each vehicle of the train will be described. FIG. 2 is an explanatory diagram showing an arrangement state of the cameras 1 in the train vehicle.

列車の各車両Cの天井には、車内に複数配置された座席Sを撮像するようにカメラ1が設置されている。特に、図2に示す例では、カメラ1に、魚眼レンズを用いて360度の撮像範囲を有する全方位カメラが採用されているが、所定の画角を有するカメラ、いわゆるボックスカメラでも可能である。   A camera 1 is installed on the ceiling of each vehicle C of the train so as to image a plurality of seats S arranged in the vehicle. In particular, in the example shown in FIG. 2, an omnidirectional camera having a 360-degree imaging range using a fisheye lens is adopted as the camera 1, but a camera having a predetermined angle of view, a so-called box camera, is also possible.

次に、サーバ装置2で生成されてユーザ端末装置3に表示される画面について説明する。図3は、路線マップ画像表示画面を示す説明図である。図4は、列車マップ画像表示画面を示す説明図である。図5は、車両マップ画像表示画面を示す説明図である。図6は、座席マップ画像表示画面を示す説明図である。図7は、モニタリング画像表示画面を示す説明図である。   Next, a screen generated by the server device 2 and displayed on the user terminal device 3 will be described. FIG. 3 is an explanatory diagram showing a route map image display screen. FIG. 4 is an explanatory diagram showing a train map image display screen. FIG. 5 is an explanatory diagram showing a vehicle map image display screen. FIG. 6 is an explanatory diagram showing a seat map image display screen. FIG. 7 is an explanatory diagram showing a monitoring image display screen.

本実施形態では、路線マップ画像表示画面(図3参照)、列車マップ画像表示画面(図4参照)、車両マップ画像表示画面(図5参照)、座席マップ画像表示画面(図6参照)、およびモニタリング画像表示画面(図7参照)に関する画面情報がサーバ装置2で生成されて、これらの画面がユーザ端末装置3に表示される。   In this embodiment, a route map image display screen (see FIG. 3), a train map image display screen (see FIG. 4), a vehicle map image display screen (see FIG. 5), a seat map image display screen (see FIG. 6), and Screen information related to the monitoring image display screen (see FIG. 7) is generated by the server device 2, and these screens are displayed on the user terminal device 3.

路線マップ画像表示画面(図3参照)で、注目する路線を選択すると、選択した路線に関する列車マップ画像表示画面(図4参照)に遷移する。そして、列車マップ画像表示画面で、注目する列車を選択すると、選択した列車に関する車両マップ画像表示画面(図5参照)に遷移する。そして、車両マップ画像表示画面で、注目する車両を選択すると、選択した車両に関する座席マップ画像表示画面(図6参照)に遷移する。そして、座席マップ画像表示画面で、注目する座席を選択すると、選択した座席に関するモニタリング画像表示画面(図7参照)に遷移する。   When a route of interest is selected on the route map image display screen (see FIG. 3), a transition is made to the train map image display screen (see FIG. 4) relating to the selected route. And if the train which attention is selected on a train map image display screen, it will change to the vehicle map image display screen (refer to Drawing 5) about the selected train. Then, when a vehicle of interest is selected on the vehicle map image display screen, a transition is made to a seat map image display screen (see FIG. 6) relating to the selected vehicle. When a seat of interest is selected on the seat map image display screen, a transition is made to a monitoring image display screen (see FIG. 7) relating to the selected seat.

まず、図3に示すように、路線マップ画像表示画面には、路線ごとの利用状況(不正乗車の多さ)を可視化する路線マップ画像101が表示される。この路線マップ画像101は、対象となる地域における各路線の敷設状況を模式的に描画したものであり、路線マップ画像101内の各路線を表す路線画像102の表示形態を変更することで、路線ごとの利用状況が可視化されている。図3に示す例では、路線画像102の表示色で、路線ごとの不正乗車の多さが表現されている。   First, as shown in FIG. 3, a route map image 101 that visualizes the usage situation (the number of illegal rides) for each route is displayed on the route map image display screen. This route map image 101 is a schematic drawing of the laying status of each route in the target area. By changing the display form of the route image 102 representing each route in the route map image 101, the route map image 101 The usage situation of each is visualized. In the example shown in FIG. 3, the display color of the route image 102 represents the number of illegal boardings for each route.

次に、図4に示すように、列車マップ画像表示画面には、列車ごとの利用状況(不正乗車の多さ)を可視化する列車マップ画像111が表示される。この列車マップ画像111は、対象となる路線における列車の運行状況を模式的に描画したしたものであり、列車マップ画像111内の各列車を表す列車画像112の表示形態を変更することで、列車ごとの利用状況が可視化されている。図4に示す例では、列車画像112の表示色で、列車ごとの不正乗車の多さが表現されている。   Next, as shown in FIG. 4, a train map image 111 that visualizes the use situation (the number of illegal boarding) for each train is displayed on the train map image display screen. This train map image 111 is a schematic drawing of the operation status of a train on the target route. By changing the display form of the train image 112 representing each train in the train map image 111, the train map image 111 The usage situation of each is visualized. In the example shown in FIG. 4, the display color of the train image 112 represents the number of illegal rides for each train.

次に、図5に示すように、車両マップ画像表示画面には、車両ごとの利用状況(不正乗車の多さ)を可視化する車両マップ画像121が表示される。この車両マップ画像121は、対象となる列車における車両の編成状況を模式的に描画したものであり、車両マップ画像121内の各車両を表す車両画像122の表示形態を変更することで、車両ごとの利用状況が可視化される。図5に示す例では、車両画像122の表示色で、車両ごとの不正乗車の多さが表現されている。   Next, as shown in FIG. 5, a vehicle map image 121 that visualizes the usage situation (the number of illegal boarding) for each vehicle is displayed on the vehicle map image display screen. This vehicle map image 121 is a schematic drawing of the knitting status of the vehicle in the target train, and by changing the display form of the vehicle image 122 representing each vehicle in the vehicle map image 121, the vehicle map image 121 The usage status of is visualized. In the example shown in FIG. 5, the display color of the vehicle image 122 represents the number of illegal boardings for each vehicle.

次に、図6に示すように、座席マップ画像表示画面には、座席ごとの利用状況(不正乗車か否か)を可視化する座席マップ画像131が表示される。この座席マップ画像131は、対象となる車両における座席の配置状況を模式的に描画したものであり、座席マップ画像131内の各座席を表す座席画像132の表示形態(表示色)を変更することで、座席ごとの利用者の利用状況が可視化される。図6に示す例では、座席画像132の表示色で、座席ごとの不正乗車の有無が表現されている。例えば、正当な乗客が在席する座席では座席画像132が緑色で表示され、不正な乗客が在席する座席では座席画像132が赤色で表示される。空席では座席画像132が白色で表示される。   Next, as shown in FIG. 6, a seat map image 131 for visualizing the use situation (whether it is an unauthorized boarding) for each seat is displayed on the seat map image display screen. This seat map image 131 is a schematic drawing of the seat arrangement status in the target vehicle, and the display form (display color) of the seat image 132 representing each seat in the seat map image 131 is changed. Thus, the usage status of the user for each seat is visualized. In the example shown in FIG. 6, the display color of the seat image 132 represents the presence or absence of unauthorized boarding for each seat. For example, the seat image 132 is displayed in green in a seat where a legitimate passenger is present, and the seat image 132 is displayed in red in a seat where an unauthorized passenger is present. When the seat is empty, the seat image 132 is displayed in white.

ここで、本実施形態では、サーバ装置2において、カメラ1から取得した撮像画像および人物検出情報と、座席管理装置5から取得した座席管理情報とに基づいて、座席ごとに不正乗車か否かを判定し、この不正乗車か否かに関する座席ごとの座席利用情報に基づいて、座席マップ画像(図6参照)における座席画像132の表示色が決定される。   Here, in the present embodiment, in the server device 2, whether or not it is an illegal boarding for each seat based on the captured image and person detection information acquired from the camera 1 and the seat management information acquired from the seat management device 5. The display color of the seat image 132 in the seat map image (see FIG. 6) is determined on the basis of the seat usage information for each seat regarding whether or not this is an unauthorized boarding.

また、サーバ装置2において、座席ごとの座席利用情報を車両ごとに集約して、車両ごとの座席利用情報(不正乗車の座席数)を取得し、この車両ごとの座席利用情報に基づいて、車両マップ画像(図5参照)における車両画像122の表示色が決定される。また、車両ごとの座席利用情報を列車ごとに集約して、列車ごとの不正乗車情報を取得し、この列車ごとの座席利用情報に基づいて、列車マップ画像(図4参照)における列車画像112の表示色が決定される。また、列車ごとの座席利用情報を路線ごとに集約して、路線ごとの座席利用情報を取得し、この路線ごとの座席利用情報に基づいて、路線マップ画像(図3参照)における路線画像102の表示色が決定される。   Further, in the server device 2, the seat usage information for each seat is aggregated for each vehicle, the seat usage information for each vehicle (the number of seats for illegal boarding) is acquired, and based on the seat usage information for each vehicle, the vehicle The display color of the vehicle image 122 in the map image (see FIG. 5) is determined. Moreover, the seat use information for each vehicle is aggregated for each train, and unauthorized boarding information for each train is obtained. Based on the seat use information for each train, the train image 112 in the train map image (see FIG. 4) is obtained. The display color is determined. In addition, the seat usage information for each train is aggregated for each route, the seat usage information for each route is acquired, and the route image 102 in the route map image (see FIG. 3) is acquired based on the seat usage information for each route. The display color is determined.

次に、図7に示すように、モニタリング画像表示画面には、座席ごとの利用状況(不正乗車か否か)を可視化するモニタリング画像141が表示される。このモニタリング画像141には、識別性低減画像142上に矩形の枠画像143が重畳して表示されている。なお、モニタリング画像141は、動画として閲覧できることが望ましいが、所定の時間間隔で配信される静止画によって閲覧できるようにしてもよい。   Next, as shown in FIG. 7, the monitoring image display screen displays a monitoring image 141 that visualizes the use situation (whether or not it is an illegal boarding) for each seat. In this monitoring image 141, a rectangular frame image 143 is superimposed on the discriminability reduction image 142 and displayed. The monitoring image 141 is desirably viewable as a moving image, but may be viewable as a still image distributed at a predetermined time interval.

識別性低減画像142は、撮像画像に写る乗客のプライバシーを保護する画像処理として、人物の識別性を低減する画像処理(識別性低減処理)を撮像画像に対して実施することで生成される。図7に示す例では、識別性低減処理としてモザイク処理が実施されている。また、図7に示す例では、各乗客の顔領域(人物の顔が写る画像領域)に対して識別性低減処理が実施されている。   The discriminability-reduced image 142 is generated by performing image processing (identification-reducing processing) for reducing the person's discrimination on the captured image as image processing for protecting the privacy of passengers in the captured image. In the example illustrated in FIG. 7, mosaic processing is performed as the distinguishability reduction processing. In the example shown in FIG. 7, the distinctiveness reduction process is performed on each passenger's face area (an image area in which a person's face is shown).

モザイク処理は、撮像画像を複数のブロックに分割して、ブロック内の1つの画素の画素値あるいはブロック内の各画素の画素値の平均値などの単一の画素値に、そのブロック内の全ての画素の画素値を置換するものである。   In the mosaic processing, the captured image is divided into a plurality of blocks, and the pixel values of one pixel in the block or the average value of the pixel values of each pixel in the block are all changed to a single pixel value. This replaces the pixel value of each pixel.

なお、本実施形態では、人物の識別性を低減する上で最も効果的な顔領域に対して識別性低減処理を実施するようにしたが、このような人物領域(人物の身体が写る画像領域)の一部ではなく、人物領域の全体に対して識別性低減処理を実施するようにしてもよい。また、撮像画像の全体に対して識別性低減処理を実施するようにしてもよい。   In this embodiment, the identification reduction process is performed on the face area that is most effective in reducing the person's identification. However, such a person area (an image area in which a person's body is captured) is performed. ), The distinction reduction process may be performed on the entire person area instead of a part of the Moreover, you may make it implement a discrimination reduction process with respect to the whole captured image.

また、図7に示す例では、撮像画像に写る人物の識別性を低減する画像処理として、モザイク処理を実施したが、この他にぼかし処理やブレンド処理を実施するようにしてもよい。   In the example shown in FIG. 7, mosaic processing is performed as image processing for reducing the identifiability of a person appearing in a captured image, but blur processing or blend processing may be performed in addition to this.

ぼかし処理は、各種のフィルタ処理、例えば、ブラーフィルタ、ガウシアンフィルタ、メディアンフィルタ、およびバイラテラルフィルタなどによるフィルタ処理である。さらに、ネガ/ポジ反転、色調補正(明るさ変化、RGBカラーバランス変化、コントラスト変化、ガンマ補正、および彩度調整など)、2値化、ならびにエッジフィルタなどの各種の画像処理を利用することも可能である。   The blurring process is a filter process using various filter processes such as a blur filter, a Gaussian filter, a median filter, and a bilateral filter. In addition, negative / positive reversal, color tone correction (brightness change, RGB color balance change, contrast change, gamma correction, saturation adjustment, etc.), binarization, and various image processing such as edge filters can also be used. Is possible.

ブレンド処理は、2つの画像を半透過状態で合成(ブレンド)するものであり、合成する度合いを示すα値に基づいて、所定の合成用の画像と撮像画像とを合成する。   The blending process combines (blends) two images in a semi-transmissive state, and combines a predetermined image for synthesis and a captured image based on an α value indicating the degree of synthesis.

なお、撮像画像の全体に対して識別性低減処理を行う場合には、モザイク処理やぼかし処理やブレンド処理のような特殊な画像処理を行うことなく、人物の識別性が失われる程度に画像の解像度を低下させる処理を行うようにしてもよい。この場合、特別な画像処理機能を搭載する必要がないため、画像処理部を安価に構成でき、画像データ量も減少させることができるので、ネットワーク上での通信負荷を軽減することができる。   In addition, when performing the distinctiveness reduction process on the entire captured image, the image identification is reduced to such an extent that the human distinctiveness is lost without performing special image processing such as mosaic processing, blurring processing, and blending processing. You may make it perform the process which reduces the resolution. In this case, since it is not necessary to mount a special image processing function, the image processing unit can be configured at low cost and the amount of image data can be reduced, so that the communication load on the network can be reduced.

枠画像143は、各乗客の頭部領域(人物の頭部が写る画像領域)を取り囲むように表示されている。この枠画像143は、カメラ1で行われる人物検出において、検出された人物が存在する領域に設定される人物枠に基づいて生成される。   The frame image 143 is displayed so as to surround each passenger's head region (an image region in which a person's head is shown). The frame image 143 is generated based on the person frame set in the area where the detected person exists in the person detection performed by the camera 1.

この枠画像143では、座席ごとの利用状況(不正乗車か否か)を表現する識別画像であり、枠画像143の表示態様を変更することで、座席ごとの利用状況が可視化される。図7に示す例では、枠画像143の表示色で、座席ごとの不正乗車の有無が表現されている。例えば、正当な乗客では枠画像143が緑色で表示され、不正な乗客では枠画像143が赤色で表示される。   The frame image 143 is an identification image that represents the usage status (whether or not the vehicle is illegally boarded) for each seat, and the usage status for each seat is visualized by changing the display mode of the frame image 143. In the example illustrated in FIG. 7, the display color of the frame image 143 represents the presence or absence of unauthorized boarding for each seat. For example, the frame image 143 is displayed in green for a legitimate passenger, and the frame image 143 is displayed in red for an unauthorized passenger.

なお、本実施形態では、枠画像143の表示色で座席ごとの利用状況を表現するようにしたが、この利用状況を表現する表示要素は、表示色(色合いや色の濃さ)に限定されるものではなく、線種(破線など)や太さで利用状況を表現することもできる。すなわち、色合い、色の濃さ、線種、および太さの少なくとも1つの表示要素が異なるように描画される構成とすればよい。   In the present embodiment, the use status for each seat is expressed by the display color of the frame image 143. However, the display element that expresses the use status is limited to the display color (color shade or color intensity). The usage status can also be expressed by line type (broken line etc.) and thickness. In other words, the drawing may be performed so that at least one display element of hue, color strength, line type, and thickness is different.

また、本実施形態では、座席ごとの利用状況(不正乗車か否か)を可視化する識別画像として、乗客の頭部を取り囲む枠画像143を表示するようにしたが、乗客の上半身を取り囲むように枠画像143を表示するようにしてもよく、さらにこのような人物領域の一部ではなく、人物領域の全体を取り囲むように枠画像143を表示するようにしてもよい。また、枠画像143を矩形としたが、この枠画像は矩形に限定されるものではなく、円形などの他の形状の図形であってもよい。さらに、座席ごとの利用状況(不正乗車か否か)を可視化する画像は、人物領域の一部あるいは全体を取り囲む枠画像に限定されるものではなく、適宜な形状の図形、記号および文字の少なくともいずれかからなる画像として、この画像を人物領域の内部またはその近傍に表示させるようにしてもよい。   In the present embodiment, the frame image 143 that surrounds the passenger's head is displayed as the identification image for visualizing the use situation (whether the boarding is illegal) for each seat, but the upper body of the passenger is surrounded. The frame image 143 may be displayed, and the frame image 143 may be displayed so as to surround the entire person area, not a part of such a person area. Although the frame image 143 is a rectangle, the frame image is not limited to a rectangle, and may be a figure having another shape such as a circle. Furthermore, the image for visualizing the use situation (whether or not the vehicle is illegally boarded) for each seat is not limited to a frame image that surrounds a part or the whole of the person area, and includes at least figures, symbols, and characters having an appropriate shape. As an image composed of any of these, this image may be displayed inside or near the person area.

さて、図7(A)に示す例では、全ての人物を対象にしてプライバシー保護の画像処理(識別性低減処理)が実施されている。図7(B)に示す例では、正当な乗客のみを対象にしてプライバシー保護の画像処理が実施されており、不正な乗客にはプライバシー保護の画像処理が実施されない。   In the example shown in FIG. 7A, privacy protection image processing (discriminability reduction processing) is performed for all persons. In the example shown in FIG. 7B, privacy-protected image processing is performed only for legitimate passengers, and privacy-protected image processing is not performed for unauthorized passengers.

ここで、図7(A)に示すモニタリング画像141と、図7(B)に示すモニタリング画像141とのいずれかのみを表示するようにしてもよいが、図7(A)に示すモニタリング画像141を表示させる表示モードと、図7(B)に示すモニタリング画像141を表示させる表示モードとのいずれかをユーザが選択することができるようにしてもよい。   Here, only one of the monitoring image 141 shown in FIG. 7A and the monitoring image 141 shown in FIG. 7B may be displayed, but the monitoring image 141 shown in FIG. The user may be able to select either the display mode for displaying the image or the display mode for displaying the monitoring image 141 shown in FIG.

また、初期状態として、図7(A)に示すモニタリング画像141を表示し、プライバシー保護を解除する操作をユーザが行うと、図7(B)に示すモニタリング画像141が表示されるようにしてもよい。この場合、モニタリング画像表示画面上に、プライバシー保護を解除するボタンを設ければよい。また、ユーザ認証を行って、ユーザ認証が成功した場合にのみ、プライバシー保護を解除する操作をユーザが行うことができるようにして、プライバシー保護の画像処理が実施されていないモニタリング画像141の閲覧を制限するようにしてもよい。   Also, as an initial state, the monitoring image 141 shown in FIG. 7A is displayed, and when the user performs an operation to cancel the privacy protection, the monitoring image 141 shown in FIG. 7B is displayed. Good. In this case, a button for releasing privacy protection may be provided on the monitoring image display screen. Further, only when the user authentication is performed and the user authentication is successful, the user can perform an operation of canceling the privacy protection, and the monitoring image 141 in which the privacy protection image processing is not performed can be browsed. You may make it restrict | limit.

なお、図7(B)に示すモニタリング画像141では、プライバシー保護の画像処理(識別性低減処理)の有無で不正な乗客か否かを判別することができることから、座席利用情報(不正な乗客か否か)を可視化する枠画像143を省略するようにしてもよい。   In addition, in the monitoring image 141 shown in FIG. 7B, it is possible to determine whether the passenger is an unauthorized passenger based on the presence / absence of image processing for privacy protection (identity reduction processing). The frame image 143 for visualizing “No” may be omitted.

また、図7(B)に示すモニタリング画像141では、プライバシー保護の画像処理の有無で不正な乗客か否かを判別することができることから、枠画像を別の情報を表示する用途で用いるようにしてもよい。例えば、空席状態と在席状態とを判別するために枠画像を表示させるようにしてもよい。この場合、枠画像の表示色で空席状態と在席状態とを表現し、例えば、空席状態の場合に緑色の枠画像を表示し、在席状態の場合に赤色の枠画像を表示するようにしてもよい。   Further, in the monitoring image 141 shown in FIG. 7B, since it is possible to determine whether or not the passenger is an unauthorized passenger by the presence / absence of image processing for privacy protection, the frame image is used for the purpose of displaying other information. May be. For example, a frame image may be displayed to discriminate between a vacant seat state and a seated state. In this case, the vacant seat state and the seated state are expressed by the display color of the frame image, for example, a green frame image is displayed in the vacant seat state, and a red frame image is displayed in the seated state. May be.

また、本実施形態では、人物検出において人物領域に設定される人物枠に基づいて枠画像143を表示するようにしたが、人物検出の対象となる検出エリアを撮像画像上にユーザが予め設定して、この検出エリアの範囲を表す枠画像143を表示するようにしてよい。撮像画像において座席に着席した人物の頭部の像は座席のヘッドレストの位置に現れるため、このヘッドレストの位置に検出エリアを設定することで、座席に着席した人物を検出することができる。   In the present embodiment, the frame image 143 is displayed based on the person frame set in the person area in the person detection. However, the user sets a detection area to be a person detection target in advance on the captured image. Thus, a frame image 143 representing the range of the detection area may be displayed. Since the image of the head of the person seated on the seat in the captured image appears at the position of the headrest of the seat, the person seated on the seat can be detected by setting a detection area at the position of the headrest.

ところで、本実施形態では、座席利用料が課される全ての座席が複数のカメラ1のいずれかで撮像され、各カメラ1では、魚眼レンズを介して撮像することで得られる魚眼画像に対して歪み補正を実施した複数の撮像画像が出力され、この複数の撮像画像からモニタリング画像が生成される。このため、1つのモニタリング画像には車両に設置された座席の一部が写り、各モニタリング画像に写る複数の座席ごとの座席区画(座席グループ)に、1つの車両内の全ての座席が区分(グループ分け)される。そして、座席マップ画像表示画面(図6参照)において座席を選択すると、モニタリング画像表示画面(図7参照)に遷移するが、このとき、選択した座席が属する座席区画に対応するモニタリング画像が表示される。   By the way, in this embodiment, all seats on which a seat usage fee is charged are imaged by any one of the plurality of cameras 1, and each camera 1 captures a fisheye image obtained by imaging via a fisheye lens. A plurality of captured images subjected to distortion correction are output, and a monitoring image is generated from the plurality of captured images. For this reason, a part of the seats installed in the vehicle is shown in one monitoring image, and all seats in one vehicle are divided into seat sections (seat groups) for each of the plurality of seats shown in each monitoring image ( Grouped). Then, when a seat is selected on the seat map image display screen (see FIG. 6), a transition is made to the monitoring image display screen (see FIG. 7). At this time, a monitoring image corresponding to the seat section to which the selected seat belongs is displayed. The

このように、本実施形態では、路線マップ画像表示画面(図3参照)において、座席の利用状況が路線単位で表示され、列車マップ画像表示画面(図4参照)において、座席の利用状況が列車単位で表示され、車両マップ画像表示画面(図5参照)において、座席の利用状況が車両単位で表示され、座席マップ画像表示画面(図6参照)において、座席の利用状況が座席単位で表示される。したがって、監視センターにおいて、路線、列車、車両の順に絞り込みながら座席の利用状況を確認することができる。そして、モニタリング画像表示画面(図7参照)において、注目する座席の実際の状況を確認することができる。これにより、座席の利用状況を確認する作業を効率よく行うことができる。   As described above, in the present embodiment, on the route map image display screen (see FIG. 3), the seat usage status is displayed in units of routes, and on the train map image display screen (see FIG. 4), the seat usage status is the train. In the vehicle map image display screen (see FIG. 5), the seat usage status is displayed in units of vehicles. In the seat map image display screen (see FIG. 6), the seat usage status is displayed in seat units. The Therefore, in the monitoring center, it is possible to check the seat usage status while narrowing down in the order of route, train, and vehicle. Then, on the monitoring image display screen (see FIG. 7), the actual situation of the seat of interest can be confirmed. Thereby, the operation | work which confirms the utilization condition of a seat can be performed efficiently.

なお、本実施形態では、座席マップ画像表示画面(図6参照)において座席を選択すると、モニタリング画像表示画面(図7参照)に遷移するようにしたが、モニタリング画像表示ウィンドウを座席マップ表示画面上にホップアップ表示するようにしてもよい。このとき、座席マップ表示画面上における選択された座席の近傍にモニタリング画像表示ウィンドウをホップアップ表示するとよく、複数の座席を順次選択することで、モニタリング画像表示ウィンドウが複数表示されるようにしてもよい。   In this embodiment, when a seat is selected on the seat map image display screen (see FIG. 6), the monitoring image display screen (see FIG. 7) is transitioned to. However, the monitoring image display window is displayed on the seat map display screen. You may make it display a hop-up. At this time, the monitoring image display window may be hop-up displayed in the vicinity of the selected seat on the seat map display screen, and a plurality of monitoring image display windows may be displayed by sequentially selecting a plurality of seats. Good.

また、本実施形態では、列車マップ画像表示画面(図4参照)において、路線を運行する列車の中から、注目する列車を選択することで、車両マップ画像表示画面(図5参照)において、選択した列車における車両ごとの利用状況を表示するようにしたが、路線を運行する各列車の車両ごとの利用状況を、列車ごとに並べて一覧表示するようにしてもよい。   In the present embodiment, the train map image display screen (see FIG. 4) is selected on the vehicle map image display screen (see FIG. 5) by selecting the train of interest from the trains operating on the route. Although the usage situation for each vehicle in the train is displayed, the usage situation for each vehicle of each train that operates on the route may be displayed side by side for each train.

次に、カメラ1、サーバ装置2およびユーザ端末装置3の概略構成について説明する。図8は、カメラ1、サーバ装置2およびユーザ端末装置3のハードウェア構成を示すブロック図である。   Next, schematic configurations of the camera 1, the server device 2, and the user terminal device 3 will be described. FIG. 8 is a block diagram illustrating hardware configurations of the camera 1, the server device 2, and the user terminal device 3.

カメラ1は、撮像部11と、制御部12と、情報記憶部13と、通信部14と、を備えている。   The camera 1 includes an imaging unit 11, a control unit 12, an information storage unit 13, and a communication unit 14.

撮像部11は、イメージセンサを備え、時間的に連続する撮像画像(フレーム)、いわゆる動画像を順次出力する。制御部12は、撮像部11から出力される撮像画像から人物を検出する処理などを行う。情報記憶部13は、制御部12を構成するプロセッサで実行されるプログラムや、撮像部11から出力される撮像画像を記憶する。通信部14は、サーバ装置2との間で通信を行うものであり、撮像部11から出力される撮像画像や制御部12から出力される人物検出情報をネットワークを介してサーバ装置2に送信する。   The imaging unit 11 includes an image sensor, and sequentially outputs captured images (frames) that are temporally continuous, so-called moving images. The control unit 12 performs processing for detecting a person from the captured image output from the imaging unit 11. The information storage unit 13 stores a program executed by a processor constituting the control unit 12 and a captured image output from the imaging unit 11. The communication unit 14 communicates with the server device 2 and transmits the captured image output from the imaging unit 11 and the person detection information output from the control unit 12 to the server device 2 via the network. .

撮像部11は、イメージセンサの他に、魚眼レンズと、この魚眼レンズを介して被写体を撮像することで得られた魚眼画像に対して歪み補正を実施する画像処理回路と、を備えており、画像処理回路で生成した補正画像が撮像画像として出力される。   In addition to the image sensor, the imaging unit 11 includes a fish-eye lens and an image processing circuit that performs distortion correction on a fish-eye image obtained by imaging a subject through the fish-eye lens. A corrected image generated by the processing circuit is output as a captured image.

サーバ装置2は、制御部21と、情報記憶部22と、通信部23と、を備えている。   The server device 2 includes a control unit 21, an information storage unit 22, and a communication unit 23.

通信部23は、カメラ1、ユーザ端末装置3および座席管理装置5との間で通信を行うものであり、カメラ1から送信される撮像画像および人物検出情報を受信し、また、座席管理装置5から送信される座席管理情報を受信し、また、ユーザ端末装置3から送信されるユーザ設定情報を受信し、また、座席モニタリングの閲覧画面をユーザ端末装置3に配信する。情報記憶部22では、通信部23で受信した撮像画像、人物検出情報および座席管理情報や、制御部21を構成するプロセッサで実行されるプログラムなどを記憶する。制御部21は、撮像画像、人物検出情報および座席管理情報に基づいてモニタリング画像などを生成して、ユーザ端末装置3に配信する座席モニタリングの閲覧画面を生成する。   The communication unit 23 communicates with the camera 1, the user terminal device 3, and the seat management device 5, receives a captured image and person detection information transmitted from the camera 1, and receives the seat management device 5. Seat management information transmitted from the user terminal, user setting information transmitted from the user terminal device 3 is received, and a seat monitoring browsing screen is distributed to the user terminal device 3. The information storage unit 22 stores captured images, person detection information, and seat management information received by the communication unit 23, a program executed by the processor that constitutes the control unit 21, and the like. The control unit 21 generates a monitoring image or the like based on the captured image, the person detection information, and the seat management information, and generates a seat monitoring browsing screen to be distributed to the user terminal device 3.

ユーザ端末装置3は、制御部31と、情報記憶部32と、通信部33と、入力部34と、表示部35と、を備えている。   The user terminal device 3 includes a control unit 31, an information storage unit 32, a communication unit 33, an input unit 34, and a display unit 35.

入力部34は、ユーザが各種の設定情報を入力する。表示部35は、サーバ装置2から送信される画面情報に基づいて座席モニタリングの閲覧画面を表示する。入力部34および表示部35は、タッチパネルディスプレイで構成することができる。通信部33は、サーバ装置2との間で通信を行うものであり、入力部34で入力されたユーザ設定情報をサーバ装置2に送信し、また、サーバ装置2から送信される画面情報を受信する。制御部31は、ユーザ端末装置3の各部を制御する。情報記憶部32は、制御部31を構成するプロセッサで実行されるプログラムなどを記憶する。   In the input unit 34, the user inputs various setting information. The display unit 35 displays a seat monitoring browsing screen based on the screen information transmitted from the server device 2. The input unit 34 and the display unit 35 can be configured by a touch panel display. The communication unit 33 communicates with the server device 2, transmits the user setting information input by the input unit 34 to the server device 2, and receives screen information transmitted from the server device 2. To do. The control unit 31 controls each unit of the user terminal device 3. The information storage unit 32 stores a program executed by the processor that constitutes the control unit 31.

次に、カメラ1およびサーバ装置2の機能的な構成について説明する。図9は、カメラ1およびサーバ装置2の機能ブロック図である。   Next, functional configurations of the camera 1 and the server device 2 will be described. FIG. 9 is a functional block diagram of the camera 1 and the server device 2.

カメラ1の制御部12は、動体除去画像生成部41と、人物検出部42と、を備えている。この制御部12の各部は、情報記憶部13に記憶された座席モニタリング用のプログラム(インストラクション)を、制御部21を構成するプロセッサに実行させることで実現される。   The control unit 12 of the camera 1 includes a moving object removal image generation unit 41 and a person detection unit 42. Each part of this control part 12 is implement | achieved by making the processor which comprises the control part 21 execute the program (instruction) for seat monitoring memorize | stored in the information storage part 13. FIG.

動体除去画像生成部41では、所定の学習期間における複数の撮像画像(フレーム)に基づいて、撮像画像から人物などの動体を除去した動体除去画像(背景画像)を生成する。この動体除去画像の生成には、公知の背景画像生成技術を利用すればよい。   The moving object removed image generation unit 41 generates a moving object removed image (background image) obtained by removing moving objects such as a person from the captured image based on a plurality of captured images (frames) in a predetermined learning period. A known background image generation technique may be used to generate the moving object removal image.

人物検出部42では、動体除去画像生成部41で取得した動体除去画像(背景画像)と、撮像部11から出力される現在の撮像画像とを比較して、両者の差分から撮像画像内の動体の画像領域を特定する(動体検知)。そして、動体の画像領域に、人物の顔、または頭部および肩部で構成されるΩ形状が検出されると、その動体を人物と判断する(人物検知)。なお、この動体検知および人物検知には公知の技術を用いればよい。この人物検出部42では、人物検出情報として、撮像画像内における各乗客の人物領域の位置情報、および各乗客の人物領域に設定される人物枠の位置情報が出力される。   The person detection unit 42 compares the moving object removal image (background image) acquired by the moving object removal image generation unit 41 with the current captured image output from the imaging unit 11, and calculates the moving object in the captured image from the difference between the two. The image area is identified (moving object detection). When an Ω shape composed of a person's face or head and shoulders is detected in the moving object image area, the moving object is determined to be a person (person detection). A known technique may be used for this moving object detection and person detection. In the person detection unit 42, position information of each passenger's person area in the captured image and position information of a person frame set in each passenger's person area are output as person detection information.

なお、本実施形態では、公知の技術に基づく標準的な人物検出を行うようにしたが、撮像画像において座席に着席した人物の頭部の像は座席のヘッドレストの位置に現れるため、座席のヘッドレストの位置に人物の頭部と想定される動体を検知すると、人物と判定するようにしてもよい。   In this embodiment, standard person detection based on a known technique is performed. However, since the head image of the person seated on the seat appears in the captured image, the headrest of the seat is displayed. If a moving object that is assumed to be the head of a person is detected at the position, it may be determined that the person is a person.

サーバ装置2の制御部21は、カメラ画像取得部51と、人物検出情報取得部52と、座席管理情報取得部53と、在席検知部54と、座席利用情報取得部55と、座席利用情報集約部56と、マップ画像生成部57と、モニタリング画像生成部58と、出力情報生成部59と、を備えている。この制御部21の各部は、情報記憶部22に記憶された座席モニタリング用のプログラム(インストラクション)を、制御部21を構成するプロセッサに実行させることで実現される。   The control unit 21 of the server device 2 includes a camera image acquisition unit 51, a person detection information acquisition unit 52, a seat management information acquisition unit 53, an occupancy detection unit 54, a seat usage information acquisition unit 55, and a seat usage information. An aggregation unit 56, a map image generation unit 57, a monitoring image generation unit 58, and an output information generation unit 59 are provided. Each unit of the control unit 21 is realized by causing a processor constituting the control unit 21 to execute a seat monitoring program (instruction) stored in the information storage unit 22.

カメラ画像取得部51では、カメラ1から定期的(例えば15分間隔)に送信されて通信部23において受信した撮像画像を取得する。人物検出情報取得部52では、撮像画像と同時にまたはこれと異なるタイミングでカメラ1から送信されて通信部23において受信した人物検出情報を取得する。   The camera image acquisition unit 51 acquires captured images that are transmitted from the camera 1 periodically (for example, at intervals of 15 minutes) and received by the communication unit 23. The person detection information acquisition unit 52 acquires the person detection information transmitted from the camera 1 and received by the communication unit 23 at the same time as the captured image or at a different timing.

座席管理情報取得部53では、座席管理装置5から送信されて通信部23において受信した座席管理情報を取得する。本実施形態では、座席管理装置5において、座席ごとの車内改札の有無に関する車内改札情報が車内検札装置4から収集され、座席ごとの利用の可否、すなわち、乗客が車内改札により座席を利用する権限があるか否かに関する座席管理情報が座席管理装置5からサーバ装置2に提供される。   The seat management information acquisition unit 53 acquires the seat management information transmitted from the seat management device 5 and received by the communication unit 23. In the present embodiment, in the seat management device 5, in-vehicle ticket gate information regarding the presence or absence of in-vehicle ticket gates for each seat is collected from the in-vehicle ticket checking device 4, and whether or not each seat can be used, that is, the passenger's authority to use the seat by the in-vehicle ticket gate. The seat management information regarding whether or not there is a seat is provided from the seat management device 5 to the server device 2.

在席検知部54では、人物検出情報取得部52においてカメラ1から取得した人物検出情報に基づいて、各座席における乗客の在席を検知する。本実施形態では、撮像画像における各座席の位置に関する座席位置情報が予め設定されており、この座席位置情報を参照して、人物検出情報における撮像画像上での各乗客の位置から、どの座席に乗客が在席しているかを判定する。このとき、乗客が座席に着座している状態が一定時間継続した場合に、在席と判定するようにするとよい。この在席検知部54では、各座席の在席検知の検知結果に関する在席検知情報(座席番号および各座席の在席の有無など)が出力される。   The presence detection unit 54 detects the presence of a passenger in each seat based on the person detection information acquired from the camera 1 by the person detection information acquisition unit 52. In the present embodiment, seat position information related to the position of each seat in the captured image is set in advance, and with reference to this seat position information, from which position of each passenger on the captured image in the person detection information, to which seat Determine if passengers are present. At this time, when the state where the passenger is seated in the seat continues for a certain period of time, it may be determined to be present. The presence detection unit 54 outputs presence detection information (such as a seat number and presence / absence of each seat) related to the detection result of the presence detection of each seat.

座席利用情報取得部55では、座席管理情報取得部53で座席管理装置5から取得した座席管理情報、および在席検知部54から出力される在席検知情報に基づき、各座席の利用状況を表す座席利用情報を取得する。本実施形態では、座席管理情報が、座席ごとの利用の可否、すなわち、車内改札により座席を利用する権限があるか否かに関するものであり、この座席管理情報と在席検知情報とを比較することで、座席ごとの利用状況として、各座席に在席する利用者が不正乗車か否か、すなわち、座席利用料を支払わないまま座席を利用しているか否かを判定して、不正乗車か否かを表す座席利用情報を座席ごとに取得する。   The seat usage information acquisition unit 55 represents the usage status of each seat based on the seat management information acquired from the seat management device 5 by the seat management information acquisition unit 53 and the presence detection information output from the presence detection unit 54. Get seat usage information. In the present embodiment, the seat management information relates to whether or not each seat can be used, that is, whether or not there is an authority to use a seat by an in-car ticket gate, and the seat management information is compared with presence detection information. As a result of the use of each seat, it is determined whether the user who is seated in each seat is illegal boarding, that is, whether the user is using the seat without paying the seat usage fee. The seat usage information indicating whether or not is acquired for each seat.

座席利用情報集約部56では、座席利用情報取得部55で取得した座席ごとの座席利用情報を車両ごとに集約して、車両ごとの座席利用情報を生成する。また、車両ごとの座席利用情報を列車ごとに集約して、列車ごとの座席利用情報を生成する。また、列車ごとの座席利用情報を路線ごとに集約して、路線ごとの座席利用情報を生成する。これらの集約処理では、座席利用情報としての不正乗車の座席数に対して積算や平均化などの統計処理を行えばよい。   The seat usage information aggregating unit 56 aggregates the seat usage information for each seat acquired by the seat usage information acquisition unit 55 for each vehicle, and generates seat usage information for each vehicle. Further, the seat usage information for each vehicle is aggregated for each train, and the seat usage information for each train is generated. In addition, seat usage information for each train is aggregated for each route, and seat usage information for each route is generated. In these aggregation processes, statistical processes such as integration and averaging may be performed on the number of illegally boarded seats as the seat usage information.

マップ画像生成部57では、路線マップ画像101(図3参照)、列車マップ画像111(図4参照)、車両マップ画像121(図5参照)、および座席マップ画像131(図6参照)を生成する。このマップ画像生成部57では、座席利用情報取得部55で取得した座席ごとの座席利用情報(不正乗車か否か)に応じた表示形態(表示色)で、座席マップ画像131における座席画像132が描画される。   The map image generation unit 57 generates a route map image 101 (see FIG. 3), a train map image 111 (see FIG. 4), a vehicle map image 121 (see FIG. 5), and a seat map image 131 (see FIG. 6). . In this map image generation unit 57, the seat image 132 in the seat map image 131 is displayed in a display form (display color) corresponding to the seat usage information (whether it is an unauthorized boarding) for each seat acquired by the seat usage information acquisition unit 55. Drawn.

また、マップ画像生成部57では、座席利用情報集約部56で取得した座席利用情報(不正乗車の座席数)を所定のしきい値と比較してランク分けを行い、ランクごとに割り当てられた表示形態(表示色)で、路線マップ画像101における路線画像102、列車マップ画像111における列車画像112、および車両マップ画像121における車両画像122が描画される。   The map image generation unit 57 ranks the seat usage information (number of seats for illegal boarding) acquired by the seat usage information aggregation unit 56 by comparing with a predetermined threshold value, and displays assigned to each rank. In the form (display color), the route image 102 in the route map image 101, the train image 112 in the train map image 111, and the vehicle image 122 in the vehicle map image 121 are drawn.

マップ画像生成部57で生成したマップ画像(路線マップ画像、列車マップ画像、車両マップ画像および座席マップ画像)は情報記憶部22に蓄積され、ユーザが日時を指定することで、指定された日時のマップ画像をマップ画像表示画面に表示させることができる。   The map image (route map image, train map image, vehicle map image, and seat map image) generated by the map image generation unit 57 is accumulated in the information storage unit 22, and the user can specify the date and time of the specified date and time. The map image can be displayed on the map image display screen.

モニタリング画像生成部58では、座席ごとの利用状況を可視化するとともに、撮像画像に写る乗客のプライバシーを保護する画像処理が施されたモニタリング画像(図7参照)を生成する。このモニタリング画像生成部58は、識別性低減処理部61と、枠画像生成部62と、画像合成部63と、を備えている。   The monitoring image generation unit 58 generates a monitoring image (see FIG. 7) on which the use situation for each seat is visualized and image processing for protecting the privacy of passengers shown in the captured image is performed. The monitoring image generation unit 58 includes a distinguishability reduction processing unit 61, a frame image generation unit 62, and an image composition unit 63.

識別性低減処理部61では、人物検出情報取得部52でカメラ1から取得した人物検出情報(人物領域の位置情報)に基づいて、撮像画像に写る乗客のプライバシーを保護する画像処理として、人物の識別性を低減する画像処理(識別性低減処理)を、カメラ画像取得部51でカメラ1から取得した撮像画像内の各乗客の人物領域に対して実施して、識別性低減画像を生成する。本実施形態では、各乗客の顔領域に対して識別性低減処理を実施する。   In the distinctiveness reduction processing unit 61, based on the person detection information (position information of the person area) acquired from the camera 1 by the person detection information acquisition unit 52, image processing for protecting the privacy of passengers captured in the captured image is performed. Image processing (identification reduction processing) for reducing discrimination is performed on the person area of each passenger in the captured image acquired from the camera 1 by the camera image acquisition unit 51 to generate a discrimination reduction image. In the present embodiment, the discrimination reduction process is performed on the face area of each passenger.

このとき、撮像画像から各乗客の顔領域を切り出して、その顔領域の画像に対して識別性低減処理を実施し、次に、識別性低減処理が実施された顔領域の画像を撮像画像に重畳して、識別性低減画像を生成すればよい。ここで、図7(A)に示したように、全ての乗客を対象にしてプライバシー保護の画像処理を実施する場合には、全ての乗客について識別性低減処理が実施された顔領域の画像を取得し、図7(B)に示したように、正当な乗客のみを対象にしてプライバシー保護の画像処理を実施する場合には、正当な乗客についてのみ識別性低減処理が実施された顔領域の画像を取得すればよい。   At this time, the face area of each passenger is cut out from the captured image, and the distinctiveness reduction process is performed on the image of the facial area. What is necessary is just to superimpose and produce | generate a discriminability reduction image. Here, as shown in FIG. 7A, when privacy protection image processing is performed for all passengers, images of face areas that have been subjected to identification reduction processing for all passengers are displayed. As shown in FIG. 7 (B), in the case where privacy protection image processing is performed only for legitimate passengers, the identification of the face area in which the discrimination reduction processing is performed only for legitimate passengers. What is necessary is just to acquire an image.

枠画像生成部62では、座席利用情報取得部55で取得した各座席の座席利用情報と、人物検出情報取得部52でカメラ1から取得した人物検出情報(人物枠の位置情報)とに基づいて、各座席に在席する乗客ごとに、乗客の頭部を取り囲む枠画像143を、各座席の座席利用情報に応じた表示色で生成する。   In the frame image generation unit 62, the seat usage information of each seat acquired by the seat usage information acquisition unit 55 and the person detection information (position information of the person frame) acquired from the camera 1 by the person detection information acquisition unit 52. For each passenger seated in each seat, a frame image 143 surrounding the passenger's head is generated in a display color corresponding to the seat usage information of each seat.

画像合成部63では、枠画像生成部62で生成した枠画像143を、識別性低減処理部で生成した識別性低減画像における対応する乗客の人物領域上に重ね合わせる画像合成を行って、モニタリング画像141を生成する。   The image composition unit 63 performs image composition to superimpose the frame image 143 generated by the frame image generation unit 62 on the corresponding person area of the passenger in the distinctiveness reduction image generated by the distinguishability reduction processing unit, thereby obtaining a monitoring image. 141 is generated.

モニタリング画像生成部58で生成したモニタリング画像は情報記憶部22に蓄積され、ユーザが日時を指定することで、指定された日時のモニタリング画像をモニタリング画像表示画面に表示させることができる。   The monitoring image generated by the monitoring image generation unit 58 is accumulated in the information storage unit 22, and when the user specifies the date and time, the monitoring image at the specified date and time can be displayed on the monitoring image display screen.

出力情報生成部59では、マップ画像生成部57で生成した路線マップ画像101、列車マップ画像111、車両マップ画像121、および座席マップ画像131に基づいて、路線マップ画像表示画面(図3参照)、列車マップ画像表示画面(図4参照)、および座席マップ画像表示画面(図5参照)に関する表示情報を生成する。また、出力情報生成部59では、モニタリング画像生成部58で生成したモニタリング画像に基づいて、モニタリング画像表示画面(図6参照)に関する表示情報を生成する。   In the output information generation unit 59, a route map image display screen (see FIG. 3) based on the route map image 101, the train map image 111, the vehicle map image 121, and the seat map image 131 generated by the map image generation unit 57, Display information relating to the train map image display screen (see FIG. 4) and the seat map image display screen (see FIG. 5) is generated. Further, the output information generation unit 59 generates display information related to the monitoring image display screen (see FIG. 6) based on the monitoring image generated by the monitoring image generation unit 58.

ところで、本実施形態では、動体除去画像を生成して、この動体除去画像と撮像画像との差分から人物を検出するようにしたが、このような動体検知による人物検出方法では、例えば睡眠中で人物に動きがないと、人物を動体として検知することができないため、人物検出が失敗して、乗客に対してプライバシー保護の画像処理を適切に実施することができない。   By the way, in the present embodiment, a moving object removal image is generated and a person is detected from the difference between the moving object removal image and the captured image. However, in such a person detection method based on moving object detection, for example, during sleep If there is no movement of the person, the person cannot be detected as a moving object, so that the person detection fails and the image processing for privacy protection cannot be appropriately performed on the passenger.

そこで、本実施形態では、駅構内での列車の発車時または停車時に取得した撮像画像で動体除去画像を生成して人物検出を行う。このようにすると、列車の発車時または停車時の車両の揺れで乗客の身体に動きが生じるため、乗客を動体として確実に検知することができるようになり、乗客に対してプライバシー保護の画像処理が適切に実施されたモニタリング画像を生成することができる。   Therefore, in the present embodiment, the moving object removal image is generated from the captured image acquired when the train starts or stops in the station premises, and person detection is performed. In this way, movement of the passenger's body is caused by the shaking of the vehicle when the train starts or stops, so that the passenger can be reliably detected as a moving body, and image processing for privacy protection for the passenger Can generate a properly implemented monitoring image.

また、本実施形態では、座席に在席する乗客が不正乗車か否かを判定することができるが、不正乗車が見つかる度に乗客に対して注意を行うことは乗務員の負担が大きい。そこで、不正乗車を繰り返す悪質な乗客に限って注意を行い、また、不正乗車の摘発を行うことが考えられる。この場合、不正乗車を行う乗客が見つかると、不正乗車を行う乗客の顔画像をカメラ1の撮像画像から抽出して、その顔画像を情報記憶部22に蓄積する。そして、情報記憶部22に蓄積された顔画像に対して同一人物か否かの人物照合を行い、この人物照合の結果に基づいて、各路線における乗客ごとの不正乗車の回数を取得する。これにより、不正乗車を繰り返す悪質な乗客を見つけ出すことができる。   Moreover, in this embodiment, although it can be determined whether the passenger currently seated in a seat is an unauthorized boarding, it is a burden on a crew member to pay attention to a passenger whenever an unauthorized boarding is found. Therefore, it is conceivable to pay attention only to malicious passengers who repeat illegal boarding and to detect illegal boarding. In this case, when a passenger who performs illegal boarding is found, the face image of the passenger performing illegal boarding is extracted from the captured image of the camera 1 and the face image is stored in the information storage unit 22. Then, person verification is performed on the face images stored in the information storage unit 22 as to whether or not they are the same person, and based on the result of the person verification, the number of illegal boardings for each passenger on each route is acquired. As a result, it is possible to find a malicious passenger who repeats illegal boarding.

(第1実施形態の変形例)
次に、第1実施形態の変形例について説明する。図10は、第1実施形態の変形例に係るカメラ1およびサーバ装置2の機能ブロック図である。
(Modification of the first embodiment)
Next, a modification of the first embodiment will be described. FIG. 10 is a functional block diagram of the camera 1 and the server device 2 according to a modification of the first embodiment.

第1実施形態では、サーバ装置2が識別性低減処理部61を備えていたが、この変形例では、カメラ1が識別性低減処理部45を備えている。このカメラ1の識別性低減処理部45では、人物検出部42で取得した人物領域の位置情報に基づいて、各乗客の人物領域(顔領域)に対して識別性低減処理を実施する。   In the first embodiment, the server device 2 includes the distinguishability reduction processing unit 61. However, in this modification, the camera 1 includes the distinguishability reduction processing unit 45. In the distinguishability reduction processing unit 45 of the camera 1, the distinguishability reduction processing is performed on the person area (face area) of each passenger based on the position information of the person area acquired by the person detection unit 42.

ここで、図7(A)に示したように、全ての乗客を対象にしてプライバシー保護の画像処理を実施する場合には、カメラ1の識別性低減処理部45において、各乗客の人物領域(顔領域)を切り出して、その切り出した人物画像(顔画像)に対して識別性低減処理を実施する。次に、識別性低減処理が実施された人物画像を撮像画像に重畳して識別性低減画像を生成し、この識別性低減画像をサーバ装置2に送信する。そして、サーバ装置2の画像合成部63において、カメラ1から取得した識別性低減画像に、枠画像生成部62で生成した枠画像143を重畳する画像合成を行って、モニタリング画像141を生成する。   Here, as shown in FIG. 7A, when the privacy protection image processing is performed for all the passengers, the identification area reduction processing unit 45 of the camera 1 uses the person area ( A face area) is cut out, and a discrimination reduction process is performed on the cut-out person image (face image). Next, the person image that has undergone the discrimination reduction process is superimposed on the captured image to generate a discrimination reduction image, and this discrimination reduction image is transmitted to the server device 2. Then, in the image composition unit 63 of the server device 2, the monitoring image 141 is generated by performing image composition in which the frame image 143 generated by the frame image generation unit 62 is superimposed on the discriminability-reduced image acquired from the camera 1.

なお、識別性低減処理が実施された人物画像および撮像画像をカメラ1からサーバ装置2に送信し、サーバ装置2の画像合成部63において、識別性低減処理が実施された人物画像を撮像画像に重畳する画像合成を行うようにしてもよい。   The person image and the captured image that have undergone the discrimination reduction process are transmitted from the camera 1 to the server device 2, and the person image that has undergone the discrimination reduction process in the image composition unit 63 of the server device 2 is converted into a captured image. You may make it perform the image composition to superimpose.

一方、図7(B)に示したように、正当な乗客のみを対象にしてプライバシー保護の画像処理を実施する場合には、カメラ1の識別性低減処理部45において、全ての乗客について識別性低減処理が実施された人物画像を生成して、その乗客ごとの人物画像および撮像画像をサーバ装置2に送信する。そして、サーバ装置2の画像合成部63において、座席利用情報取得部55で取得した各座席の座席利用情報に基づいて、正当な乗客の人物画像を選択して、その乗客の人物画像を撮像画像に重畳して識別性低減画像を生成し、さらに枠画像生成部62で生成した枠画像143を識別性低減画像に重畳する画像合成を行って、モニタリング画像141を生成する。   On the other hand, as shown in FIG. 7B, when privacy protection image processing is performed only for legitimate passengers, the distinctiveness reduction processing unit 45 of the camera 1 identifies all passengers. A person image subjected to the reduction process is generated, and the person image and the captured image for each passenger are transmitted to the server device 2. Then, in the image composition unit 63 of the server device 2, a person image of a legitimate passenger is selected based on the seat use information of each seat acquired by the seat use information acquisition unit 55, and the person image of the passenger is captured. The monitoring image 141 is generated by superimposing the frame image 143 on the discriminability-reduced image and further performing image composition for superimposing the frame image 143 generated by the frame image generation unit 62 on the discriminability-reduced image.

(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図11は、第2実施形態に係るモニタリング画像表示画面を示す説明図である。
(Second Embodiment)
Next, a second embodiment will be described. Note that points not particularly mentioned here are the same as in the above embodiment. FIG. 11 is an explanatory diagram illustrating a monitoring image display screen according to the second embodiment.

第1実施形態では、プライバシー保護の画像処理として、撮像画像に写る人物の識別性を低減する画像処理(識別性低減処理)を実施するようにしたが、本実施形態では、撮像画像152内の各乗客の人物領域の形状を表すマスク画像153を生成して、撮像画像152内の各乗客の人物領域をマスク画像153に置き換える画像処理を実施する。   In the first embodiment, image processing for reducing the identifiability of a person appearing in a captured image (identification reduction processing) is performed as image processing for privacy protection. In this embodiment, in the captured image 152, A mask image 153 representing the shape of the person area of each passenger is generated, and image processing is performed to replace the person area of each passenger in the captured image 152 with the mask image 153.

また、第1実施形態では、座席ごとの利用状況(不正乗車か否か)を可視化する識別画像として、各乗客の人物領域を取り囲む枠画像143を描画して、枠画像143の表示形態(表示色)を変更することで、座席利用情報(不正乗車か否か)を可視化するようにしたが、本実施形態では、マスク画像153が識別画像となり、このマスク画像153の表示形態(表示色)を変更することで座席利用情報を可視化するようにしている。   Further, in the first embodiment, a frame image 143 that surrounds each passenger's person area is drawn as an identification image for visualizing the use situation (whether it is an unauthorized boarding) for each seat, and a display form (display) of the frame image 143 is displayed. By changing the (color), the seat use information (whether the boarding is illegal or not) is visualized. However, in this embodiment, the mask image 153 becomes an identification image, and the display form (display color) of the mask image 153 The seat usage information is visualized by changing the.

図11(A)に示す例では、全ての乗客を対象にしてプライバシー保護の画像処理が実施されており、全ての乗客がマスク画像153で表示されている。この場合、マスク画像153の表示態様を変更することで、座席ごとの利用状況(不正乗車か否か)が可視化され、図11(A)に示す例では、マスク画像153の表示色で、座席ごとの不正乗車の有無が表現されており、例えば、不正な乗客ではマスク画像153が赤色で表示され、正当な乗客ではマスク画像153が緑色で表示される。   In the example illustrated in FIG. 11A, privacy protection image processing is performed for all passengers, and all passengers are displayed as mask images 153. In this case, by changing the display mode of the mask image 153, the use situation (whether it is an unauthorized boarding) for each seat is visualized. In the example shown in FIG. 11A, the display color of the mask image 153 For example, the mask image 153 is displayed in red for an unauthorized passenger, and the mask image 153 is displayed in green for an authorized passenger.

図11(B)に示す例では、正当な乗客のみを対象にしてプライバシー保護の画像処理が実施されており、正当な乗客が所定の表示色(例えば青色)のマスク画像153で表示されている。一方、不正な乗客にはプライバシー保護の画像処理が実施されず、不正な乗客の人物領域では撮像画像152がそのまま表示される。   In the example shown in FIG. 11B, privacy-protected image processing is performed only for legitimate passengers, and legitimate passengers are displayed as a mask image 153 in a predetermined display color (for example, blue). . On the other hand, image processing for privacy protection is not performed for an unauthorized passenger, and the captured image 152 is displayed as it is in the person area of the unauthorized passenger.

次に、第2実施形態に係るカメラ1およびサーバ装置2の機能的な構成について説明する。図12は、カメラ1およびサーバ装置2の機能ブロック図である。   Next, functional configurations of the camera 1 and the server device 2 according to the second embodiment will be described. FIG. 12 is a functional block diagram of the camera 1 and the server device 2.

カメラ1の制御部12は、第1実施形態(図9参照)と同様であるが、人物検出部42では、人物検出情報として、撮像画像内における各乗客の人物領域の位置情報を出力し、この人物領域の位置情報および撮像画像が通信部14からサーバ装置2に送信される。   The control unit 12 of the camera 1 is the same as that of the first embodiment (see FIG. 9), but the person detection unit 42 outputs position information of each passenger's person area in the captured image as person detection information. The position information of the person area and the captured image are transmitted from the communication unit 14 to the server device 2.

サーバ装置2の制御部21は、第1実施形態(図9参照)と略同様であるが、モニタリング画像生成部58の構成が第1実施形態と異なり、モニタリング画像生成部58は、マスク画像生成部65と、画像合成部63と、を備えている。   The control unit 21 of the server device 2 is substantially the same as that of the first embodiment (see FIG. 9), but the configuration of the monitoring image generation unit 58 is different from that of the first embodiment, and the monitoring image generation unit 58 generates a mask image. A unit 65 and an image composition unit 63 are provided.

マスク画像生成部65では、人物検出情報取得部52でカメラ1から取得した人物検出情報(人物領域の位置情報)と、座席利用情報取得部で取得した各座席の座席利用情報(不正か否か)と、に基づいて、各乗客のマスク画像153を生成する。このとき、まず、人物領域の位置情報に基づいて人物領域の輪郭線を取得し、次に、座席利用情報に応じた表示色で輪郭線の内部を塗りつぶすことで、撮像画像内の各乗客の人物領域に対応する輪郭を有するマスク画像153が生成される。   In the mask image generation unit 65, the person detection information (position information of the person area) acquired from the camera 1 by the person detection information acquisition unit 52 and the seat usage information (whether it is fraudulent) of each seat acquired by the seat usage information acquisition unit. ), A mask image 153 for each passenger is generated. At this time, first, the outline of the person area is acquired based on the position information of the person area, and then the inside of the outline is filled with the display color according to the seat usage information, so that each passenger in the captured image is displayed. A mask image 153 having an outline corresponding to the person area is generated.

ここで、図11(A)に示したように、全ての乗客を対象にしてプライバシー保護の画像処理を実施する場合には、全ての乗客について、座席利用情報に応じた表示色のマスク画像153を生成する。一方、図11(B)に示したように、正当な乗客のみを対象にしてプライバシー保護の画像処理を実施する場合には、正当な乗客についてのみ、所定の表示色のマスク画像153を生成する。   Here, as shown in FIG. 11A, when privacy protection image processing is performed for all passengers, a mask image 153 with a display color corresponding to the seat usage information for all passengers. Is generated. On the other hand, as shown in FIG. 11B, in the case where image processing for privacy protection is performed only for legitimate passengers, a mask image 153 with a predetermined display color is generated only for legitimate passengers. .

画像合成部63では、カメラ画像取得部51でカメラ1から取得した撮像画像内の人物領域を、マスク画像生成部65で生成したマスク画像153に置き換える画像合成を行って、モニタリング画像を生成する。   The image composition unit 63 performs image composition by replacing the person area in the captured image acquired from the camera 1 by the camera image acquisition unit 51 with the mask image 153 generated by the mask image generation unit 65 to generate a monitoring image.

なお、マスク画像153は、背景が透けて見える透過状態で表示するようにしてもよく、この場合には、動体除去画像生成部41で生成した動体除去画像(背景画像)がカメラ1からサーバ装置2に送信され、マスク画像生成部65において、動体除去画像に基づいて、透過状態のマスク画像153を生成する。   The mask image 153 may be displayed in a transparent state where the background can be seen through. In this case, the moving object removal image (background image) generated by the moving object removal image generation unit 41 is transmitted from the camera 1 to the server device. 2, the mask image generation unit 65 generates a mask image 153 in a transparent state based on the moving object removal image.

(第2実施形態の変形例)
次に、第2実施形態の変形例について説明する。図13は、第2実施形態の変形例に係るカメラ1およびサーバ装置2の機能ブロック図である。
(Modification of the second embodiment)
Next, a modification of the second embodiment will be described. FIG. 13 is a functional block diagram of the camera 1 and the server device 2 according to a modification of the second embodiment.

第2実施形態では、サーバ装置2がマスク画像生成部65を備えていたが、この変形例では、カメラ1がマスク画像生成部46を備えている。このカメラ1のマスク画像生成部46では、人物検出部42で取得した人物領域の位置情報に基づいて、各乗客のマスク画像を生成する。   In the second embodiment, the server apparatus 2 includes the mask image generation unit 65. However, in this modification, the camera 1 includes the mask image generation unit 46. The mask image generation unit 46 of the camera 1 generates a mask image for each passenger based on the position information of the person area acquired by the person detection unit 42.

ここで、図11(A)に示したように、全ての乗客を対象にしてプライバシー保護の画像処理を実施する場合には、カメラ1のマスク画像生成部46において、各乗客について、2種類(色違い)のマスク画像、すなわち、正当な乗客を表す第1のマスク画像と、不正な乗客を表す第2のマスク画像とを生成してサーバ装置2に送信する。そして、サーバ装置2のマスク画像選択部66において、座席利用情報取得部55で取得した各座席の座席利用情報に基づいて、各乗客について第1のマスク画像と第2のマスク画像とのいずれかを選択する。そして、画像合成部63において、撮像画像内の各乗客の人物領域を、マスク画像選択部66で選択された各乗客のマスク画像に置換する画像合成を行う。   Here, as shown in FIG. 11 (A), when privacy protection image processing is performed for all passengers, the mask image generation unit 46 of the camera 1 uses two types ( A different color) mask image, that is, a first mask image representing a legitimate passenger and a second mask image representing an unauthorized passenger are generated and transmitted to the server device 2. Then, in the mask image selection unit 66 of the server device 2, one of the first mask image and the second mask image for each passenger based on the seat usage information of each seat acquired by the seat usage information acquisition unit 55. Select. Then, the image composition unit 63 performs image composition to replace the passenger's person area in the captured image with the mask image of each passenger selected by the mask image selection unit 66.

一方、図11(B)に示したように、正当な乗客のみを対象にしてプライバシー保護の画像処理を実施する場合には、カメラ1のマスク画像生成部46において、各乗客について1種類のマスク画像を生成してサーバ装置2に送信する。そして、サーバ装置2のマスク画像選択部66において、正当な乗客のマスク画像を選択して、画像合成部63において、撮像画像内の正当な乗客の人物領域を、マスク画像選択部66で選択されたマスク画像に置換する画像合成を行う。   On the other hand, as shown in FIG. 11B, when privacy protection image processing is performed only for legitimate passengers, the mask image generation unit 46 of the camera 1 uses one type of mask for each passenger. An image is generated and transmitted to the server device 2. Then, the mask image selection unit 66 of the server device 2 selects a legitimate passenger mask image, and the image composition unit 63 selects the legitimate passenger person area in the captured image by the mask image selection unit 66. The image is replaced with the mask image.

以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。   As described above, the embodiments have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like have been performed. Moreover, it is also possible to combine each component demonstrated by said embodiment into a new embodiment.

例えば、前記の実施形態では、自由席で座席利用料が課される座席を対象としたが、指定席を対象としてもよい。この場合、サーバ装置2において、乗客が券売機などにおいて購入した座席指定券に関する座席管理情報を座席管理装置5から取得して、座席管理情報および在席検知の結果に基づき、予約済みの座席、すなわち、販売された座席指定券で指定された座席以外の座席に乗客が在席している場合に、不正乗車と判定すればよい。   For example, in the above-described embodiment, a seat for which a seat usage fee is charged for a non-reserved seat is targeted, but a reserved seat may be targeted. In this case, in the server device 2, the seat management information related to the seat designation ticket purchased by the passenger at the ticket vending machine is acquired from the seat management device 5, and the reserved seat, That is, if a passenger is present in a seat other than the seat specified by the sold seat reservation ticket, it may be determined that the boarding is illegal.

また、前記の実施形態では、列車の車内を監視エリアとして、車内に設置された座席の利用状況(不正乗車の状況)を可視化するようにしたが、映画館やスタジアムなどの各種の施設の観客席を監視エリアとしてもよい。このような施設には指定席が設けられており、販売済みの座席指定券で指定された座席以外の座席に利用者が在席している場合には、不正利用と判定することができる。   In the above embodiment, the inside of the train is used as a monitoring area to visualize the use situation of the seats installed in the car (the situation of illegal boarding), but the audience of various facilities such as movie theaters and stadiums A seat may be used as a monitoring area. In such a facility, a reserved seat is provided, and when a user is present in a seat other than the seat specified by the sold seat reservation ticket, it can be determined that the seat is illegally used.

また、前記の実施形態では、座席ごとの利用の可否、すなわち、利用者が座席を利用する権限があるか否かに関する座席管理情報に基づいて、座席の不正利用を可視化するようにしたが、レストランや喫茶店などの飲食店の店内を監視エリアとして、座席の利用状況を可視化するようにしてもよい。   In the above embodiment, the unauthorized use of the seat is visualized based on the availability of each seat, that is, based on the seat management information regarding whether or not the user has the authority to use the seat. You may make it visualize the utilization condition of a seat by using the inside of restaurants, such as a restaurant and a coffee shop, as a monitoring area.

例えば、レストランにおいて、座席利用情報として、顧客が客席に着席してから、店員が注文を受け付けるまでに要した待ち時間を取得して、モニタリング画像において顧客ごとの枠画像またはマスク画像の表示色を待ち時間に応じて変更することで、顧客ごとの待ち時間の状況を可視化することができる。これにより、待ち時間が長い顧客をユーザが即座に把握することができる。   For example, in a restaurant, as seat usage information, a waiting time required from when a customer is seated in a passenger seat until the store clerk accepts an order is acquired, and the display color of the frame image or mask image for each customer in the monitoring image By changing according to the waiting time, the waiting time situation for each customer can be visualized. Thereby, a user can grasp | ascertain a customer with long waiting time immediately.

また、座席利用情報として、客席に着席している顧客が注文した商品に関する情報を取得して、モニタリング画像において顧客ごとの枠画像またはマスク画像の表示色を注文商品に応じて変更することで、顧客ごとの注文の状況を可視化することができる。これにより、客席に着席している顧客がどのような商品を注文したかをユーザが即座に把握することができ、また、特定の商品(例えばコーヒー)に絞り込むことで、その特定の商品を注文した顧客がどの客席に着席しているかをユーザが即座に把握することができる。   In addition, by acquiring information about the product ordered by the customer seated in the passenger seat as seat usage information, and changing the display color of the frame image or mask image for each customer in the monitoring image according to the ordered product, The order status for each customer can be visualized. As a result, the user can immediately grasp what kind of product the customer who is seated in the customer's order has ordered, and the specific product can be ordered by narrowing down to a specific product (for example, coffee). It is possible for the user to immediately grasp in which customer seat the selected customer is seated.

また、座席利用情報として、顧客が客席に滞在している滞在時間を取得して、モニタリング画像において顧客ごとの枠画像またはマスク画像の表示色を滞在時間に応じて変更することで、顧客ごとの滞在時間の状況を可視化することができる。これにより、客席に着席している顧客がどの程度滞在しているかをユーザが即座に把握することができ、また、滞在時間が所定のしきい値を超える場合に限定して表示することで、長時間滞在している顧客をユーザが即座に把握することができる。   Also, as the seat usage information, the stay time in which the customer stays in the passenger seat is acquired, and the display color of the frame image or mask image for each customer in the monitoring image is changed according to the stay time, so that You can visualize the status of your stay. As a result, the user can immediately grasp how long the customer who is seated in the audience is staying, and by displaying only when the stay time exceeds a predetermined threshold, The user can immediately grasp customers who have stayed for a long time.

本発明に係る座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法は、監視エリアを撮像した画像上に、各座席の不正利用などに関する利用状況を可視化すると共に、監視エリアを撮像した画像に写る利用者のプライバシーを保護することができる効果を有し、複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法などとして有用である。   The seat monitoring device, the seat monitoring system, and the seat monitoring method according to the present invention make it possible to visualize a use situation regarding unauthorized use of each seat on an image obtained by imaging a monitoring area, and to capture a user in an image obtained by imaging the monitoring area. Monitoring device and seat monitoring that generate output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area in which a plurality of seats are arranged. It is useful as a system and seat monitoring method.

1 カメラ
2 サーバ装置
3 ユーザ端末装置
4 車内検札装置
5 座席管理装置
41 動体除去画像生成部
42 人物検出部
45 識別性低減処理部
46 マスク画像生成部
51 カメラ画像取得部
52 人物検出情報取得部
53 座席管理情報取得部
54 在席検知部
55 座席利用情報取得部
56 座席利用情報集約部
57 マップ画像生成部
58 モニタリング画像生成部
59 出力情報生成部
61 識別性低減処理部
62 枠画像生成部
63 画像合成部
65 マスク画像生成部
66 マスク画像選択部
101 路線マップ画像
102 路線画像
111 列車マップ画像
112 列車画像
121 車両マップ画像
122 車両画像
131 座席マップ画像
132 座席画像
141 モニタリング画像
142 識別性低減画像
143 枠画像
151 モニタリング画像
152 撮像画像
153 マスク画像
DESCRIPTION OF SYMBOLS 1 Camera 2 Server apparatus 3 User terminal apparatus 4 In-car check device 5 Seat management apparatus 41 Moving object removal image generation part 42 Person detection part 45 Discrimination reduction process part 46 Mask image generation part 51 Camera image acquisition part 52 Person detection information acquisition part 53 Seat management information acquisition unit 54 Seat presence detection unit 55 Seat use information acquisition unit 56 Seat use information aggregation unit 57 Map image generation unit 58 Monitoring image generation unit 59 Output information generation unit 61 Discrimination reduction processing unit 62 Frame image generation unit 63 Image Compositing unit 65 Mask image generating unit 66 Mask image selecting unit 101 Route map image 102 Route image 111 Train map image 112 Train image 121 Vehicle map image 122 Vehicle image 131 Seat map image 132 Seat image 141 Monitoring image 142 Discriminability reduction image 143 Frame Image 151 Monitoring image 152 Captured image 53 mask image

Claims (15)

複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリング装置であって、
利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、
前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、
前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、
を備えたことを特徴とする座席モニタリング装置。
A seat monitoring device that generates output information that visualizes the use status of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged,
A seat usage information acquisition unit for acquiring seat usage information related to seat usage by the user;
Based on the seat usage information, the usage status of each seat is visualized by changing the display mode of the identification image for each user arranged on the captured image obtained by imaging the monitoring area, and the user in the captured image is displayed. A monitoring image generation unit that generates a monitoring image in which privacy-protected image processing is performed on at least a part of the person area of
An output information generation unit that generates the output information including the monitoring image;
A seat monitoring device comprising:
さらに、座席ごとの利用の可否に関する座席管理情報を取得する座席管理情報取得部と、
前記撮像画像に対する人物検出の結果に基づき、各座席における利用者の在席を検知する在席検知部と、
を備え、
前記座席利用情報取得部は、前記座席管理情報および前記在席検知部の検知結果に基づき、各座席について不正利用か否かを判定して、各座席の不正利用に関する前記座席利用情報を取得することを特徴とする請求項1に記載の座席モニタリング装置。
Furthermore, a seat management information acquisition unit that acquires seat management information regarding availability of each seat;
Based on the result of person detection for the captured image, a presence detection unit that detects the presence of a user in each seat;
With
The seat usage information acquisition unit determines whether or not each seat is illegally used based on the seat management information and the detection result of the presence detection unit, and acquires the seat usage information related to unauthorized use of each seat. The seat monitoring apparatus according to claim 1.
前記モニタリング画像生成部は、前記座席利用情報に基づき、不正利用でない利用者の人物領域に対して前記プライバシー保護の画像処理を実施し、不正利用である利用者の人物領域に対して前記プライバシー保護の画像処理を実施しないことを特徴とする請求項2に記載の座席モニタリング装置。   The monitoring image generation unit performs the image processing for privacy protection on a person area of a user who is not unauthorized use based on the seat usage information, and protects the privacy on a person area of a user who is unauthorized use The seat monitoring apparatus according to claim 2, wherein the image processing is not performed. 前記モニタリング画像生成部は、前記プライバシー保護の画像処理として、モザイク処理、ぼかし処理、ブレンド処理のいずれかの識別性低減処理が実施された前記モニタリング画像を生成することを特徴とする請求項1から請求項3のいずれかに記載の座席モニタリング装置。   The monitoring image generation unit generates the monitoring image that has been subjected to a discrimination reducing process of any one of a mosaic process, a blur process, and a blend process as the privacy protection image process. The seat monitoring apparatus according to claim 3. 前記モニタリング画像生成部は、前記識別性低減処理が実施された識別性低減画像上に、利用者の人物領域の少なくとも一部を取り囲む枠画像を重畳した前記モニタリング画像を生成し、前記座席利用情報に基づき、前記枠画像の表示形態を変更することで、座席ごとの利用状況を可視化することを特徴とする請求項4に記載の座席モニタリング装置。   The monitoring image generation unit generates the monitoring image by superimposing a frame image surrounding at least a part of a user's person area on the discrimination reduced image subjected to the discrimination reduction process, and the seat usage information The seat monitoring apparatus according to claim 4, wherein the usage status of each seat is visualized by changing a display form of the frame image based on the information. 前記モニタリング画像生成部は、前記プライバシー保護の画像処理として、前記撮像画像における利用者の人物領域をその人物領域の形状を表すマスク画像に置き換える画像処理が実施された前記モニタリング画像を生成することを特徴とする請求項1から請求項3のいずれかに記載の座席モニタリング装置。   The monitoring image generation unit generates, as the privacy protection image processing, the monitoring image that has been subjected to image processing for replacing a user person area in the captured image with a mask image representing a shape of the person area. The seat monitoring device according to any one of claims 1 to 3, wherein 前記モニタリング画像生成部は、前記座席利用情報に基づき、前記マスク画像の表示形態を変更することで、座席ごとの利用状況を可視化することを特徴とする請求項6に記載の座席モニタリング装置。   The seat monitoring apparatus according to claim 6, wherein the monitoring image generation unit visualizes a use situation for each seat by changing a display form of the mask image based on the seat use information. 前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、
前記モニタリング画像生成部は、駅構内での列車の発車時または停車時に撮像された前記撮像画像に対する人物検出の結果に基づいて前記プライバシー保護の画像処理が実施された前記モニタリング画像を生成することを特徴とする請求項1から請求項7のいずれかに記載の座席モニタリング装置。
The monitoring area is in a train where a seat where a seat usage fee is charged is arranged,
The monitoring image generation unit generates the monitoring image subjected to the image processing for privacy protection based on a person detection result for the captured image captured when the train starts or stops in a station. The seat monitoring device according to any one of claims 1 to 7, wherein the seat monitoring device is characterized by the following.
前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、
前記座席管理情報取得部は、駅構内での列車の発車時または停車時における前記座席管理情報を取得することを特徴とする請求項1から請求項8のいずれかに記載の座席モニタリング装置。
The monitoring area is in a train where a seat where a seat usage fee is charged is arranged,
The seat monitoring apparatus according to any one of claims 1 to 8, wherein the seat management information acquisition unit acquires the seat management information when a train starts or stops in a station.
さらに、監視エリアにおける座席の配置状況を表した模式図からなる座席マップ画像を生成し、前記座席利用情報に基づき、前記座席マップ画像における各座席を表す座席画像の表示態様を変更することで、座席ごとの利用者の利用状況を可視化するマップ画像生成部を備えたことを特徴とする請求項1から請求項9のいずれかに記載の座席モニタリング装置。   Furthermore, by generating a seat map image consisting of a schematic diagram showing the arrangement status of seats in the monitoring area, and changing the display mode of the seat image representing each seat in the seat map image based on the seat usage information, The seat monitoring apparatus according to any one of claims 1 to 9, further comprising a map image generation unit that visualizes a use situation of a user for each seat. 前記出力情報生成部は、前記座席マップ画像を表示する画面上で座席を指定するユーザの操作入力に応じて、ユーザが指定する座席が属する座席区画に対応する前記モニタリング画像を含む前記出力情報を生成することを特徴とする請求項10に記載の座席モニタリング装置。   The output information generation unit outputs the output information including the monitoring image corresponding to a seat section to which a seat specified by the user belongs in response to an operation input of the user specifying the seat on a screen displaying the seat map image. The seat monitoring device according to claim 10, wherein the seat monitoring device is generated. 前記監視エリアは、座席利用料が課される座席が配置された列車の車内であり、
さらに、前記座席利用情報取得部で取得した前記座席利用情報を、車両単位、列車単位、路線単位の少なくともいずれかで集約する座席利用情報集約部と、
この座席利用情報集約部で集約された前記座席利用情報に基づき、路線ごとの利用状況を可視化した路線マップ画像、列車ごとの利用状況を可視化した列車マップ画像、車両ごとの利用状況を可視化した車両マップ画像の少なくともいずれかを生成するマップ画像生成部と、
を備えたことを特徴とする請求項1から請求項11のいずれかに記載の座席モニタリング装置。
The monitoring area is in a train where a seat where a seat usage fee is charged is arranged,
Furthermore, the seat use information collecting unit that collects the seat use information acquired by the seat use information acquiring unit at least one of a vehicle unit, a train unit, and a route unit;
Based on the seat usage information aggregated by the seat usage information aggregating unit, a route map image that visualizes the usage status for each route, a train map image that visualizes the usage status for each train, and a vehicle that visualizes the usage status for each vehicle A map image generation unit that generates at least one of the map images;
The seat monitoring apparatus according to any one of claims 1 to 11, further comprising:
前記モニタリング画像生成部は、初期状態において、前記プライバシー保護の画像処理を実施した前記モニタリング画像を生成し、プライバシー保護を解除するユーザの操作入力に応じて、前記プライバシー保護の画像処理を実施しない前記モニタリング画像を生成することを特徴とする請求項1から請求項12のいずれかに記載の座席モニタリング装置。   In the initial state, the monitoring image generation unit generates the monitoring image that has been subjected to the privacy protection image processing, and does not perform the privacy protection image processing in response to a user operation input for releasing privacy protection. The seat monitoring apparatus according to any one of claims 1 to 12, wherein a monitoring image is generated. 複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する座席モニタリングシステムであって、
前記監視エリアを撮像して、撮像画像に対する人物検出を行うカメラと、
利用者による座席の利用状況を可視化した前記出力情報を生成するサーバ装置と、
前記出力情報に基づき、閲覧画面を表示するユーザ端末装置と、
を有し、
前記サーバ装置は、
利用者による座席の利用状況に関する座席利用情報を取得する座席利用情報取得部と、
前記座席利用情報に基づき、前記撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成するモニタリング画像生成部と、
前記モニタリング画像を含む前記出力情報を生成する出力情報生成部と、
を備えたことを特徴とする座席モニタリングシステム。
A seat monitoring system that generates output information that visualizes the use status of a seat by a user based on an image of a monitoring area where a plurality of seats are arranged,
A camera that images the monitoring area and detects a person in the captured image;
A server device that generates the output information that visualizes the use status of a seat by a user;
Based on the output information, a user terminal device that displays a browsing screen;
Have
The server device
A seat usage information acquisition unit for acquiring seat usage information related to seat usage by the user;
Based on the seat usage information, the usage status for each seat is visualized by changing the display mode of the identification image for each user arranged on the captured image, and at least the person area of the user in the captured image A monitoring image generation unit that generates a monitoring image in which privacy-protected image processing has been performed on a part thereof;
An output information generation unit that generates the output information including the monitoring image;
A seat monitoring system characterized by comprising:
複数の座席が配置された監視エリアを撮像した画像に基づき、利用者による座席の利用状況を可視化した出力情報を生成する処理を情報処理装置に行わせる座席モニタリング方法であって、
利用者による座席の利用状況に関する座席利用情報を取得し、
前記座席利用情報に基づき、前記監視エリアを撮像した撮像画像上に配置される利用者ごとの識別画像の表示態様を変更することで座席ごとの利用状況を可視化するとともに、前記撮像画像における利用者の人物領域の少なくとも一部に対してプライバシー保護の画像処理が実施されたモニタリング画像を生成し、
前記モニタリング画像を含む前記出力情報を生成することを特徴とする座席モニタリング方法。
A seat monitoring method for causing an information processing device to perform processing for generating output information that visualizes the use situation of a seat by a user based on an image obtained by imaging a monitoring area where a plurality of seats are arranged,
Obtain seat usage information on seat usage by users,
Based on the seat usage information, the usage status of each seat is visualized by changing the display mode of the identification image for each user arranged on the captured image obtained by imaging the monitoring area, and the user in the captured image is displayed. A monitoring image in which privacy-protected image processing is performed on at least a part of the person area of
The seat monitoring method, wherein the output information including the monitoring image is generated.
JP2016105433A 2016-05-26 2016-05-26 Seat monitoring device, seat monitoring system, and seat monitoring method Active JP6485709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016105433A JP6485709B2 (en) 2016-05-26 2016-05-26 Seat monitoring device, seat monitoring system, and seat monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016105433A JP6485709B2 (en) 2016-05-26 2016-05-26 Seat monitoring device, seat monitoring system, and seat monitoring method

Publications (2)

Publication Number Publication Date
JP2017212647A true JP2017212647A (en) 2017-11-30
JP6485709B2 JP6485709B2 (en) 2019-03-20

Family

ID=60474863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016105433A Active JP6485709B2 (en) 2016-05-26 2016-05-26 Seat monitoring device, seat monitoring system, and seat monitoring method

Country Status (1)

Country Link
JP (1) JP6485709B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020141212A (en) * 2019-02-27 2020-09-03 沖電気工業株式会社 Image processing system, image processing device, image processing program, image processing method, and display device
WO2021033304A1 (en) * 2019-08-22 2021-02-25 株式会社日立国際電気 Train monitoring system and train monitoring method
JP2021056901A (en) * 2019-09-30 2021-04-08 キヤノン株式会社 Information processing equipment, information processing method, and program
US11263759B2 (en) 2019-01-31 2022-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2022055229A (en) * 2020-09-28 2022-04-07 横河電機株式会社 Monitoring device, learning apparatus, method and program
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products
WO2023276877A1 (en) * 2021-07-01 2023-01-05 パナソニックIpマネジメント株式会社 Seated status presentation method and seated status presentation system
WO2023242888A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Vehicle cabin monitoring device, vehicle cabin monitoring system, and vehicle cabin monitoring method
JP7487820B2 (en) 2019-03-22 2024-05-21 日本電気株式会社 Passenger management device, passenger management method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319158A (en) * 2002-04-18 2003-11-07 Toshiyuki Tani Image processing system
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2005094642A (en) * 2003-09-19 2005-04-07 Optex Co Ltd Surveillance camera system
JP2008283456A (en) * 2007-05-10 2008-11-20 Fujifilm Corp Imaging apparatus and imaging method
JP4367177B2 (en) * 2004-02-26 2009-11-18 ソニー株式会社 Monitoring device
JP3167366U (en) * 2010-12-10 2011-04-21 小夜子 小林 Trinket type transmitter, in-vehicle transmitter / receiver, and monitoring device
JP2011210125A (en) * 2010-03-30 2011-10-20 Ns Solutions Corp Information processing unit, display control system, and method of controlling display and program
JP2015222881A (en) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003319158A (en) * 2002-04-18 2003-11-07 Toshiyuki Tani Image processing system
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2005094642A (en) * 2003-09-19 2005-04-07 Optex Co Ltd Surveillance camera system
JP4367177B2 (en) * 2004-02-26 2009-11-18 ソニー株式会社 Monitoring device
JP2008283456A (en) * 2007-05-10 2008-11-20 Fujifilm Corp Imaging apparatus and imaging method
JP2011210125A (en) * 2010-03-30 2011-10-20 Ns Solutions Corp Information processing unit, display control system, and method of controlling display and program
JP3167366U (en) * 2010-12-10 2011-04-21 小夜子 小林 Trinket type transmitter, in-vehicle transmitter / receiver, and monitoring device
JP2015222881A (en) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11263759B2 (en) 2019-01-31 2022-03-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2020141212A (en) * 2019-02-27 2020-09-03 沖電気工業株式会社 Image processing system, image processing device, image processing program, image processing method, and display device
JP7487820B2 (en) 2019-03-22 2024-05-21 日本電気株式会社 Passenger management device, passenger management method, and program
JP7281550B2 (en) 2019-08-22 2023-05-25 株式会社日立国際電気 Train monitoring system and train monitoring method
WO2021033304A1 (en) * 2019-08-22 2021-02-25 株式会社日立国際電気 Train monitoring system and train monitoring method
JPWO2021033304A1 (en) * 2019-08-22 2021-02-25
JP2021056901A (en) * 2019-09-30 2021-04-08 キヤノン株式会社 Information processing equipment, information processing method, and program
JP7455545B2 (en) 2019-09-30 2024-03-26 キヤノン株式会社 Information processing device, information processing method, and program
JP7235892B2 (en) 2020-02-18 2023-03-08 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing method, apparatus, electronic equipment and computer program product
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products
US11881048B2 (en) 2020-09-28 2024-01-23 Yokogawa Electric Corporation Monitoring device, learning apparatus, method and storage medium
JP2022055229A (en) * 2020-09-28 2022-04-07 横河電機株式会社 Monitoring device, learning apparatus, method and program
WO2023276877A1 (en) * 2021-07-01 2023-01-05 パナソニックIpマネジメント株式会社 Seated status presentation method and seated status presentation system
WO2023242888A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Vehicle cabin monitoring device, vehicle cabin monitoring system, and vehicle cabin monitoring method

Also Published As

Publication number Publication date
JP6485709B2 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
JP6485709B2 (en) Seat monitoring device, seat monitoring system, and seat monitoring method
JP6504364B2 (en) Monitoring device, monitoring system and monitoring method
JP6156665B1 (en) Facility activity analysis apparatus, facility activity analysis system, and facility activity analysis method
JP5597781B1 (en) Residence status analysis apparatus, residence status analysis system, and residence status analysis method
CN105306884B (en) Monitoring device, monitoring system and monitoring method
JP6145855B1 (en) Facility use support method, facility use support device, and user terminal device
CN102244715B (en) Image processing apparatus, setting device and method for image processing apparatus
CA2790316C (en) Systems and methods for secure electronic ticketing
JP6910772B2 (en) Imaging device, control method and program of imaging device
JP2007133847A (en) Congestion situation presenting device and congestion situation information browsing system
JP7230173B2 (en) Abandoned object detection device and abandoned object detection method
US20150341569A1 (en) Image switching apparatus, image switching system, and image switching method
JP2016150849A (en) Article delivery system
JP5449401B2 (en) Information display device, display control integrated circuit, display control program, and display control method
JP6955584B2 (en) Door image display system and monitor
CN109741224A (en) Supervision method and Related product
WO2011108183A1 (en) Image processing device, content delivery system, image processing method, and program
CN108362382A (en) A kind of thermal imaging monitoring method and its monitoring system
JP2005149145A (en) Object detecting device and method, and computer program
JP7211484B2 (en) Image processing device, control method, and program
KR100917903B1 (en) The range of vision each information display method which it follows in the seat
JP2020205001A5 (en)
JP4367177B2 (en) Monitoring device
JP6861525B2 (en) Drive recorder, image recording method and monitoring device
JP2004104530A (en) Tickets issuing apparatus, tickets issuing method and user confirmation device, user confirmation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190206

R151 Written notification of patent or utility model registration

Ref document number: 6485709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151