WO2021033278A1 - コンピュータシステム、遺失物検知方法及びプログラム - Google Patents

コンピュータシステム、遺失物検知方法及びプログラム Download PDF

Info

Publication number
WO2021033278A1
WO2021033278A1 PCT/JP2019/032524 JP2019032524W WO2021033278A1 WO 2021033278 A1 WO2021033278 A1 WO 2021033278A1 JP 2019032524 W JP2019032524 W JP 2019032524W WO 2021033278 A1 WO2021033278 A1 WO 2021033278A1
Authority
WO
WIPO (PCT)
Prior art keywords
captured image
user
lost
computer
predetermined area
Prior art date
Application number
PCT/JP2019/032524
Other languages
English (en)
French (fr)
Inventor
匡之 濱場
敏史 横尾
Original Assignee
株式会社オプティム
株式会社佐賀銀行
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム, 株式会社佐賀銀行 filed Critical 株式会社オプティム
Priority to JP2021541397A priority Critical patent/JP7416524B2/ja
Priority to PCT/JP2019/032524 priority patent/WO2021033278A1/ja
Publication of WO2021033278A1 publication Critical patent/WO2021033278A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems

Definitions

  • the present invention relates to a computer system for preventing lost property, a lost property detection method, and a program.
  • Patent Document 1 is not convenient because it is necessary to read the wireless medium from the user himself / herself and the belongings themselves when determining the lost property. In addition, it was not possible to detect belongings that did not include wireless media.
  • the present invention provides a computer system capable of comparing captured images taken when a user enters and exits a predetermined area and determining the presence or absence of lost property based on the difference, a lost property detection method, and a lost property detection method.
  • the purpose is to provide a program.
  • the present invention provides the following solutions.
  • the present invention is a computer system for preventing lost items.
  • a first acquisition means for acquiring a first captured image of a specific location when a user enters a predetermined area
  • a second acquisition means for acquiring a second captured image of the specific location when the user leaves the predetermined area
  • a comparison means for comparing the first captured image and the second captured image
  • a difference determination means for determining whether or not a predetermined difference exists in the comparison result
  • Lost and found judgment means to judge whether there is a lost property based on the judgment result
  • the computer system for preventing lost items acquires a first captured image of a specific location when the user enters the predetermined area, and captures the specific location when the user leaves the predetermined area.
  • the photographed second photographed image is acquired, the first photographed image and the second photographed image are compared, it is determined whether or not there is a predetermined difference in the comparison result, and the lost item exists based on the determination result. Decide if you want to.
  • the present invention is in the category of systems, but in other categories such as methods and programs, the same actions and effects are exhibited according to the categories.
  • a computer system capable of comparing captured images taken when a user enters and exits a predetermined area and determining the presence or absence of lost property based on the difference, lost property detection. It becomes possible to provide methods and programs.
  • FIG. 1 is a diagram showing an outline of a lost property detection system 1.
  • FIG. 2 is an overall configuration diagram of the lost property detection system 1.
  • FIG. 3 is a diagram showing a flowchart of a lost property detection process executed by the computer 10.
  • FIG. 1 is a diagram for explaining an outline of a lost property detection system 1 which is a preferred embodiment of the present invention.
  • the lost property detection system 1 is a computer system composed of a computer 10 to prevent lost property.
  • the lost property detection system 1 includes a user terminal (for example, a mobile terminal such as a smartphone or a tablet terminal, a wearable terminal such as a head mount display such as a smart glass) owned by the user, and a predetermined area (for example, an ATM installation area). , Ticket offices, toilets, reserved seats on trains, public charging spaces or public eat-in spaces) Administrator terminals (for example, mobile terminals such as smartphones and tablet terminals, and head-mounted displays such as smart glasses) Wearable terminals such as, stationary terminals such as personal computers), speakers, rotating lights, and other terminals and devices may be included. In this case, the lost property detection system 1 executes each process described later by any or a combination of the computer 10 and the terminals and devices included in the computer 10.
  • a user terminal for example, a mobile terminal such as a smartphone or a tablet terminal, a wearable terminal such as a head mount display such as a smart glass
  • a predetermined area for example, an ATM installation area.
  • Administrator terminals for example,
  • the lost property detection system 1 may be realized by one computer such as a computer 10, or may be realized by a plurality of computers such as a cloud computer.
  • the computer 10 is connected to a user terminal, an administrator terminal, a speaker, a rotating light, other terminals, devices, etc. via a public network or the like so that data can be communicated, and necessary data and information can be transmitted and received. To execute.
  • the computer 10 acquires the first captured image of a specific location when the user enters the predetermined area.
  • the predetermined area is, for example, an ATM installation area, a ticket office, a toilet, a reserved seat of a train, a public charging space, or a public eat-in space.
  • Specific locations are, for example, the ATM itself or a part of it, the ticket office itself or a part of it, a private toilet room, a toilet bowl or a washroom, a reserved seat or table on a train, a chair or desk in a public charging space, or a public place. Eat-in space chairs and desks.
  • a photographing device installed at a position where this predetermined area can be photographed detects that the user is adjacent to an entrance point such as an entrance or an entrance gate of this predetermined area, and images such as moving images and still images. Start shooting.
  • the photographing device transmits an image obtained by photographing a specific place to the computer 10 as a first photographed image.
  • the computer 10 acquires the first captured image by receiving the first captured image.
  • this photographing device combines images taken during a predetermined number of frames (for example, 5 frames and 10 frames) immediately before the user enters the entrance point into the computer 10 as a first captured image. It may be configured to transmit. As a result, the computer 10 acquires the image thus synthesized as the first captured image.
  • a predetermined number of frames for example, 5 frames and 10 frames
  • the computer 10 acquires a second captured image in which a user who has entered the predetermined area has captured a moving image, a still image, or the like of a specific location when leaving.
  • the above-mentioned photographing device detects that the user is adjacent to an exit point such as an exit gate or an exit gate in this predetermined area, and starts shooting an image such as a moving image or a still image.
  • the photographing device transmits an image of the specific location as a second captured image to the computer 10.
  • the computer 10 acquires the second captured image by receiving the second captured image.
  • this photographing device uses a computer 10 as a second captured image obtained by synthesizing images captured during a predetermined number of frames (for example, 5 frames and 10 frames) immediately after the user leaves the exit point. It may be configured to transmit. As a result, the computer 10 acquires the image thus synthesized as the second captured image.
  • a predetermined number of frames for example, 5 frames and 10 frames
  • the computer 10 compares the acquired first captured image with the second captured image.
  • the computer 10 performs image analysis on each of the acquired first captured image and second captured image, and each feature point (for example, shape, contour, and hue) and feature amount (for example, average of pixel values, etc.) Extract statistical values such as variance and histogram).
  • the computer 10 compares the first captured image and the second captured image based on the extracted feature points and feature quantities.
  • the computer 10 may be configured to perform edge detection as a result of image analysis.
  • the computer 10 performs edge detection on each of the first captured image and the second captured image, extracts the shape and contour of an existing object in each image, and compares the extracted shape and contour. become.
  • the computer 10 may be configured to compare the first captured image and the second captured image by excluding stationary points from the extracted feature points and feature quantities.
  • Steady-state locations are locations where changes do not occur or are unlikely to occur depending on the user, such as devices and terminals installed in specific locations, their operation screens, and equipment provided in predetermined areas and specific locations. is there.
  • the computer 10 determines whether or not there is a predetermined difference between the first captured image and the second captured image based on the comparison result.
  • the computer 10 determines the presence or absence of feature points and feature quantities that do not exist in the first captured image among the feature points and feature quantities that exist in the second captured image. When such a feature point or feature amount exists, the computer 10 determines whether or not the feature point or feature amount satisfies a predetermined difference. This predetermined difference corresponds to, for example, an object possessed or worn by the user, such as a user terminal, baggage, or clothing. That is, the computer 10 determines whether or not such an object existing in the second captured image exists in the first captured image.
  • the computer 10 determines whether or not there is a lost item based on the determination result.
  • the computer 10 determines that the object existing in the second captured image does not exist in the first captured image, it determines that there is a lost item. At this time, the computer 10 identifies the lost object based on the image analysis results of the first captured image and the second captured image. The computer 10 identifies the lost item by identifying the object corresponding to the predetermined difference.
  • the computer 10 may be configured to notify the user of the fact that there is a lost item when the lost item exists. For example, the computer 10 notifies the presence or absence of the identified lost property or lost property via a speaker, a user terminal, an administrator terminal, a rotating light, or the like.
  • the computer 10 acquires a first captured image of a specific location (step S01).
  • the computer 10 acquires the first captured image captured by the photographing device described above.
  • This photographing device takes an image when the user is adjacent to an entrance point in a predetermined area.
  • the photographing device transmits an image obtained by photographing a specific place at the time when the user passes to the entrance point to the predetermined area to the computer 10 as the first photographed image.
  • the computer 10 acquires the first captured image by receiving the first captured image.
  • the computer 10 acquires a second captured image of a specific location when the user leaves the predetermined area (step S02).
  • the computer 10 acquires a second captured image captured by the photographing device described above.
  • This photographing device takes an image when the user is adjacent to the exit point in the predetermined area.
  • the photographing device transmits an image obtained by photographing a specific place at the time when the user passes the exit point from the predetermined area to the computer 10 as a second photographed image.
  • the computer 10 acquires the second captured image by receiving the second captured image.
  • the computer 10 analyzes the acquired first captured image and second captured image (step S03).
  • the computer 10 analyzes the first captured image and the second captured image, respectively, and extracts feature points and feature quantities.
  • the computer 10 compares the feature points and feature amounts of the extracted images (step S04).
  • the computer 10 determines whether or not there is a predetermined difference between the first captured image and the second captured image based on the comparison result (step S05).
  • the computer 10 determines the presence or absence of the feature points and feature quantities extracted from the first captured image that do not exist in the second captured image among the feature points and feature quantities extracted from the second captured image.
  • the computer 10 determines whether or not the feature point or feature amount satisfies a predetermined difference.
  • the computer 10 determines whether or not the object existing in the second captured image exists in the first captured image.
  • the computer 10 determines whether or not there is a lost item based on the determination result (step S06). If the object present in the second captured image is present in the first captured image, the computer 10 will determine that there is a lost item.
  • FIG. 2 is a diagram showing a system configuration of a lost property detection system 1 which is a preferred embodiment of the present invention.
  • the lost property detection system 1 is a computer system composed of a computer 10 to prevent lost property.
  • the computer 10 is connected to a user terminal, an administrator terminal, a speaker, a rotating light, other terminals, devices, etc. via a public network or the like so that data can be communicated, and necessary data and information can be transmitted and received. To execute.
  • the lost property detection system 1 may include a user terminal, an administrator terminal, a speaker, a rotating light, and other terminals and devices (not shown). In this case, the lost property detection system 1 executes each process described later by any or a combination of the computer 10 and the terminals and devices included in the computer 10.
  • the lost property detection system 1 may be realized by one computer such as a computer 10, or may be realized by a plurality of computers such as a cloud computer.
  • the computer 10 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and enables communication with other terminals and devices as a communication unit.
  • a device for this purpose for example, a Wi-Fi (Wi-Fi) compatible device conforming to IEEE802.11 and the like.
  • the computer 10 includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, and a memory card as a recording unit.
  • the computer 10 includes various devices and the like that execute various processes as a processing unit.
  • the control unit reads a predetermined program to realize the first captured image data acquisition module 20, the second captured image data acquisition module 21, and the notification module 22 in cooperation with the communication unit. Further, in the computer 10, when the control unit reads a predetermined program, the analysis module 40, the comparison module 41, the difference determination module 42, the lost property determination module 43, and the lost property identification module 44 are displayed in cooperation with the processing unit. Realize.
  • FIG. 3 is a diagram showing a flowchart of a lost property detection process executed by the computer 10. The process executed by each of the above-mentioned modules will be described together with this process.
  • the first captured image data acquisition module 20 includes a first captured image obtained by capturing a specific location when a user enters a predetermined area, an identifier indicating the predetermined area (for example, a control number or identification number of a photographing device, a predetermined area).
  • the name, control number, position information) and the shooting date and time are acquired as the first shot image data (step S10).
  • the first captured image data acquisition module 20 acquires the first captured image data from the photographing device installed at a position where the predetermined area can be photographed.
  • This predetermined area is an area where users can enter and exit, such as an ATM installation area, a ticket office, a toilet, reserved seats for trains, a public charging space, or a public eat-in space.
  • This specific area is, for example, the ATM itself or a part of it, the ticket office itself or a part of it, a private room of a toilet, a toilet bowl or a washroom, a reserved seat or table of a train, a chair or a desk in a public charging space. Or a chair or desk in a public eat-in space.
  • the photographing device detects that the user is adjacent to a predetermined area or an entrance point such as an entrance or an entrance gate to the predetermined area (for example, has entered a predetermined area or within a predetermined range from the entrance point), and an image is obtained.
  • the photographing device uses an image obtained by photographing a specific place when the user passes through this entrance point as the first photographed image.
  • the photographing device uses as the first captured image a composite of the images captured by the predetermined number of frames immediately before the user passes the entrance point.
  • the image composition itself performed by the photographing device may be performed by a known method, for example, by adding all the contours existing in the image for a predetermined number of frames and the image when passing through the entrance point. Is.
  • the photographing apparatus removes noise (for example, light insertion and shadow) existing in each image.
  • the photographing device uses the first photographed image thus synthesized, the identifier of the predetermined area, and the date and time when the first photographed image was photographed (the date and time when passing through the entrance point or the combined date and time) as the first photographed image data.
  • the first captured image data acquisition module 20 acquires the first captured image by receiving the first captured image data.
  • the photographing device may have a configuration in which an image obtained by photographing a specific location is used as the first photographed image when the user enters the predetermined area.
  • the photographing device transmits the first photographed image photographed when the user enters the predetermined area, the identifier of the predetermined area, and the photographing date and time as the first photographed image data to the computer 10.
  • the first captured image data acquisition module 20 acquires the first captured image by receiving the first captured image data.
  • the computer 10 may be configured to record the first captured image data acquired in this way on itself. In this case, the computer 10 will use the recorded first captured image data in the process described later.
  • the second captured image data acquisition module 21 acquires the second captured image captured at a specific location, the identifier of the predetermined area, and the shooting date and time as the second captured image data when the user who has entered the predetermined area leaves. Step S11). In step S11, the second captured image data acquisition module 21 acquires the second captured image data from the above-mentioned imaging device.
  • the photographing device detects that the user is adjacent to an exit point such as an exit gate or an exit gate in this predetermined area (for example, has entered within a predetermined range from the exit point), and starts taking an image.
  • the photographing device uses an image obtained by photographing a specific place when the user passes through the exit point as a second photographed image.
  • the photographing device uses as the second captured image a composite of the images captured by the predetermined number of frames immediately after the user has passed the exit point.
  • the image composition performed by the photographing apparatus is the same as the composition method in the first photographed image described above. As a result, the photographing apparatus removes noise (for example, light insertion and shadow) existing in each image.
  • the photographing device uses the second photographed image thus synthesized, the identifier of the predetermined area, and the date and time when the second photographed image was photographed (the date and time when passing through the exit point or the combined date and time) as the second photographed image data.
  • the second captured image data acquisition module 21 acquires the second captured image by receiving the second captured image data.
  • the photographing device may be configured to use an image obtained by photographing a specific location as a second photographed image when the user leaves the predetermined area.
  • the photographing device transmits the second photographed image photographed when the user leaves the predetermined area, the identifier of the predetermined area, and the photographing date and time as the second photographed image data to the computer 10.
  • the second captured image data acquisition module 21 acquires the second captured image by receiving the second captured image data.
  • the analysis module 40 analyzes the acquired first captured image and the second captured image (step S12).
  • the analysis module 40 extracts feature points and feature quantities in the first captured image and the second captured image.
  • the analysis module 40 performs edge detection on each image and extracts contours of an object, a person, or the like existing in each image.
  • the analysis module 40 performs edge detection and extracts a stationary portion existing in each image.
  • the stationary location is, for example, a device or terminal itself installed at a specific location, an operation screen thereof, a predetermined area, or equipment provided at the specific location. This stationary location is a location where changes do not occur or are unlikely to occur depending on the behavior of the user.
  • the analysis module 40 may extract an object, a person, or the like existing in each image by a method other than edge detection.
  • the computer 10 may be used according to the method used in the processing described later.
  • the comparison module 41 compares the acquired first captured image with the second captured image (step S13). In step S13, the comparison module 41 compares the contours extracted from the respective images. At this time, the comparison module 41 excludes stationary portions from the contours extracted from the respective images and compares the contours extracted from the contours.
  • the comparison module 41 may have a configuration in which contours extracted from each image are compared without excluding stationary parts from each image.
  • the comparison module 41 when the comparison module 41 has acquired a plurality of first captured image data and a plurality of second captured image data, the comparison module 41 and the first captured image to be compared based on the identifier of a predetermined area included in each of the first captured image data. Identify the second captured image.
  • the comparison module 41 compares the plurality of first captured image data with the first captured image and the second captured image associated with the identifiers of the matching predetermined areas in the plurality of second captured image data. ..
  • the comparison module 41 when the shooting date and time in the first shot image data and the shooting date and time in the second shot image data are separated by a predetermined time or more (for example, several hours or more and one day or more), the first shooting This process ends without comparing the image with the second captured image.
  • the difference determination module 42 determines whether or not a predetermined difference exists between the first captured image and the second captured image based on the comparison result (step S14). In step S14, the difference determination module 42 determines whether or not a predetermined difference exists in the comparison result of each image.
  • the predetermined difference is, for example, a feature point or feature amount corresponding to an object possessed or worn by the user such as a user terminal, baggage, or clothing. In this embodiment, the predetermined difference is the contour corresponding to these objects.
  • the difference determination module 42 determines whether or not a difference corresponding to such an object exists between the first captured image and the second captured image. That is, the difference determination module 42 determines whether or not such an object existing in the second captured image exists in the first captured image.
  • step S14 when the difference determination module 42 determines that the predetermined difference does not exist (step S14 NO), the computer 10 determines that there is no lost item and ends this process.
  • step S14 when the difference determination module 42 determines that a predetermined difference exists (YES in step S14), the lost property determination module 43 determines an object corresponding to this difference as a lost item (step S15). .. In step S15, the lost property determination module 43 determines a predetermined difference existing in the second captured image as a lost property. That is, the lost property determination module 43 determines that a contour existing in the second captured image and not present in the first captured image is a lost property.
  • the lost property identification module 44 identifies the lost property existing in the second captured image (step S16).
  • step S16 the lost property identification module 44 identifies what the lost property corresponds to the predetermined difference based on the feature points and the feature amounts of the predetermined difference existing in the second captured image.
  • the lost property identification module 44 identifies the lost property corresponding to this contour based on the contour corresponding to this predetermined difference.
  • the lost property identification module 44 refers to a database or the like registered in association with the feature points and feature quantities of various objects that have been lost in the past, which were recorded in advance, and the lost property. To identify.
  • the lost property identification module 44 states that when the contour corresponding to this predetermined difference is a terminal device such as a smartphone or tablet terminal, the object corresponding to this predetermined difference is a terminal device such as a user terminal. to decide. Further, the lost property identification module 44 determines that the object corresponding to the predetermined difference this time is the baggage of the user when the contour corresponding to the predetermined difference is baggage such as a bag or a wallet. Similarly, the lost property identification module 44 identifies other objects as the user's object based on the contour corresponding to the predetermined difference.
  • the notification module 22 notifies the user of the fact that there is a lost item (step S17).
  • the notification module 22 notifies this notification via a speaker, a rotating light, a user terminal, an administrator terminal, or the like provided in or near a predetermined area.
  • This notification may be, for example, voice, message, or drive a device.
  • the notification module 22 transmits this notification to these terminals and devices. These terminals and devices receive this notification.
  • These terminals execute notification contents tailored to themselves. For example, in the case of a user terminal or an administrator terminal, the sound included in the notification is emitted and the message is displayed on its own display unit. In the case of a speaker, the voice and message included in the notification and the preset voice are emitted. Further, in the case of a rotating light, light is emitted according to a preset pattern. As a result, the computer 10 causes the user to be notified of this notification, and the lost property detection system 1 notifies the user of this notification.
  • the above-mentioned means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program.
  • the program is provided, for example, in the form of being provided from a computer via a network (Software as a Service). Further, the program is provided in a form recorded on a computer-readable recording medium such as a flexible disc, a CD (CD-ROM or the like), or a DVD (DVD-ROM, DVD-RAM or the like).
  • the computer reads the program from the recording medium, transfers it to an internal recording device or an external recording device, records the program, and executes the program.
  • the program may be recorded in advance on a recording device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and the program may be provided to the computer from the recording device via a communication line.

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

【課題】本発明は、利用者の所定エリアへの進入時及び退出時を撮影した撮影画像を比較し、その差分に基づいて、遺失物の有無を判断することが可能なコンピュータシステム、遺失物検知方法及びプログラムを提供することを目的とする。 【解決手段】遺失物を防止するコンピュータシステムは、所定エリアへの進入時の利用者を撮影した第1撮影画像を取得し、前記所定エリアから退出時の前記利用者を撮影した第2撮影画像を取得し、前記第1撮影画像と第2撮影画像とを比較し、比較結果に、所定の差分が存在するかを判断し、判断結果に基づいて、遺失物が存在するかを判断する。

Description

コンピュータシステム、遺失物検知方法及びプログラム
 本発明は、遺失物を防止するコンピュータシステム、遺失物検知方法及びプログラムに関する。
 従来より、ATM設置エリア、切符売り場、トイレ、列車の指定席、公共の充電スペース又は公共のイートインスペース等の所定エリアにおける遺失物が問題になっている。
 このような遺失物に対する対策として、利用者が施設へ入退場する際、利用者が所持する無線媒体と、持ち物に含まれる無線媒体とを検知し、遺失物の有無を判定する構成が開示されている(特許文献1参照)。
特開2018-165900号公報
 しかしながら、特許文献1の構成では、遺失物の判定に際して、利用者自身及び持ち物自体の其々から無線媒体を読み取る必要があるため、利便性が低かった。加えて、無線媒体を含まない持ち物に関して検知することができなかった。
 本発明は、利用者の所定エリアへの進入時及び退出時を撮影した撮影画像を比較し、その差分に基づいて、遺失物の有無を判断することが可能なコンピュータシステム、遺失物検知方法及びプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 本発明は、遺失物を防止するコンピュータシステムであって、
 所定エリアへの利用者の進入時に特定箇所を撮影した第1撮影画像を取得する第1取得手段と、
 前記所定エリアから利用者が退出時に前記特定箇所を撮影した第2撮影画像を取得する第2取得手段と、
 前記第1撮影画像と第2撮影画像とを比較する比較手段と、
 比較結果に、所定の差分が存在するかを判断する差分判断手段と、
 判断結果に基づいて、遺失物が存在するかを判断する遺失物判断手段と、
 を備えることを特徴とするコンピュータシステムを提供する。
 本発明によれば、遺失物を防止するコンピュータシステムは、所定エリアへの利用者の進入時に特定箇所を撮影した第1撮影画像を取得し、前記所定エリアから利用者が退出時に前記特定箇所を撮影した第2撮影画像を取得し、前記第1撮影画像と第2撮影画像とを比較し、比較結果に、所定の差分が存在するかを判断し、判断結果に基づいて、遺失物が存在するかを判断する。
 本発明は、システムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 本発明によれば、利用者の所定エリアへの進入時及び退出時を撮影した撮影画像を比較し、その差分に基づいて、遺失物の有無を判断することが可能なコンピュータシステム、遺失物検知方法及びプログラムを提供することが可能となる。
図1は、遺失物検知システム1の概要を示す図である。 図2は、遺失物検知システム1の全体構成図である。 図3は、コンピュータ10が実行する遺失物検知処理のフローチャートを示す図である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。
 [遺失物検知システム1の概要]
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である遺失物検知システム1の概要を説明するための図である。遺失物検知システム1は、コンピュータ10から構成され、遺失物を防止するコンピュータシステムである。
 なお、遺失物検知システム1は、利用者が所持する利用者端末(例えば、スマートフォンやタブレット端末等の携帯端末や、スマートグラス等のヘッドマウントディスプレイといったウェアラブル端末)、所定エリア(例えば、ATM設置エリア、切符売り場、トイレ、列車の指定席、公共の充電スペース又は公共のイートインスペース)の管理者が所持する管理者端末(例えば、スマートフォンやタブレット端末等の携帯端末や、スマートグラス等のヘッドマウントディスプレイといったウェアラブル端末や、パーソナルコンピュータ等の据置端末)、スピーカ、回転灯、その他の端末や装置類が含まれていてもよい。この場合、遺失物検知システム1は、後述する各処理を、コンピュータ10と含まれる端末や装置類等との何れか又は複数の組み合わせにより実行することになる。
 また、遺失物検知システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
 コンピュータ10は、利用者端末、管理者端末、スピーカ、回転灯、その他の端末や装置類等と、公衆回線網等を介して、データ通信可能に接続されており、必要なデータや情報の送受信を実行する。
 コンピュータ10は、所定エリアへの利用者の進入時に特定箇所を撮影した第1撮影画像を取得する。所定エリアは、例えば、ATM設置エリア、切符売り場、トイレ、列車の指定席、公共の充電スペース又は公共のイートインスペースである。特定箇所は、例えば、ATMそのものやその一部、切符売り場そのものやその一部、トイレの個室や便器や手洗い場、列車の指定席の座席やテーブル、公共の充電スペースの椅子や机又は公共のイートインスペースの椅子や机である。
 例えば、この所定エリアを撮影可能な位置に設置された撮影装置は、利用者がこの所定エリアの入場口や入場ゲート等の入場地点に隣接したことを検知し、動画や静止画等の画像の撮影を開始する。撮影装置は、この入場地点を利用者が通過した際に、特定箇所を撮影した画像を、第1撮影画像としてコンピュータ10に送信する。コンピュータ10は、第1撮影画像を受信することにより、第1撮影画像を取得することになる。
 なお、この撮影装置は、利用者が入場地点に進入する直前の所定フレーム数(例えば、5フレーム分、10フレーム分)の間に撮影した画像を合成したものを第1撮影画像としてコンピュータ10に送信する構成であってもよい。この結果、コンピュータ10は、このように合成された画像を、第1撮影画像として取得することになる。
 コンピュータ10は、所定エリアへ進入した利用者が退出時に特定箇所の動画や静止画等を撮影した第2撮影画像を取得する。
 例えば、上述した撮影装置は、利用者がこの所定エリアの退場口や退場ゲート等の退場地点へ隣接したことを検知し、動画や静止画等の画像の撮影を開始する。撮影装置は、この所定エリアの退場地点を利用者が通過した際に、特定箇所を撮影した画像を、第2撮影画像としてコンピュータ10に送信する。コンピュータ10は、第2撮影画像を受信することにより、第2撮影画像を取得することになる。
 なお、この撮影装置は、利用者が退場地点から退場した直後の所定フレーム数(例えば、5フレーム分、10フレーム分)の間に撮影した画像を合成したものを第2撮影画像としてコンピュータ10に送信する構成であってもよい。この結果、コンピュータ10は、このように合成された画像を、第2撮影画像として取得することになる。
 コンピュータ10は、取得した第1撮影画像と第2撮影画像とを比較する。
 例えば、コンピュータ10は取得した第1撮影画像と第2撮影画像との其々を画像解析し、其々の特徴点(例えば、形状、輪郭、色相)や特徴量(例えば、画素値の平均、分散、ヒストグラム等の統計的な数値)を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、第1撮影画像と第2撮影画像とを比較する。
 なお、コンピュータ10は、画像解析の結果として、エッジ検出を行う構成であってもよい。コンピュータ10は、第1撮影画像と第2撮影画像の其々に対して、エッジ検出を行い、其々の画像における存在する物体の形状や輪郭を抽出し、抽出した形状や輪郭を比較することになる。
 また、コンピュータ10は、抽出した特徴点や特徴量のうち、定常的な箇所を除外して第1撮影画像と第2撮影画像とを比較する構成であってもよい。定常的な箇所は、例えば、特定箇所に設置された装置や端末類そのものやこれらの操作画面、所定エリアや特定箇所に備えられた備品といった、利用者によって変化が発生しない又は発生しにくい箇所である。
 コンピュータ10は、比較結果に基づいて、第1撮影画像と第2撮影画像との間に、所定の差分が存在するか否かを判断する。
 例えば、コンピュータ10は、第2撮影画像に存在する特徴点や特徴量のうち、第1撮影画像に存在しない特徴点や特徴量の有無を判断する。コンピュータ10は、このような特徴点や特徴量が存在する場合、このような特徴点や特徴量が所定の差分を満たすものであるか否かを判断する。この所定の差分は、例えば、利用者端末、手荷物、衣類等の利用者が所持又は装着する物体に該当するものである。すなわち、コンピュータ10は、第2撮影画像に存在するこのような物体が、第1撮影画像に存在するか否かを判断することになる。
 コンピュータ10は、判断結果に基づいて、遺失物が存在するかを判断する。
 例えば、コンピュータ10は、第2撮影画像に存在する物体が、第1撮影画像に存在しないと判断した場合、遺失物が存在すると判断する。このとき、コンピュータ10は、第1撮影画像及び第2撮影画像の画像解析結果に基づいて、この遺失物を特定する。コンピュータ10は、所定の差分に該当する物体を特定することにより、遺失物を特定する。
 なお、コンピュータ10は、遺失物が存在する場合、利用者に、遺失物がある旨の通知を通知する構成であってもよい。例えば、コンピュータ10は、特定した遺失物や遺失物の有無を、スピーカ、利用者端末、管理者端末、回転灯等を介して、通知する。
 次に、遺失物検知システム1が実行する処理の概要について説明する。
 はじめに、コンピュータ10は、利用者が所定エリアへ進入した際に、特定箇所を撮影した第1撮影画像を取得する(ステップS01)。コンピュータ10は、上述した撮影装置が撮影した第1撮影画像を取得する。この撮影装置は、利用者が所定エリアの入場地点へ隣接したことを契機として、画像を撮影する。撮影装置は、所定エリアへの入場地点に利用者が通過した時点の特定箇所を撮影した画像を、第1撮影画像としてコンピュータ10に送信する。コンピュータ10は、この第1撮影画像を受信することにより、第1撮影画像を取得することになる。
 コンピュータ10は、利用者が所定エリアから退出した際に、特定箇所を撮影した第2撮影画像を取得する(ステップS02)。コンピュータ10は、上述した撮影装置が撮影した第2撮影画像を取得する。この撮影装置は、利用者が所定エリアの退場地点へ隣接したことを契機として、画像を撮影する。撮影装置は、所定エリアからの退場地点を利用者が通過した時点の特定箇所を撮影した画像を、第2撮影画像としてコンピュータ10に送信する。コンピュータ10は、この第2撮影画像を受信することにより、第2撮影画像を取得することになる。
 コンピュータ10は、取得した第1撮影画像と第2撮影画像を画像解析する(ステップS03)。コンピュータ10は、この第1撮影画像と第2撮影画像とを其々画像解析し、特徴点や特徴量を抽出する。
 コンピュータ10は、抽出した其々の画像の特徴点や特徴量を比較する(ステップS04)。
 コンピュータ10は、比較結果に基づいて、第1撮影画像と第2撮影画像との間に、所定の差分が存在するか否かを判断する(ステップS05)。コンピュータ10は、第2撮影画像から抽出した特徴点や特徴量のうち、第2撮影画像に存在しない第1撮影画像から抽出した特徴点や特徴量の有無を判断する。コンピュータ10は、このような特徴点や特徴量が存在する場合、この特徴点や特徴量が、所定の差分を満たすものであるか否かを判断する。この結果、コンピュータ10は、第2撮影画像に存在する物体が、第1撮影画像に存在するか否かを判断することになる。
 コンピュータ10は、判断結果に基づいて、遺失物が存在するかを判断する(ステップS06)。コンピュータ10は、第2撮影画像に存在する物体が、第1撮影画像に存在する場合、遺失物が存在すると判断することになる。
 以上が、遺失物検知システム1が実行する処理の概要である。
 [遺失物検知システム1のシステム構成]
 図2に基づいて、本発明の好適な実施形態である遺失物検知システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である遺失物検知システム1のシステム構成を示す図である。図2において、遺失物検知システム1は、コンピュータ10から構成され、遺失物を防止するコンピュータシステムである。
 コンピュータ10は、利用者端末、管理者端末、スピーカ、回転灯、その他の端末や装置類等と、公衆回線網等を介して、データ通信可能に接続されており、必要なデータや情報の送受信を実行する。
 なお、遺失物検知システム1は、図示していない利用者端末、管理者端末、スピーカ、回転灯、その他の端末や装置類等が含まれていてもよい。この場合、遺失物検知システム1は、後述する各処理を、コンピュータ10と含まれる端末や装置類等との何れか又は複数の組み合わせにより実行することになる。
 また、遺失物検知システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
 コンピュータ10は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、他の端末や装置等と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、コンピュータ10は、記録部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部として、各種処理を実行する各種デバイス等を備える。
 コンピュータ10において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、第1撮影画像データ取得モジュール20、第2撮影画像データ取得モジュール21、通知モジュール22を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、解析モジュール40、比較モジュール41、差分判断モジュール42、遺失物判断モジュール43、遺失物特定モジュール44を実現する。
 [遺失物検知処理]
 図3に基づいて、遺失物検知システム1が実行する遺失物検知処理について説明する。図3は、コンピュータ10が実行する遺失物検知処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
 第1撮影画像データ取得モジュール20は、所定エリアへ利用者が進入時の特定箇所を撮影した第1撮影画像、この所定エリアを示す識別子(例えば、撮影装置の管理番号や識別番号、所定エリアの名称や管理番号や位置情報)及び撮影日時を、第1撮影画像データとして取得する(ステップS10)。ステップS10において、第1撮影画像データ取得モジュール20は、この所定エリアを撮影可能な位置に設置された撮影装置から、第1撮影画像データを取得する。この所定エリアは、例えば、ATM設置エリア、切符売り場、トイレ、列車の指定席、公共の充電スペース又は公共のイートインスペースといった、利用者が入退出することが可能なエリアである。この特定エリアは、例えば、例えば、ATMそのものやその一部、切符売り場そのものやその一部、トイレの個室や便器や手洗い場、列車の指定席の座席やテーブル、公共の充電スペースの椅子や机又は公共のイートインスペースの椅子や机である。
 撮影装置は、利用者が所定エリア又はこの所定エリアへの入場口や入場ゲート等の入場地点に隣接した(例えば、所定エリア又は入場地点から所定の範囲内に進入した)ことを検知し、画像の撮影を開始する。撮影装置は、この入場地点を利用者が通過した際に特定箇所を撮影した画像を第1撮影画像として利用する。このとき、撮影装置は、利用者が入場地点を通過する直前の所定フレーム数で其々に撮影した画像を合成したものを第1撮影画像として利用する。撮影装置が行う画像合成そのものは、既知の方法で行われればよく、例えば、所定フレーム数分の画像と、入場地点を通過時の画像とに存在する輪郭を全て足し込むことにより合成するといったものである。この結果、撮影装置は、各画像に存在するノイズ(例えば、光の差し込みや影)を除去することになる。撮影装置は、このように合成した第1撮影画像、この所定エリアの識別子及びこの第1撮影画像を撮影した日時(入場地点を通過時又は合成時の日時)を、第1撮影画像データとしてコンピュータ10に送信する。第1撮影画像データ取得モジュール20は、この第1撮影画像データを受信することにより、第1撮影画像を取得することになる。
 なお、撮影装置は、所定エリアへ利用者が進入時に、特定箇所を撮影した画像を第1撮影画像として、利用する構成であってもよい。この場合、撮影装置は、所定エリアへの利用者の進入時に撮影した第1撮影画像、この所定エリアの識別子及び撮影日時を第1撮影画像データとしてコンピュータ10に送信する。第1撮影画像データ取得モジュール20は、この第1撮影画像データを受信することにより、第1撮影画像を取得することになる。
 また、コンピュータ10は、このように取得した第1撮影画像データを自身に記録する構成であってもよい。この場合、コンピュータ10は、後述する処理において、記録した第1撮影画像データを用いることになる。
 第2撮影画像データ取得モジュール21は、所定エリアへ進入した利用者が退出時に、特定箇所を撮影した第2撮影画像、この所定エリアの識別子及び撮影日時を、第2撮影画像データとして取得する(ステップS11)。ステップS11において、第2撮影画像データ取得モジュール21は、上述した撮影装置から、第2撮影画像データを取得する。
 撮影装置は、利用者が、この所定エリアの退場口や退場ゲート等の退場地点へ隣接した(例えば、退場地点から所定の範囲内に進入した)ことを検知し、画像の撮影を開始する。撮影装置は、この退場地点を利用者が通過した際に特定箇所を撮影した画像を第2撮影画像として利用する。このとき、撮影装置は、利用者が退場地点を通過した直後の所定フレーム数で其々に撮影した画像を合成したものを第2撮影画像として利用する。撮影装置が行う画像合成は、上述した第1撮影画像における合成方法と同様である。この結果、撮影装置は、各画像に存在するノイズ(例えば、光の差し込みや影)を除去することになる。撮影装置は、このように合成した第2撮影画像、この所定エリアの識別子及びこの第2撮影画像を撮影した日時(退場地点を通過時又は合成時の日時)を、第2撮影画像データとしてコンピュータ10に送信する。第2撮影画像データ取得モジュール21は、この第2撮影画像データを受信することにより、第2撮影画像を取得することになる。
 なお、撮影装置は、所定エリアから利用者が退出時に、特定箇所を撮影した画像を第2撮影画像として、利用する構成であってもよい。この場合、撮影装置は、所定エリアからの利用者の退出時に撮影した第2撮影画像、この所定エリアの識別子及び撮影日時を第2撮影画像データとしてコンピュータ10に送信する。第2撮影画像データ取得モジュール21は、この第2撮影画像データを受信することにより、第2撮影画像を取得することになる。
 解析モジュール40は、取得した第1撮影画像と第2撮影画像とを画像解析する(ステップS12)。ステップS12において、解析モジュール40は、第1撮影画像及び第2撮影画像における特徴点や特徴量を抽出する。特に、解析モジュール40は、其々の画像に対して、エッジ検出を行い、其々の画像に存在する物体や人物等の輪郭を抽出する。また、解析モジュール40は、エッジ検出を行い、其々の画像に存在する定常的な箇所を抽出する。定常的な箇所とは、例えば、特定箇所に設置された装置や端末類そのものやこれらの操作画面、所定エリアや特定箇所に備えられた備品である。この定常的な箇所は、利用者の行動によって変化が発生しない又は発生しにくい箇所である。
 なお、解析モジュール40は、エッジ検出以外の方法により、其々の画像に存在する物体や人物等を抽出してもよい。この場合、コンピュータ10は、後述する処理において、用いた方法に合わせたものを利用すればよい。
 比較モジュール41は、取得した第1撮影画像と第2撮影画像とを比較する(ステップS13)。ステップS13において、比較モジュール41は、其々の画像から抽出した輪郭を比較する。このとき、比較モジュール41は、其々の画像から抽出した輪郭のうち、定常的な箇所を除外して、其々から抽出した輪郭を比較する。
 なお、比較モジュール41は、其々の画像から定常的な箇所を除外せずに、其々から抽出した輪郭を比較する構成であってもよい。
 また、比較モジュール41は、複数の第1撮影画像データと複数の第2撮影画像データとを取得していた場合、其々に含まれる所定エリアの識別子に基づいて、比較する第1撮影画像と第2撮影画像とを特定する。比較モジュール41は、複数の第1撮影画像データと、複数の第2撮影画像データにおいて、一致する所定エリアの識別子に対応付けられた第1撮影画像と第2撮影画像とを比較することになる。
 また、比較モジュール41は、第1撮影画像データにおける撮影日時と、第2撮影画像データにおける撮影日時とが、所定時間以上離れている場合(例えば、数時間以上、1日以上)、第1撮影画像と第2撮影画像とを比較することなく、本処理を終了する。
 差分判断モジュール42は、比較結果に基づいて、第1撮影画像と第2撮影画像との間に所定の差分が存在するか否かを判断する(ステップS14)。ステップS14において、差分判断モジュール42は、其々の画像の比較結果において、所定の差分が存在するか否かを判断する。所定の差分は、例えば、利用者端末、手荷物、衣類等の利用者が所持又は装着する物体に該当する特徴点や特徴量である。本実施例では、所定の差分は、これらの物体に該当する輪郭となる。差分判断モジュール42は、このような物体に該当する差分が、第1撮影画像と第2撮影画像との間に存在するか否かを判断する。すなわち、差分判断モジュール42は、第2撮影画像に存在するこのような物体が、第1撮影画像に存在するか否かを判断することになる。
 ステップS14において、差分判断モジュール42は、所定の差分が存在しないと判断した場合(ステップS14 NO)、コンピュータ10は、遺失物が存在しないと判断し、本処理を終了する。
 一方、ステップS14において、差分判断モジュール42は、所定の差分が存在すると判断した場合(ステップS14 YES)、遺失物判断モジュール43は、この差分に該当する物体を遺失物として判断する(ステップS15)。ステップS15において、遺失物判断モジュール43は、第2撮影画像に存在する所定の差分を、遺失物として判断する。すなわち、遺失物判断モジュール43は、第2撮影画像に存在し、第1撮影画像に存在しない輪郭を、遺失物であるものと判断する。
 遺失物特定モジュール44は、この第2撮影画像に存在する遺失物を特定する(ステップS16)。ステップS16において、遺失物特定モジュール44は、第2撮影画像に存在する所定の差分の特徴点や特徴量に基づいて、この所定の差分に該当する遺失物が何であるかを特定する。遺失物特定モジュール44は、この所定の差分に該当する輪郭に基づいて、この輪郭に該当する遺失物を特定する。例えば、遺失物特定モジュール44は、予め記録した過去に遺失物となった様々な物体の特徴点や特徴量と、この物体とを対応付けて登録したデータベース等を参照することにより、この遺失物を特定する。
 遺失物特定モジュール44は、この所定の差分に該当する輪郭が、スマートフォンやタブレット端末等の端末装置である場合、今回の所定の差分に該当する物体は、利用者端末等の端末装置であると判断する。また、遺失物特定モジュール44は、この所定の差分に該当する輪郭が、カバンや財布等の手荷物である場合、今回の所定の差分に該当する物体は、利用者の手荷物であると判断する。同様に、遺失物特定モジュール44は、他の物体であっても、所定の差分に該当する輪郭に基づいて、利用者の物体であるものと特定する。
 通知モジュール22は、利用者に、遺失物がある旨の通知を通知する(ステップS17)。ステップS17において通知モジュール22は、所定エリア又はその付近に設けられたスピーカや回転灯、利用者端末、管理者端末等を介して、この通知を通知する。この通知は、例えば、音声によるもの、メッセージによるもの、装置類を駆動するものといったものである。通知モジュール22は、この通知を、これらの端末や装置類に送信する。これらの端末や装置類は、この通知を受信する。これらの端末は、自身に合わせた通知内容を実行する。例えば、利用者端末や管理者端末である場合、通知に含まれる音声を放音することや、メッセージを自身の表示部に表示することを実行する。また、スピーカである場合、通知に含まれる音声やメッセージや予め設定された音声を放音する。また、回転灯である場合、予め設定されたパターンにより放光する。その結果、コンピュータ10は、利用者にこの通知を通知させることになり、遺失物検知システム1は、利用者に、この通知を通知することになる。
 以上が、遺失物検知処理である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1 遺失物検知システム、10 コンピュータ

Claims (9)

  1.  遺失物を防止するコンピュータシステムであって、
     所定エリアへの進入時の利用者を撮影した第1撮影画像を取得する第1取得手段と、
     前記所定エリアから退出時の前記利用者を撮影した第2撮影画像を取得する第2取得手段と、
     前記第1撮影画像と第2撮影画像とを比較する比較手段と、
     比較結果に、所定の差分が存在するかを判断する差分判断手段と、
     判断結果に基づいて、遺失物が存在するかを判断する遺失物判断手段と、
     を備えることを特徴とするコンピュータシステム。
  2.  前記比較手段は、前記第1撮影画像及び前記第2撮影画像の其々からエッジ検出を行い比較する、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  3.  前記第1撮影画像は、利用者の進入時の直前の所定フレーム数の画像を合成したものであり、
     前記第2撮影画像は、利用者の退出時の直後の所定フレーム数の画像を合成したものである、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  4.  前記所定エリアは、ATM設置エリア、切符売り場、トイレ、列車の指定席、公共の充電スペース又は公共のイートインスペースである、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  5.  前記比較手段は、定常的な箇所を除外して、比較する、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  6.  前記遺失物が存在すると判断した場合、前記利用者に、その旨を通知する通知手段と、
     をさらに備えることを特徴とする請求項1に記載のコンピュータシステム。
  7.  前記通知手段は、スピーカ、端末装置又は回転灯を介して、前記利用者に通知する、
     ことを特徴とする請求項6に記載のコンピュータシステム。
  8.  遺失物を防止するコンピュータが実行する遺失物検知方法であって、
     所定エリアへの進入時の利用者を撮影した第1撮影画像を取得するステップと、
     前記所定エリアから退出時の前記利用者を撮影した第2撮影画像を取得するステップと、
     前記第1撮影画像と第2撮影画像とを比較するステップと、
     比較結果に、所定の差分が存在するかを判断するステップと、
     判断結果に基づいて、遺失物が存在するかを判断するステップと、
     を備えることを特徴とする遺失物検知方法。
  9.  遺失物を防止するコンピュータに、
     所定エリアへの進入時の利用者を撮影した第1撮影画像を取得するステップ、
     前記所定エリアから退出時の前記利用者を撮影した第2撮影画像を取得するステップ、
     前記第1撮影画像と第2撮影画像とを比較するステップ、
     比較結果に、所定の差分が存在するかを判断するステップ、
     判断結果に基づいて、遺失物が存在するかを判断するステップ、
     を実行させるためのコンピュータ読み取り可能なプログラム。
PCT/JP2019/032524 2019-08-21 2019-08-21 コンピュータシステム、遺失物検知方法及びプログラム WO2021033278A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021541397A JP7416524B2 (ja) 2019-08-21 2019-08-21 コンピュータシステム、遺失物検知方法及びプログラム
PCT/JP2019/032524 WO2021033278A1 (ja) 2019-08-21 2019-08-21 コンピュータシステム、遺失物検知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032524 WO2021033278A1 (ja) 2019-08-21 2019-08-21 コンピュータシステム、遺失物検知方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021033278A1 true WO2021033278A1 (ja) 2021-02-25

Family

ID=74659879

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032524 WO2021033278A1 (ja) 2019-08-21 2019-08-21 コンピュータシステム、遺失物検知方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7416524B2 (ja)
WO (1) WO2021033278A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285842A (ja) * 2000-03-29 2001-10-12 Minolta Co Ltd 監視システム
JP2006338535A (ja) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd 車内忘れ物防止方法及び装置
JP2007318673A (ja) * 2006-05-29 2007-12-06 Matsushita Electric Works Ltd センサカメラ
JP2011227857A (ja) * 2010-03-31 2011-11-10 Saxa Inc 置き去り又は持ち去り判定装置及び同判定方法
JP2018142130A (ja) * 2017-02-27 2018-09-13 株式会社東海理化電機製作所 制御装置及びシステム
JP2018201156A (ja) * 2017-05-29 2018-12-20 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536075B2 (ja) 2015-02-24 2019-07-03 沖電気工業株式会社 忘れ物防止システム、忘れ物防止方法および顧客利用型端末。
JP7078951B2 (ja) 2017-12-21 2022-06-01 株式会社木村技研 トイレ管理システム、及びトイレ管理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285842A (ja) * 2000-03-29 2001-10-12 Minolta Co Ltd 監視システム
JP2006338535A (ja) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd 車内忘れ物防止方法及び装置
JP2007318673A (ja) * 2006-05-29 2007-12-06 Matsushita Electric Works Ltd センサカメラ
JP2011227857A (ja) * 2010-03-31 2011-11-10 Saxa Inc 置き去り又は持ち去り判定装置及び同判定方法
JP2018142130A (ja) * 2017-02-27 2018-09-13 株式会社東海理化電機製作所 制御装置及びシステム
JP2018201156A (ja) * 2017-05-29 2018-12-20 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JPWO2021033278A1 (ja) 2021-02-25
JP7416524B2 (ja) 2024-01-17

Similar Documents

Publication Publication Date Title
US8462224B2 (en) Image retrieval
US10565455B2 (en) Methods and systems for audiovisual communication
JP5851651B2 (ja) 映像監視システム、映像監視方法、および映像監視装置
JP5888770B2 (ja) 迷子発見システム及び方法
US20190108551A1 (en) Method and apparatus for customer identification and tracking system
US20080004892A1 (en) Biometric aid for customer relations
CN106296879B (zh) 基于无线探测的人流量获取的方法、装置和系统
JP6589321B2 (ja) システム、検索方法およびプログラム
JP2011039959A (ja) 監視システム
CN106296017A (zh) 一种客房入住的管理方法及装置
JP2018201176A (ja) アラート出力制御プログラム、アラート出力制御方法およびアラート出力制御装置
JP2648054B2 (ja) 警報装置
CN105975964A (zh) 一种基于感知通道的智能综合应用平台
US20210209909A1 (en) Information processing device and determination method
CN107848740B (zh) 电梯的楼层的内容信息
CN110766849A (zh) 小区门禁对外卖人员自动识别的方法、装置、设备及介质
EP3035225B1 (en) Information processing device, authentication system, authentication method, and program
CN110246292B (zh) 家庭视频监控方法、装置及存储介质
JP2013046135A (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
JP6959704B2 (ja) コンピュータシステム、振込詐欺防止方法及びプログラム
WO2021033278A1 (ja) コンピュータシステム、遺失物検知方法及びプログラム
JP2019028559A (ja) 作業分析装置、作業分析方法及びプログラム
US11144763B2 (en) Information processing apparatus, image display method, and non-transitory computer-readable storage medium for display control
JP6813039B2 (ja) 画像処理装置及び画像処理プログラム
WO2018042549A1 (ja) 被写体情報表示システム、被写体情報表示方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19942449

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021541397

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19942449

Country of ref document: EP

Kind code of ref document: A1