JPH09161102A - Action recognizing type automatic ticket issuing device - Google Patents

Action recognizing type automatic ticket issuing device

Info

Publication number
JPH09161102A
JPH09161102A JP31546695A JP31546695A JPH09161102A JP H09161102 A JPH09161102 A JP H09161102A JP 31546695 A JP31546695 A JP 31546695A JP 31546695 A JP31546695 A JP 31546695A JP H09161102 A JPH09161102 A JP H09161102A
Authority
JP
Japan
Prior art keywords
user
action
guidance
action pattern
automatic ticket
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31546695A
Other languages
Japanese (ja)
Inventor
Hisashi Kurosaki
久 黒埼
Koichi Matsukawa
公一 松川
Kenichi Sakari
健一 坂理
Naoya Kobayashi
直也 小林
Hiroyuki Wada
博行 和田
Makoto Yagi
誠 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP31546695A priority Critical patent/JPH09161102A/en
Publication of JPH09161102A publication Critical patent/JPH09161102A/en
Pending legal-status Critical Current

Links

Landscapes

  • Ticket-Dispensing Machines (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an action recognizing type automatic ticket issuing device with which induced guidance corresponding to the action pattern of user can be executed by recognizing the action of user while using image processing. SOLUTION: When an approach detector 2 detects the approach of user, an ITV camera 3 shoots the user and outputs the image to an action recognizing processing part 8. The action recognizing processing part 8 segments the area, where the prescribed section of user is shot, out of the input image and generates a control output by recognizing/classifying the action pattern of user based on the time sequential image data of that area. According to the control output, a guidance processing part 9 outputs the prescribed induced guidance corresponding to the recognized action pattern from a touch panel 4 and a speaker 7.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理を用いて
利用者の行動を認識し、その行動パターンに応じて操作
手順の誘導案内を行う行動認識型自動券売装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an action recognition type automatic ticket vending apparatus which recognizes a user's action using image processing and guides an operation procedure in accordance with the action pattern.

【0002】[0002]

【従来の技術】従来の自動券売装置としては、例えば、
駅等に設置され乗車券を発券する自動券売機等で広く一
般に利用されている。また、近年このような自動券売機
に様々な機能が付加されるようになり自動券売機の多機
能化が進んでいる。これに伴い操作手順が複雑になるこ
とも多く、機器の操作に不慣れな人にとっては操作を円
滑に進めることが難しい場合もある。このため、不慣れ
な人でも容易に機器操作を行えるように、例えば、ディ
スプレイ表示による操作案内や音声による操作案内等を
行って利用者の操作を誘導案内する自動券売装置が提案
されている。
2. Description of the Related Art As a conventional automatic ticket vending machine, for example,
It is widely used in automatic ticket vending machines, etc. that are installed at stations and issue tickets. Further, in recent years, various functions have been added to such an automatic ticket vending machine, and the automatic ticket vending machine is becoming multi-functional. As a result, the operation procedure is often complicated, and it may be difficult for a person who is unfamiliar with the operation of the device to smoothly perform the operation. Therefore, an automatic ticket vending apparatus has been proposed that guides the user's operation by, for example, performing operation guidance by a display or voice so that even an unfamiliar person can easily operate the equipment.

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来の操作手順を誘導案内する自動券売装置では、利用者
の意志や心理状態とは無関係に画一的な誘導案内が行わ
れているだけである。即ち、利用者の状態(意志・心理
等)、例えば、操作方法が判らなくて考え込んでいるの
か、間違った操作をしようとしているのか、あるいは、
操作方法は判っているがお金を探しているのか等、とは
関係なく操作が誘導案内される。従って、利用者がその
時に本当に必要とする操作案内が行われているとは限ら
ず、逆に、誘導案内が行われることによって利用者に心
理的負担を強いてしまう虞があった。
However, in such an automatic ticket vending apparatus for guiding and guiding the conventional operation procedure, uniform guiding guidance is provided regardless of the user's will and psychological state. Is. That is, the state of the user (will, psychology, etc.), for example, whether the user is thinking without knowing the operation method, is trying to perform the wrong operation, or
I know the operation method, but the operation is guided regardless of whether I am looking for money. Therefore, the operation guidance that the user really needs at that time is not always provided, and conversely, there is a risk that the guidance guidance is provided to impose a psychological burden on the user.

【0004】そこで、利用者に心理的負担を強いること
のない効果的なヒューマンインターフェースを有する装
置を実現する一つの手段として、利用者の状態を装置側
で理解して的確な誘導案内を行うようにすることが考え
られる。このためには、利用者の状態(意志・心理等)
は体の動き、即ち、行動に現れると考えられるので、自
動券売装置が利用者の行動を計測・認識できるようにす
る必要がある。
Therefore, as one means for realizing an apparatus having an effective human interface that does not impose a psychological burden on the user, it is necessary to understand the state of the user on the apparatus side and perform appropriate guidance. It is possible to To do this, the user's condition (will, psychology, etc.)
Is considered to appear in body movements, that is, in behavior, so it is necessary to enable the automatic ticket vending machine to measure and recognize the behavior of the user.

【0005】尚、特開平7−49969号公報で公知の
自動取引機において、接客面の所定位置に設置された複
数のセンサによって操作者(利用者)の手の存在位置を
検知し、この検知結果に基づいて操作者に適正な操作を
案内する構成の装置が提案されている。この自動取引機
によれば、例えば、操作者が手を伸ばして所定の操作を
行おうとしたが、操作者の手が本来あるべきではない場
所に位置していることがセンサにより検知されると、検
知した手の存在位置に応じて適正な操作位置を誘導案内
することによって、自動取引機の操作に不慣れな人で
も、また操作ステップの多い自動取引機でも戸惑うこと
なく容易に操作が行えるようにしたものである。しか
し、この自動取引機では、利用者の手が所定の位置に存
在するか否かを検知するだけであって、利用者の行動の
計測・認識が実施されているとは言い難く、利用者の意
志や心理状態に対応した的確な誘導案内を行うには不十
分である。
In the automatic transaction machine known in Japanese Patent Laid-Open No. 7-49969, the presence position of the hand of the operator (user) is detected by a plurality of sensors installed at predetermined positions on the customer service surface, and this detection is performed. There has been proposed an apparatus configured to guide an operator to an appropriate operation based on the result. According to this automatic transaction machine, for example, when the operator tries to perform a predetermined operation by reaching out his hand, the sensor detects that the operator's hand is located in a place where it should not be. By guiding and guiding the appropriate operating position according to the detected position of the hand, even people who are unfamiliar with the operation of automatic transaction machines and automatic transaction machines with many operation steps can easily operate without confusion. It is the one. However, this automated teller machine only detects whether or not the user's hand is at a predetermined position, and it is hard to say that the measurement and recognition of the user's behavior are carried out. It is not sufficient to provide accurate guidance and guidance that corresponds to the will and psychological state of.

【0006】本発明は上記のような点に着目してなされ
たもので、画像処理を用いて自動的に利用者の行動を認
識・処理し、利用者の行動パターンに対応して効果的な
誘導案内を実施する行動認識型自動券売装置を提供する
ことを目的とする。
The present invention has been made paying attention to the above points, and automatically recognizes and processes the behavior of the user by using image processing, and is effective in response to the behavior pattern of the user. It is an object of the present invention to provide an action recognition type automatic ticket vending device that provides guidance.

【0007】[0007]

【課題を解決するための手段】このため本発明では、操
作手順の誘導案内を行う自動券売装置であって、利用者
が前記自動券売装置に接近すると接近検知信号を出力す
る接近検知手段と、前記接近検知信号を開始トリガとし
て前記利用者を撮影する画像入力手段と、該画像入力手
段で撮影した入力画像から前記利用者の計測対象とする
所定の部位が撮影された領域を切り出す計測部位切り出
し手段と、前記切り出した領域の時系列画像データから
前記利用者の行動パターンを認識して予め設定した行動
パターンに分類する行動パターン認識手段と、該行動パ
ターン認識手段で分類した利用者の行動パターンに対応
して所定の誘導案内を出力する案内出力手段とを備えて
構成されることを特徴とする。
Therefore, according to the present invention, there is provided an automatic ticket vending apparatus for guiding operation procedures, the approach detecting means outputting an approach detection signal when a user approaches the automatic ticket vending apparatus. An image input unit that captures the user by using the approach detection signal as a start trigger, and a measurement region cutout that cuts out a region in which a predetermined region to be measured by the user is captured from an input image captured by the image input unit Means, an action pattern recognition means for recognizing the user's action pattern from the time-series image data of the cut-out region and classifying the action pattern into a preset action pattern, and the user's action pattern classified by the action pattern recognition means And a guidance output means for outputting a predetermined guidance.

【0008】かかる構成によれば、利用者が本装置に接
近し接近検知手段で検知されると接近検知信号が画像入
力手段に出力され、画像入力手段はその接近検知信号を
開始トリガとして利用者を撮影し、撮影した画像を計測
部位切り出し手段に出力する。計測部位切り出し手段で
は画像入力手段で撮影した入力画像より、利用者の行動
パターンを認識するための計測対象として、利用者の所
定の部位が撮影された画像領域を特定して切り出す。こ
の計測部位の切り出しを連続して送られてくる入力画像
について行い、切り出した領域の連続する変化を示す時
系列画像データに基づいて行動パターン認識手段で利用
者の行動パターンを認識して、その認識した行動パター
ンを予め設定した行動パターンに分類する。利用者の行
動パターンが認識・分類されると、その行動パターンに
対応する所定の誘導案内が案内出力手段から利用者に伝
達される。利用者はその誘導案内に従って操作を行う。
According to this structure, when the user approaches the apparatus and is detected by the approach detection means, the approach detection signal is output to the image input means, and the image input means uses the approach detection signal as a start trigger. Is photographed, and the photographed image is output to the measurement site cutout means. The measurement portion cutout unit specifies and cuts out an image region in which a predetermined portion of the user has been shot, as a measurement target for recognizing the user's action pattern, from the input image shot by the image input unit. This measurement site is cut out for the input image that is continuously sent, and the action pattern recognition means recognizes the action pattern of the user based on the time-series image data indicating the continuous change of the cut out region. The recognized behavior patterns are classified into preset behavior patterns. When the user's action pattern is recognized and classified, predetermined guidance information corresponding to the action pattern is transmitted from the guidance output means to the user. The user operates according to the guidance.

【0009】[0009]

【発明の実施の形態】以下、本発明の一実施形態を図面
に基づいて説明する。本実施形態では、例えば、乗車券
の発券処理を行う自動券売機に本発明の行動認識型自動
券売装置を適用した場合について説明する。図1には、
本実施形態に係る自動券売機1の機能ブロック図を示
し、図2には、自動券売機1の外観図を示す。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. In the present embodiment, for example, a case where the action recognition type automatic ticket vending apparatus of the present invention is applied to an automatic ticket vending machine that performs ticket issuing processing will be described. In FIG.
The functional block diagram of the automatic ticket vending machine 1 which concerns on this embodiment is shown, and the external view of the automatic ticket vending machine 1 is shown in FIG.

【0010】図2において、自動券売機1は接客面A
に、利用者が自動券売機1に接近すると接近検知信号を
出力する接近検知手段としての接近検知器2と、その接
近検知信号が発生すると利用者の撮影を開始する画像入
力手段としての、例えば、産業用テレビジョンカメラ3
(以下、ITVカメラ3とする)と、乗車券の区間や料
金、操作手順等を表示し、また、利用者が表示画面上を
触れることによって乗車区間や操作方法等の選択が行わ
れるタッチパネル4と、乗車券の購入料金が投入される
料金投入口5と、乗車券や釣銭が放出される放出口6
と、音声による誘導案内を出力するスピーカ7とが設け
られている。
In FIG. 2, the automatic ticket vending machine 1 has a customer service surface A.
In addition, an approach detector 2 as an approach detection unit that outputs an approach detection signal when the user approaches the automatic ticket vending machine 1 and an image input unit that starts photographing the user when the approach detection signal is generated, for example, , Industrial television cameras 3
(Hereinafter referred to as ITV camera 3), a section of a ticket, a fare, an operation procedure, and the like, and a touch panel 4 on which a user touches the display screen to select a boarding section, an operation method, and the like. And a charge slot 5 into which the purchase price of the ticket is inserted, and an outlet 6 from which the ticket and change are discharged.
And a speaker 7 for outputting voice guidance.

【0011】また、自動券売機1の内部には、図1に示
すように、ITVカメラ3で撮影した入力画像に基づい
て利用者の行動パターンを認識する行動認識処理部8
と、タッチパネル4、スピーカ7への表示や音声による
誘導案内の出力を制御する案内処理部9と、乗車券を発
行する発券処理部10と、利用者によって投入された料金
の金額を検出し釣銭を放出する料金処理部11と、自動券
売機1の各部の動作を制御するCPU12と、制御プログ
ラムを格納するROM13と、自動券売機1の制御に関す
るデータの記憶及び読み出しを行うRAM14と、各部を
接続するインターフェース回路15とが設けられている。
In the inside of the automatic ticket vending machine 1, as shown in FIG. 1, an action recognition processing section 8 for recognizing a user's action pattern based on an input image taken by the ITV camera 3.
And a guidance processing unit 9 that controls the display on the touch panel 4 and the speaker 7 and the output of voice guidance guidance, a ticketing processing unit 10 that issues a ticket, and a change amount that detects the amount of the fare inserted by the user. A charge processing unit 11 that discharges a ticket, a CPU 12 that controls the operation of each unit of the automatic ticket vending machine 1, a ROM 13 that stores a control program, a RAM 14 that stores and reads data relating to the control of the automatic ticket vending machine 1, and each unit. An interface circuit 15 for connection is provided.

【0012】CPU12は、インターフェース回路15を介
して、行動認識処理部8、案内処理部9、発券処理部1
0、料金処理部11、ROM13及びRAM14が接続され、
ROM14に格納された制御プログラムに従って各部を駆
動制御する。行動認識処理部8は、ITVカメラ3が接
続され、ITVカメラ3で撮影した入力画像から後述す
る利用者の計測対象部位が撮影された領域を切り出し、
その切り出した領域の時系列データに基づいて利用者の
行動パターンを認識する。
The CPU 12, via the interface circuit 15, the action recognition processing section 8, the guidance processing section 9, the ticket issuing processing section 1
0, charge processing unit 11, ROM13 and RAM14 are connected,
Each part is driven and controlled according to a control program stored in the ROM 14. The action recognition processing unit 8 is connected to the ITV camera 3 and cuts out a region where a measurement target part of a user, which will be described later, is photographed from an input image photographed by the ITV camera 3,
The behavior pattern of the user is recognized based on the time-series data of the cut out area.

【0013】案内処理部9は、タッチパネル4及びスピ
ーカ7が接続され、行動認識処理部8で認識した利用者
の行動パターンに対応して、予めRAM14に記憶させた
後述の制御テーブルに従い所定の誘導案内をタッチパネ
ル4に表示し、あるいは、スピーカ7に音声出力する。
発券処理部10は、タッチパネル4で利用者によって選択
された乗車区間の乗車券を発行し放出口6に放出する。
The guidance processing unit 9 is connected to the touch panel 4 and the speaker 7, and corresponds to the user's action pattern recognized by the action recognition processing unit 8 according to a control table described later stored in the RAM 14 in advance. The guidance is displayed on the touch panel 4 or voice output to the speaker 7.
The ticket issuing processor 10 issues a ticket for the boarding section selected by the user on the touch panel 4 and releases the ticket to the outlet 6.

【0014】料金処理部11は、料金投入口5に投入され
た金額を検出し、タッチパネル4で選択された乗車区間
の料金と投入金額との差額に応じた釣銭を放出口6に放
出する。従って、行動認識処理部8が計測部位切り出し
手段及び行動パターン認識手段として機能し、また、案
内処理部9、タッチパネル4及びスピーカ7が案内出力
手段として機能する構成である。
The charge processing unit 11 detects the amount of money inserted into the charge insertion port 5, and releases the change corresponding to the difference between the charge of the boarding section selected on the touch panel 4 and the input amount into the emission port 6. Therefore, the action recognition processing unit 8 functions as a measurement site cutout unit and an action pattern recognition unit, and the guidance processing unit 9, the touch panel 4, and the speaker 7 function as guidance output unit.

【0015】次に、本実施形態の動作について説明す
る。図3は、利用者が自動券売機1に接近してから乗車
券が発行されるまでの動作を示すフローチャートであ
る。図3において、利用者が自動券売機1の接客面Aに
接近すると、ステップ1(図中S1で示し、以下同様と
する)では、接近検知器2が利用者の接近を検知し接近
検知信号をITVカメラ3に出力する。
Next, the operation of this embodiment will be described. FIG. 3 is a flowchart showing the operation from the time when the user approaches the automatic ticket vending machine 1 until the ticket is issued. In FIG. 3, when the user approaches the customer service surface A of the automatic ticket vending machine 1, in step 1 (indicated by S1 in the figure, the same applies hereinafter), the approach detector 2 detects the approach of the user and outputs an approach detection signal. Is output to the ITV camera 3.

【0016】ステップ2では、ITVカメラ3が接近検
知信号の入力を開始トリガとして接客面Aの前に位置す
る利用者の撮影を開始し、撮影した画像信号を行動認識
処理部8に出力する。ステップ3では、行動認識処理部
8がITVカメラ3で連続して撮影された時系列の入力
画像より利用者の行動パターンを認識し、認識した行動
パターンに対応する制御出力を生成する。
In step 2, the ITV camera 3 starts the photographing of the user located in front of the customer service surface A by using the input of the approach detection signal as a start trigger, and outputs the photographed image signal to the action recognition processing section 8. In step 3, the action recognition processing unit 8 recognizes the action pattern of the user from the time-series input images continuously shot by the ITV camera 3, and generates a control output corresponding to the recognized action pattern.

【0017】ここで、ステップ3における行動認識処理
部8の処理動作について、図4に示す機能ブロック図を
参照しながら詳述する。図4において、行動認識処理部
8にITVカメラ3より画像が入力されると、行動認識
処理部8は、利用者の行動パターンを認識するためのパ
ラメータとして計測対象となる利用者の部位、例えば、
目、顔、腕等が撮影されている画像領域をそれぞれ入力
画像領域より特定し計測部位の画像領域を切り出す。一
例として、利用者の目を計測対象とした場合について具
体的に記述する。尚、目の動きの検出方法については、
大門 樹他:動画像処理によるドライバーの視線自動検
出,人間工学,Vol.31,No.1, 39 〜50, 1995. 等に詳し
いので、以下では検出方法の概略について説明する。
Here, the processing operation of the action recognition processing section 8 in step 3 will be described in detail with reference to the functional block diagram shown in FIG. In FIG. 4, when an image is input to the action recognition processing unit 8 from the ITV camera 3, the action recognition processing unit 8 uses, as a parameter for recognizing the action pattern of the user, the part of the user to be measured, for example, the part. ,
Image regions in which the eyes, face, arms, etc. are photographed are specified from the input image region, and the image region of the measurement site is cut out. As an example, the case where the user's eyes are the measurement target will be specifically described. Regarding the method of detecting eye movements,
J. Daimon et al .: Automatic detection of driver's line of sight by moving image processing, Ergonomics, Vol.31, No.1, 39 to 50, 1995. etc., so the outline of the detection method is explained below.

【0018】まず、入力画像領域より各画素の明度差等
に基づいて利用者の顔部分が撮影された領域を特定す
る。そして、顔領域より両目の位置を決定するために両
目と眉とを含むテンプレートのマッチングを行って両目
と眉を含む領域を切り出す。この切り出した領域内にお
いて両目と眉が黒画素となるような閾値で2値化処理を
行い、黒画素の連結部分をラベルづけし両目以外の部分
を除去して目の領域を抽出する。更に、抽出した目の領
域のエッジを検出し、エッジ画像を基に左右それぞれの
目の領域内で黒目(角膜)の中心位置を検出する。この
ようにして、ITVカメラ3より連続して送られてくる
各入力画像について、両目の中心位置の検出を繰り返し
実行して、両目の中心位置の連続する変化を示す時系列
画像データを取得する。
First, an area in which the face part of the user is photographed is specified from the input image area based on the brightness difference of each pixel. Then, a template including both eyes and eyebrows is matched to determine the positions of both eyes from the face area, and an area including both eyes and eyebrows is cut out. Binarization processing is performed with a threshold value such that both eyes and eyebrows become black pixels in the clipped area, the connected portion of black pixels is labeled, and the area other than both eyes is removed to extract the eye area. Further, the edge of the extracted eye region is detected, and the center position of the black eye (cornea) is detected in each of the left and right eye regions based on the edge image. In this manner, the detection of the center positions of both eyes is repeatedly performed for each input image continuously sent from the ITV camera 3 to acquire time-series image data indicating a continuous change of the center positions of both eyes. .

【0019】このようにして、目、顔、腕等の時系列画
像データが取得されると、各時系列画像データに基づい
て、それぞれの計測部位の変化を判断する。例えば、上
記両目の中心位置の連続する変化を示す時系列画像デー
タを基に利用者の目の動きを判断する場合には、時間的
に前後する入力画像の両目の中心位置を比較して目の移
動量を求め、その変化量から視線方向を判定して利用者
がどこを見ているかを推定し、視線がどの方向に移動し
たかによって目の動きを判断する。また、同様に顔や腕
についてもそれぞれの時系列画像データを用いて顔、腕
の位置や動きを判断する。このようにして判断した各計
測部位の変化より利用者の行動パターンを認識し、予め
設定した行動パターンに分類する。この分類は、例え
ば、事前に自動券売機1の利用者の行動を調査し、各操
作段階(料金投入段階、区間選択段階等)毎に発生し得
る複数の行動パターンを設定してRAM14に記憶してお
く。実際に利用者の行動パターンが認識されると、その
認識した行動パターンはRAM14に記憶した行動パター
ンと比較され、一致または類似する行動パターンに分類
される。例えば、料金投入段階において、利用者の視線
が料金投入口5の方向に位置せずタッチパネル4や放出
口6等の操作面A内を移動し、腕が静止した状態にある
ような行動パターンが認識された場合には、利用者は操
作方法が判らないか若しくは料金投入口5を探している
ときの行動パターンに分類される。また、利用者の腕が
タッチパネル4の方向に伸び、表示画面付近で動いてい
るような行動パターンが認識された場合には、利用者が
操作手順を間違えているときの行動パターンに分類され
る。あるいは、利用者の視線が操作面Aから離れ利用者
の身体の方向に位置し、腕が自動券売機1に接近しない
で身体の方で動いているような行動パターンが認識され
た場合には、利用者がお金を用意または探しているとき
の行動パターンに分類される。
In this way, when the time-series image data of the eyes, face, arms, etc. is acquired, the change of each measurement site is judged based on each time-series image data. For example, in the case of determining the user's eye movement based on the time-series image data indicating the continuous change of the center positions of both eyes, the center positions of both eyes of the input images that are temporally before and after are compared to each other. The amount of movement of the user is calculated, the direction of the line of sight is determined from the amount of change to estimate where the user is looking, and the eye movement is determined according to the direction in which the line of sight has moved. Similarly, for the face and the arm, the position and movement of the face and the arm are determined using the respective time-series image data. The behavior pattern of the user is recognized based on the change of each measurement site determined in this way, and is classified into a preset behavior pattern. In this classification, for example, the behavior of the user of the automatic ticket vending machine 1 is investigated in advance, and a plurality of behavior patterns that can occur at each operation stage (fee entry stage, section selection stage, etc.) are set and stored in the RAM 14. I'll do it. When the user's action pattern is actually recognized, the recognized action pattern is compared with the action pattern stored in the RAM 14 and classified into a matching or similar action pattern. For example, in the charge input stage, the user's line of sight is not located in the direction of the charge input port 5 and moves in the operation surface A of the touch panel 4 or the discharge port 6 and the action pattern is such that the arm is stationary. If it is recognized, the user does not know the operation method or is classified into the action pattern when looking for the charge slot 5. When the user's arm extends in the direction of the touch panel 4 and an action pattern in which the user's arm is moving near the display screen is recognized, the action pattern is classified when the user makes a mistake in the operation procedure. . Alternatively, when the user's line of sight is located away from the operation surface A in the direction of the user's body and an action pattern in which the arm is moving toward the body without approaching the automatic ticket vending machine 1 is recognized. , Users are categorized into behavior patterns when preparing or looking for money.

【0020】利用者の行動パターンが認識・分類される
と、その行動パターンに応じた誘導案内を行うため、行
動認識処理部8は予めRAM14に記憶させた前記制御テ
ーブルを参照して制御出力を発生する。制御テーブルに
は、各操作段階の行動パターン毎に案内処理部9を駆動
して所定の誘導案内を出力させる制御内容が設定されて
いる。この制御テーブルに従って認識した行動パターン
に対応する制御出力が、インターフェース回路15を介し
て行動認識処理部8より案内処理部9に出力される。具
体的には、前述の行動パターンの例において、操作方法
が判らないか若しくは料金投入口5を探しているときの
行動パターン及び操作手順を間違えているときの行動パ
ターンに対応する制御テーブルの制御内容は、案内処理
部9に料金投入を促す誘導案内と料金投入口5の位置を
示す誘導案内とを出力させる制御となる。また、お金を
用意または探しているときの行動パターンに対しては、
お金が用意され料金を投入しようとするまで次の案内を
行わないように案内処理部9を待機状態にさせる制御と
なる。
When the user's action pattern is recognized and classified, the action recognition processing section 8 refers to the control table stored in the RAM 14 in advance and outputs a control output in order to provide guidance according to the action pattern. Occur. In the control table, the control content for driving the guidance processing unit 9 and outputting predetermined guidance is set for each action pattern of each operation stage. The control output corresponding to the action pattern recognized according to this control table is output from the action recognition processing unit 8 to the guidance processing unit 9 via the interface circuit 15. Specifically, in the example of the above-mentioned action pattern, the control of the control table corresponding to the action pattern when the operation method is unknown or when the charge slot 5 is searched and the action pattern when the operation procedure is wrong The content is a control that causes the guidance processing unit 9 to output guidance guidance for prompting the charging of a fee and guidance guidance for indicating the position of the charging slot 5. Also, for the behavior pattern when preparing or looking for money,
Control is performed to put the guidance processing unit 9 in a standby state so that the next guidance is not performed until money is prepared and a fee is to be paid.

【0021】このようにして行動認識処理部8より制御
出力が発生してステップ3の動作が完了しステップ4に
移る。ステップ4では、案内処理部9が行動認識処理部
8からの制御出力を受けて、その制御内容をタッチパネ
ル4への表示案内、あるいは、スピーカ7への音声案内
に変換処理して、適切な誘導案内を利用者に伝達する。
In this way, the control output is generated from the action recognition processing section 8, the operation of step 3 is completed, and the process proceeds to step 4. In step 4, the guidance processing unit 9 receives the control output from the action recognition processing unit 8 and converts the control content into display guidance on the touch panel 4 or voice guidance to the speaker 7 for proper guidance. Communicate guidance to users.

【0022】ステップ5では、ステップ4で行われた案
内に従って利用者が料金投入等の操作を行う。このよう
にして乗車券の発行処理が完了するまで、ステップ2〜
ステップ5の動作、即ち、入力画像の取得、利用者の行
動パターンの認識、誘導案内の出力及び利用者の操作が
繰り返し実行される。尚、発券処理部10及び料金処理部
11の動作は、従来の自動券売機等で行われている動作と
同様であり、ここでの説明を省略する。
In step 5, the user performs an operation such as charging a fee according to the guidance given in step 4. Until the ticket issuing process is completed in this way,
The operation of step 5, that is, the acquisition of the input image, the recognition of the user's action pattern, the output of the guidance information, and the operation of the user are repeatedly executed. The ticket processing unit 10 and the fee processing unit
The operation of 11 is the same as the operation performed in the conventional automatic ticket vending machine or the like, and thus the description thereof is omitted here.

【0023】上述のように本実施形態によれば、自動券
売機1が利用者の行動を撮影・処理し、処理した時系列
のデータに基づいて利用者の行動パターンを自動的に認
識・分類することによって、利用者の意志や心理状態に
対応した効果的な誘導案内を実施することができる。従
って、利用者に心理的負担を強いるような誘導案内が行
われることを防止し、利用者が最も必要とする誘導案内
を自動的に行うことが可能である。
As described above, according to this embodiment, the automatic ticket vending machine 1 photographs and processes the behavior of the user, and automatically recognizes and classifies the behavior pattern of the user based on the processed time-series data. By doing so, it is possible to implement effective guidance and guidance that corresponds to the user's will and psychological state. Therefore, it is possible to prevent the guidance guidance that imposes a psychological burden on the user, and automatically perform the guidance guidance that the user most needs.

【0024】尚、上記の実施形態において、利用者の行
動パターンを認識する計測対象部位を目、顔、腕等とし
たが、計測対象部位は必要に応じて任意に設定すること
が可能である。また、接近検知手段に接近検知器を用い
る構成としたが、接近検知手段はこれに限らず、例え
ば、接近検知器を用いる代わりに入力画像を撮影するI
TVカメラで利用者の接近を検知する構成等も応用可能
である。加えて、案内出力手段はタッチパネルやスピー
カに限られるものではない。
In the above embodiment, the measurement target part for recognizing the user's behavior pattern is the eyes, face, arms, etc., but the measurement target part can be set arbitrarily as necessary. . Further, although the approach detector is configured to use the approach detector, the approach detector is not limited to this. For example, instead of using the approach detector, an input image is captured I
A configuration in which the TV camera detects the approach of the user is also applicable. In addition, the guidance output means is not limited to the touch panel and the speaker.

【0025】[0025]

【発明の効果】以上説明したように本発明によれば、画
像入力手段で利用者の行動を撮影し、計測部位切り出し
手段及び行動パターン認識手段で利用者の行動パターン
を自動的に認識して、その行動パターンに対応した誘導
案内を実施することによって、利用者の状態に応じた適
切な誘導案内を自動的に行うことが可能である。従っ
て、操作に不慣れな利用者に対しても、また、操作手順
の複雑な装置においても、利用者に心理的負担を強いる
ことのない効果的な誘導案内が実施できる。
As described above, according to the present invention, the action of the user is photographed by the image inputting means, and the action pattern of the user is automatically recognized by the measuring portion cutting means and the action pattern recognizing means. By performing guidance guidance corresponding to the action pattern, it is possible to automatically perform appropriate guidance guidance according to the state of the user. Therefore, even for a user who is not accustomed to the operation, or for a device having a complicated operation procedure, effective guidance guidance can be performed without imposing a psychological burden on the user.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る自動券売機の機能ブ
ロック図
FIG. 1 is a functional block diagram of an automatic ticket vending machine according to an embodiment of the present invention.

【図2】同上実施形態に係る自動券売機の外観図FIG. 2 is an external view of an automatic ticket vending machine according to the above embodiment.

【図3】同上実施形態の動作を説明するフローチャートFIG. 3 is a flowchart for explaining the operation of the embodiment;

【図4】同上実施形態の行動認識処理部の動作を説明す
る機能ブロック図
FIG. 4 is a functional block diagram illustrating an operation of an action recognition processing unit according to the above embodiment.

【符号の説明】[Explanation of symbols]

1 自動券売機 2 接近検知器 3 産業用テレビジョンカメラ(ITVカメラ) 4 タッチパネル 7 スピーカ 8 行動認識処理部 9 案内処理部 1 Automatic ticket vending machine 2 Approach detector 3 Industrial television camera (ITV camera) 4 Touch panel 7 Speaker 8 Action recognition processing section 9 Guidance processing section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小林 直也 埼玉県浦和市上木崎1丁目13番8号 日本 信号株式会社与野事業所内 (72)発明者 和田 博行 埼玉県浦和市上木崎1丁目13番8号 日本 信号株式会社与野事業所内 (72)発明者 八木 誠 埼玉県浦和市上木崎1丁目13番8号 日本 信号株式会社与野事業所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Naoya Kobayashi 1-13-8 Kamikizaki, Urawa-shi, Saitama Nihon Signal Co., Ltd. Yono Works (72) Inventor Hiroyuki Wada 1-1-13 Kamikizaki, Urawa-shi, Saitama No. 8 Japan Signal Co., Ltd. Yono Works (72) Inventor Makoto Yagi 1-13-8 Kamikizaki Urawa City, Saitama Prefecture Japan Signal Co., Ltd. Yono Works

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】操作手順の誘導案内を行う自動券売装置で
あって、利用者が前記自動券売装置に接近すると接近検
知信号を出力する接近検知手段と、前記接近検知信号を
開始トリガとして前記利用者を撮影する画像入力手段
と、該画像入力手段で撮影した入力画像から前記利用者
の計測対象とする所定の部位が撮影された領域を切り出
す計測部位切り出し手段と、前記切り出した領域の時系
列画像データから前記利用者の行動パターンを認識して
予め設定した行動パターンに分類する行動パターン認識
手段と、該行動パターン認識手段で分類した利用者の行
動パターンに対応して所定の誘導案内を出力する案内出
力手段とを備えて構成されることを特徴とする行動認識
型自動券売装置。
1. An automatic ticket vending apparatus for guiding operation procedures, the approach detecting means outputting an approach detection signal when a user approaches the automatic ticket vending apparatus, and the utilization using the approach detection signal as a start trigger. Image capturing means for capturing an image of a person, measurement region clipping means for clipping a region in which a predetermined region to be measured by the user is photographed from an input image photographed by the image inputting device, and a time series of the clipped region An action pattern recognition unit that recognizes the user's action pattern from image data and classifies it into a preset action pattern, and outputs a predetermined guidance corresponding to the user action pattern classified by the action pattern recognition unit An action recognition type automatic ticket vending machine, characterized by comprising:
JP31546695A 1995-12-04 1995-12-04 Action recognizing type automatic ticket issuing device Pending JPH09161102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31546695A JPH09161102A (en) 1995-12-04 1995-12-04 Action recognizing type automatic ticket issuing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31546695A JPH09161102A (en) 1995-12-04 1995-12-04 Action recognizing type automatic ticket issuing device

Publications (1)

Publication Number Publication Date
JPH09161102A true JPH09161102A (en) 1997-06-20

Family

ID=18065705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31546695A Pending JPH09161102A (en) 1995-12-04 1995-12-04 Action recognizing type automatic ticket issuing device

Country Status (1)

Country Link
JP (1) JPH09161102A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256514A (en) * 2000-03-10 2001-09-21 Oki Electric Ind Co Ltd Automatic ticket issuing machine
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2009217618A (en) * 2008-03-11 2009-09-24 Nec Corp Automatic machine, operation guide device, operation guiding method and operation guide program
JP2010191155A (en) * 2009-02-18 2010-09-02 Oki Networks Co Ltd Information presenting device and method
JP2011118835A (en) * 2009-12-07 2011-06-16 Omron Corp Medium issuing machine
JP2011154519A (en) * 2010-01-27 2011-08-11 Nippon Atm Kk Monitoring camera system
JP2012113437A (en) * 2010-11-22 2012-06-14 Hitachi Omron Terminal Solutions Corp Automatic ticket issuing machine
KR101442005B1 (en) * 2013-12-31 2014-09-24 (주)진명아이앤씨 An apparatus for broadcasting announcement message by using images information and the method thereof
JPWO2015029392A1 (en) * 2013-08-30 2017-03-02 パナソニックIpマネジメント株式会社 Makeup support device, makeup support method, and makeup support program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256514A (en) * 2000-03-10 2001-09-21 Oki Electric Ind Co Ltd Automatic ticket issuing machine
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
US8094881B2 (en) 2004-01-15 2012-01-10 Canon Kabushiki Kaisha Action recognition apparatus and method, moving-object recognition apparatus and method, device control apparatus and method, and program
JP2009217618A (en) * 2008-03-11 2009-09-24 Nec Corp Automatic machine, operation guide device, operation guiding method and operation guide program
JP2010191155A (en) * 2009-02-18 2010-09-02 Oki Networks Co Ltd Information presenting device and method
JP2011118835A (en) * 2009-12-07 2011-06-16 Omron Corp Medium issuing machine
JP2011154519A (en) * 2010-01-27 2011-08-11 Nippon Atm Kk Monitoring camera system
JP2012113437A (en) * 2010-11-22 2012-06-14 Hitachi Omron Terminal Solutions Corp Automatic ticket issuing machine
JPWO2015029392A1 (en) * 2013-08-30 2017-03-02 パナソニックIpマネジメント株式会社 Makeup support device, makeup support method, and makeup support program
KR101442005B1 (en) * 2013-12-31 2014-09-24 (주)진명아이앤씨 An apparatus for broadcasting announcement message by using images information and the method thereof

Similar Documents

Publication Publication Date Title
US10965837B2 (en) Authentication device and authentication method
EP1380884B1 (en) Face image photographing apparatus and face image photographing method
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
EP2105865B1 (en) Biometric authentication apparatus and biometric data registration apparatus
JPWO2009139214A1 (en) Display device and control method
EP1744264B1 (en) Biometric information registration apparatus and method
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP2008040827A (en) Image authentication device, image authentication method, image authentication program, recording medium, and electronic apparatus
JP2003098424A (en) Range finder based on image processing
JP4968922B2 (en) Device control apparatus and control method
US20110096995A1 (en) Image processing apparatus, image processing method, and program
KR19990016896A (en) Eye region detection method in face image
JPH09161102A (en) Action recognizing type automatic ticket issuing device
JP3395344B2 (en) Image processing device and doze alarm device using the same
KR20150001940A (en) An ATM capable of controlling the display interface using face recognition and the control method thereof
JPH10188103A (en) Operation guidance device for automatic equipment
US5615391A (en) System for an automated image media process station which displays images only while customer presence is detected thereby ensuring privacy
CN106933448A (en) The positioning display method and system of application program
JP2002215321A (en) Indicating image control device
JP2002323956A (en) Mouse alternating method, mouse alternating program and recording medium recording the same program
JP2001215109A (en) Iris image input apparatus
CN114503174B (en) Object recognition device, object recognition system, and object recognition method
JP2008036303A (en) Apparatus and program for image processing of corneal endothelium cell
JP2001266133A (en) Fingerprint matching device
CN108628640B (en) Terminal plugging guiding method and device for display equipment and display equipment

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040107

A02 Decision of refusal

Effective date: 20040210

Free format text: JAPANESE INTERMEDIATE CODE: A02