JP4848244B2 - Information guidance system and information guidance program - Google Patents

Information guidance system and information guidance program Download PDF

Info

Publication number
JP4848244B2
JP4848244B2 JP2006285370A JP2006285370A JP4848244B2 JP 4848244 B2 JP4848244 B2 JP 4848244B2 JP 2006285370 A JP2006285370 A JP 2006285370A JP 2006285370 A JP2006285370 A JP 2006285370A JP 4848244 B2 JP4848244 B2 JP 4848244B2
Authority
JP
Japan
Prior art keywords
moving
image data
extracting
discriminating
specific part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006285370A
Other languages
Japanese (ja)
Other versions
JP2008102781A (en
Inventor
潔 宮宗
亨 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Tokyo Metropolitan University
Original Assignee
Fuji Electric Co Ltd
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd, Tokyo Metropolitan University filed Critical Fuji Electric Co Ltd
Priority to JP2006285370A priority Critical patent/JP4848244B2/en
Publication of JP2008102781A publication Critical patent/JP2008102781A/en
Application granted granted Critical
Publication of JP4848244B2 publication Critical patent/JP4848244B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、街中、公共施設等を移動または利用する人に対して、移動支援情報、災害情報、事故情報、防犯情報、イベント情報などを案内するシステムおよびプログラムに関する。   The present invention relates to a system and program for guiding movement support information, disaster information, accident information, crime prevention information, event information, and the like to a person who moves or uses a public facility or the like in a city.

従来、駅や公園などの公共の場所において、例えば、トイレット等の場所や諸設備に関する説明を点字により表した触知盤を設置し、視覚障害者が情報を得られるようにすることが行われている。また、首から下げて身につけられるペンダント型送信装置のスイッチを手で押すことにより、所定の微弱電磁波を送信して、その微弱電磁波を受信装置で受信すると、音声再生装置が作動して、設備の案内情報が音声により得られる音声誘導案内システムもある。   Conventionally, in public places such as stations and parks, for example, a tactile board that displays braille descriptions of places and facilities such as toilets has been installed so that visually impaired persons can obtain information. ing. Moreover, when a predetermined weak electromagnetic wave is transmitted by pressing a switch of a pendant type transmission device worn by being lowered from the neck by hand and the weak electromagnetic wave is received by the receiving device, the sound reproducing device is activated, and the equipment There is also a voice guidance system for obtaining the guidance information by voice.

特許文献1には、送信装置内蔵のカードを携帯しているだけで、スイッチ操作を必要とせず、トイレット等の諸設備の近傍に設置した音声誘導案内装置に対し所定の距離範囲内に近付いた時点で、その設備について、音声による誘導案内情報が自動的に得られるようにして、各種施設の利用が一層しやすくなるようにした音声誘導案内システムが記載されている。   In Patent Document 1, only a card with a built-in transmitter is carried, no switch operation is required, and the voice guidance apparatus installed in the vicinity of various facilities such as a toilet is within a predetermined distance range. A voice guidance system has been described in which voice guidance guidance information is automatically obtained for the equipment at the time, thereby making it easier to use various facilities.

このように利用者のタイプによって案内サービスの種類を変えるシステムとして、携帯する無線カードの送信信号に盲人用、高齢者用、聴覚障害者用などのIDコードを設け、IDコードに対応して案内内容や案内手段(音声/画像)を変化させるシステムがある。   In this way, as a system that changes the type of guidance service depending on the type of user, ID codes for blind people, elderly people, hearing impaired people, etc. are provided in the transmission signal of the portable wireless card, and guidance is provided according to the ID code. There is a system that changes contents and guidance means (voice / image).

また案内サービスの開始や種類の選択の条件としてスイッチ操作や無線受信などがあるが、スイッチ操作無線機などの特別な携行品を必要としないシステムとして、特許文献2には、カメラ画像により白杖を認識し、盲人向けの案内サービスを行うシステムが記載されている。
特許第2839797号公報 特開2003−168110号公報
In addition, as a system that does not require a special item such as a switch-operated radio device as a condition for starting a guidance service or selecting a type, there is a switch operation or wireless reception. And a system for providing guidance services for blind people is described.
Japanese Patent No. 2839797 JP 2003-168110 A

従来の案内システムは、案内サービスの開始や種類の選択のためにスイッチ操作が必要となったり、特別な装置の携行が必要になったりするなど、利用者に対する負担が大きいという問題があった。また画像による白杖検出を条件としたシステムの場合は、杖の色や形状が一致すると、盲人でなくとも検出するという問題があった。   The conventional guidance system has a problem that a burden on the user is heavy, such as a switch operation is required for starting a guidance service or selecting a type, or a special device is required to be carried. In addition, in the case of a system based on detection of a white cane by image, there is a problem that if the color and shape of the cane match, it is detected even if it is not a blind person.

本発明の課題は、利用者が特別な装置を装着する等の負担がなく、高精度に利用者の種類を判別でき、判別された利用者の種類に応じた情報の案内を可能にする情報案内システムおよび情報案内プログラムを提供することである。   An object of the present invention is information that enables a user to determine the type of user with high accuracy without the burden of wearing a special device, and to guide information according to the determined type of user. It is to provide a guidance system and an information guidance program.

本発明は、上記課題を解決するため、下記のような構成を採用した。
すなわち、本発明の一態様によれば、本発明の情報案内システムおよび情報案内プログラムは、画像データを受信する画像データ受信手段と、前記画像データ受信手段が受信した画像データから動画領域を抽出する動画領域抽出手段と、前記動画領域抽出手段により抽出された動画領域から特定部位を抽出する特定部位抽出手段と、前記特定部位抽出手段
により抽出された特定部位に関する情報を判別する事例判別手段と、前記事例判別手段による判別結果に基づき移動物の種類を判別する移動物判別手段と、前記移動物判別手段による判別結果に基づき対応する案内を出力する案内出力手段と、を備える。
The present invention employs the following configuration in order to solve the above problems.
That is, according to one aspect of the present invention, an information guidance system and an information guidance program of the present invention extract image data receiving means for receiving image data, and a moving image area from image data received by the image data receiving means. A moving image region extracting unit; a specific portion extracting unit that extracts a specific portion from the moving image region extracted by the moving image region extracting unit; a case determining unit that determines information about the specific portion extracted by the specific portion extracting unit; A moving object discriminating unit that discriminates the type of the moving object based on a discrimination result by the case discriminating unit; and a guidance output unit that outputs a corresponding guide based on the discrimination result by the moving object discriminating unit.

また、前記移動物判別手段が、ファジィ推論またはファジィ連想推論により移動物の種類を判別することが望ましい。
本発明の情報案内システムおよび情報案内プログラムは、前記画像データ受信手段が、撮像装置によって撮像された画像データを受信し、前記動画領域抽出手段が、動作している人間の画像を動画領域として抽出し、前記特定部位抽出手段が、人間の顔部分又は人間の手部分を特定部位として抽出し、前記事例判別手段が、前記顔部分または前記手部分の移動方向、移動速度、移動範囲または前記顔部分と前記手部分との相対的位置関係を判別し、前記移動物判別手段が、前記人間が白杖者であるか否か、または車椅子使用者であるか否かを判別することが望ましい。
Further, it is desirable that the moving object discriminating means discriminates the type of moving object by fuzzy reasoning or fuzzy associative reasoning.
In the information guidance system and the information guidance program according to the present invention, the image data receiving unit receives image data captured by an imaging device, and the moving image region extracting unit extracts a moving human image as a moving image region. The specific part extracting means extracts a human face part or a human hand part as a specific part, and the case determining means is a moving direction, a moving speed, a moving range or the face of the face part or the hand part. It is desirable to determine the relative positional relationship between the portion and the hand portion, and the moving object determining means determines whether the person is a white cane person or a wheelchair user.

本発明によれば、利用者が特別な装置を装着する等の必要がないため、利用者の負担が軽減され、利用者の動作状況を分析するだけで、利用者の種類を判別することができ、その利用者に最も適切な案内をすることができる。   According to the present invention, since it is not necessary for the user to wear a special device or the like, the burden on the user can be reduced, and the type of user can be determined only by analyzing the operation status of the user. And can provide the most appropriate guidance to the user.

図1は、本発明の実施の形態に係る情報案内システムの機能ブロック図である。
本発明の実施の形態に係る情報案内システムは、映像撮影手段101、動き検出手段102、推論手段103、および出力手段104を備え、動き検出手段102は、映像取得手段102−1および映像データ入力手段102−2を備え、推論手段103は、メンバシップ関数手段103−1、事例ベース手段103−2、事例判別手段103−3、および移動物判別手段103−4を備える。
FIG. 1 is a functional block diagram of an information guidance system according to an embodiment of the present invention.
The information guidance system according to the embodiment of the present invention includes video photographing means 101, motion detection means 102, inference means 103, and output means 104. Motion detection means 102 includes video acquisition means 102-1 and video data input. The inference means 103 includes membership function means 103-1, case base means 103-2, case determination means 103-3, and moving object determination means 103-4.

映像撮影手段101は、例えばビデオカメラであり、例えば施設の入り口などの特定の場所に設置され、その場所を通る人物を撮影する。
ビデオカメラが一つの場合、対象である人物を横方向から撮影する。この場合、対象となる人物とビデオカメラとの相対距離は3〜5mが望ましい。ステレオ視の行える映像撮影手段101の場合は、例えば2台のビデオカメラで正面方向から人物の顔と手を撮影する。ステレオ視ではビデオカメラと対象となる人物との距離が計算できるため、対象となる人物とビデオカメラとの距離は自由に設定できる。
The video photographing means 101 is, for example, a video camera and is installed at a specific location such as an entrance of a facility, for example, and photographs a person passing through that location.
When there is one video camera, the subject person is photographed from the horizontal direction. In this case, the relative distance between the target person and the video camera is preferably 3 to 5 m. In the case of the video photographing means 101 capable of performing stereo viewing, for example, a human face and hand are photographed from the front direction with two video cameras. In stereo view, the distance between the video camera and the target person can be calculated, so the distance between the target person and the video camera can be set freely.

図2は、ステレオ視を説明するための図である。
図2において、対象201の座標をP(x,y,z)、対象201に対して左側のビデオカメラの座標をOLとし、対象201に対して右側のビデオカメラの座標をORとし、左側のビデオカメラにより撮影された画像中における対象201の像面の座標をP(X,Y)とし、右側のビデオカメラにより撮影された画像中における対象201の像面の座標をP(X,Y)とする。これら座標PおよびPは撮像面での画像中の座標を示している。
FIG. 2 is a diagram for explaining stereo viewing.
In FIG. 2, the coordinates of the object 201 are P (x, y, z), the coordinates of the left video camera with respect to the object 201 are OL, the coordinates of the right video camera with respect to the object 201 are OR, and the left The coordinates of the image plane of the object 201 in the image photographed by the video camera are P L (X L , Y L ), and the coordinates of the image plane of the object 201 in the image photographed by the right video camera are P R ( X R , Y R ). These coordinates P L and P R are the coordinates in the image on the imaging surface.

ここで、dは、左側のビデオカメラの画像の中心座標OLと、右側のビデオカメラの画像の中心座標ORとの相対距離であり、fは、左側のビデオカメラおよび右側のビデオカメラの焦点距離である。   Here, d is the relative distance between the center coordinate OL of the left video camera image and the center coordinate OR of the right video camera image, and f is the focal length of the left video camera and the right video camera. It is.

そして対象201の座標P(x,y,z)は下式(1)〜(3)により求められる。
x=d・X/(X−X) …(1)
y=d・Y/(X−X) …(2)
z=d・f/(X−X) …(3)
図1の説明に戻る。
Then, the coordinates P (x, y, z) of the object 201 are obtained by the following expressions (1) to (3).
x = d · X L / (X L −X R ) (1)
y = d · Y L / (X L −X R ) (2)
z = d · f / (X L −X R ) (3)
Returning to the description of FIG.

映像取得手段102−1は、映像撮影手段101から出力された映像データを取得し、この映像データから移動物体を抽出し、映像データ入力手段102−2に出力する。
移動物体を抽出する方法としては、例えば背景差分法がある。背景差分法は入力画像と背景画像の明度や輝度を比較し、その差分に基づいて移動物体を抽出する方法である。
The video acquisition unit 102-1 acquires the video data output from the video shooting unit 101, extracts a moving object from the video data, and outputs the moving object to the video data input unit 102-2.
As a method for extracting a moving object, for example, there is a background difference method. The background difference method is a method of comparing the brightness and luminance of an input image and a background image and extracting a moving object based on the difference.

図3は、背景差分法による映像の例を示すものである。
本実施の形態では、元の背景画像のRGB値と、入力となる画像データとの差分を取り、差分が閾値の範囲内にあるものは黒く表示し(背景変化無し)、閾値を超えたもの(背景画像に無いもの)はその映像を出力する。
FIG. 3 shows an example of an image by the background subtraction method.
In this embodiment, the difference between the RGB value of the original background image and the input image data is taken, and if the difference is within the threshold range, it is displayed in black (no background change) and exceeds the threshold value (Not in the background image) outputs the video.

移動物体を抽出する他の方法としては、フレーム間差分法などがあるが、本発明においては周囲の状況に応じて任意のものを使用できる。
図1の説明に戻る。
As another method for extracting a moving object, there is an inter-frame difference method or the like. In the present invention, any method can be used according to the surrounding situation.
Returning to the description of FIG.

映像データ入力手段102−2は、映像取得手段は102−1から出力された移動物体に対して、表示画面内で指定された部分をトラッキングする。
図4は、顔および手のトラッキングを示す図である。
In the video data input unit 102-2, the video acquisition unit tracks a portion designated in the display screen with respect to the moving object output from the unit 102-1.
FIG. 4 is a diagram illustrating face and hand tracking.

本実施の形態では、表示画面内で指定された色として肌色をトラッキングし、人間の画像の一部であると判断する。一定範囲内のトラッキング対象を一つのグループと判断し、グループ内の上部のトラッキング部分401を顔、下部のトラッキング部分402を手と認識している。   In the present embodiment, the skin color is tracked as the color designated in the display screen, and is determined to be a part of a human image. A tracking target within a certain range is determined as one group, and the upper tracking portion 401 in the group is recognized as a face and the lower tracking portion 402 is recognized as a hand.

顔と手の判別は、例えば肌色の部分の面積の大きさで判別し、両者のうち面積の大きい方を顔、小さい方を手と判別する。
そして、顔の重心座標、手の重心座標を計算する。さらに、計算した顔の重心座標、手の重心座標から、顔に対する手の相対的な位置や、所定の時間あたりの顔の位置の座標の差から人物の移動速度などを計算する。
For example, the face and the hand are discriminated based on, for example, the size of the area of the skin color portion, and the larger one of the two is discriminated as the face and the smaller one as the hand.
Then, the center of gravity coordinates of the face and the center of gravity coordinates of the hand are calculated. Further, from the calculated center of gravity coordinates of the face and the center of gravity coordinates of the hand, the relative position of the hand with respect to the face and the movement speed of the person are calculated from the difference in the coordinates of the position of the face per predetermined time.

図1の説明に戻る。
映像データ入力手段102−2は、上述のようにして計算したそれぞれのデータをメンバシップ関数手段103−1に出力する。
Returning to the description of FIG.
The video data input means 102-2 outputs each data calculated as described above to the membership function means 103-1.

メンバシップ関数手段103−1は、メンバシップ関数を記憶しており、入力値からメンバシップ関数に基づき、該入力値に対応するメンバシップ値を出力する。
本実施の形態では、複数の特徴のある動きのメンバシップ関数を使用する。
The membership function means 103-1 stores a membership function, and outputs a membership value corresponding to the input value based on the membership function from the input value.
In the present embodiment, a plurality of characteristic motion membership functions are used.

入力値は「手の動き」、「移動速度」、「顔と手の位置」の3種類であり、それぞれのメンバシップ関数を事前に作成しておき、メンバシップ関数手段103−2に記憶しておく。   There are three types of input values: “hand movement”, “moving speed”, and “face and hand position”. Each membership function is created in advance and stored in membership function means 103-2. Keep it.

図5(a)は、本実施の形態に係る手の動きのグラフを表す図である。縦軸は顔に対する手の水平方向の相対的な位置であり、横軸は時刻である。
図5(a)の実線で表されたグラフ501は健常者の手の位置を表すグラフであり、極値点506、507等を有する。また、点線で表されたグラフ502は白杖を使用する視覚障害者である白杖者の手の位置を表すグラフであり、極値点508、509等を有する。なお、ここで、健常者とは、歩行する上で支障が殆ど無い者を指し、白杖者や車椅子を
使用する車椅子使用者以外の者を指す。また、本実施の形態における移動物として、健常者と白杖者の例を用いて説明するが、健常者と車椅子使用者、あるいは、健常者、白杖者および車椅子使用者であっても良い。
FIG. 5A is a diagram illustrating a hand movement graph according to the present embodiment. The vertical axis is the horizontal position of the hand relative to the face, and the horizontal axis is the time.
A graph 501 represented by a solid line in FIG. 5A is a graph representing the position of the hand of a healthy person, and has extreme points 506, 507, and the like. A graph 502 represented by a dotted line is a graph representing the position of the hand of a white cane who is a visually handicapped person using a white cane, and has extreme points 508, 509, and the like. Here, a healthy person refers to a person who has little trouble in walking, and refers to a person other than a white cane person or a wheelchair user who uses a wheelchair. Moreover, although the moving object in this Embodiment demonstrates using the example of a healthy person and a white cane person, a healthy person and a wheelchair user, or a healthy person, a white cane person, and a wheelchair user may be sufficient. .

図5(b)は、本実施の形態に係る手の動きのメンバシップ関数を表す図である。縦軸はメンバシップ値、横軸は極値の差分を表す。
図5(b)において、手の動きの度合を示すメンバシップ関数はμ1S503、μ1M504、およびμ1B505であり、メンバシップ関数μ1S503、μ1M504、μ1B505のラベルはそれぞれ小、中、大である。
FIG. 5B is a diagram illustrating a hand movement membership function according to the present embodiment. The vertical axis represents the membership value, and the horizontal axis represents the difference between the extreme values.
In FIG. 5B, membership functions indicating the degree of hand movement are μ 1S 503, μ 1M 504, and μ 1B 505, and the labels of the membership functions μ 1S 503, μ 1M 504, and μ 1B 505 are Each is small, medium and large.

図6は、手の動きを表すモデルであり、(a)は健常者の場合のモデル、(b)は白杖者の場合のモデルを表す図である。
健常者は通常歩くときに図6(a)に示されるように顔601に対して手602を前後に動かすため、図5(a)に示したグラフ501のような振幅の大きいグラフが得られる。他方、白杖者は歩くときに白杖を前に出したまま歩くため、図6(b)に示されるように顔603に対して手604を前方に位置したまま、しかもほとんど前後に動かず、図5(a)に示したグラフ502のような振幅の小さいグラフが得られる。
FIGS. 6A and 6B are models representing hand movements. FIG. 6A is a diagram illustrating a model for a healthy person, and FIG. 6B is a diagram illustrating a model for a white cane person.
Since a healthy person moves his / her hand 602 back and forth with respect to the face 601 as shown in FIG. 6A when walking normally, a graph with a large amplitude like the graph 501 shown in FIG. 5A is obtained. . On the other hand, since the white cane person walks with the white cane in front when walking, the hand 604 is positioned forward with respect to the face 603 as shown in FIG. A graph with a small amplitude like the graph 502 shown in FIG.

本実施の形態において、例えば図5(a)に示したグラフ501が得られると、ある任意の2点の極値の差分を計算する。例えば、上の極値点505と下の極値点506を用いると、それぞれの極値は70と−90であるので、その差分は70−(−90)=160となる。   In the present embodiment, for example, when the graph 501 shown in FIG. 5A is obtained, the difference between the extreme values of any two arbitrary points is calculated. For example, if the upper extremum point 505 and the lower extremum point 506 are used, the respective extrema are 70 and -90, and therefore the difference is 70-(-90) = 160.

これを図5(b)のメンバシップ関数に当てはめると、μ1S(160)=0、μ1M(160)=0、μ1B(160)=1となる。すなわち、ラベル小のメンバシップ関数μ1S503のメンバシップ値が0、ラベル中のメンバシップ関数μ1M504のメンバシップ値が0、ラベル大のメンバシップ関数μ1B505のメンバシップ値が1ということになる。 When this is applied to the membership function of FIG. 5B, μ 1S (160) = 0, μ 1M (160) = 0, and μ 1B (160) = 1. That is, the membership value of the membership function μ 1S 503 with a small label is 0, the membership value of the membership function μ 1M 504 in the label is 0, and the membership value of the membership function μ 1B 505 with a large label is 1 It will be.

また同様に、図5(a)に示したグラフ502が得られた場合、極値点507および508の極値の差分を計算すると、10−(−10)=20となり、これを図5(b)のメンバシップ関数に当てはめると、μ1S(20)=1、μ1M(20)=0、μ1B(20)=0となる。すなわち、ラベル小のメンバシップ関数μ1S503のメンバシップ値が1、ラベル中のメンバシップ関数μ1M504のメンバシップ値が0、ラベル大のメンバシップ関数μ1B505のメンバシップ値が0ということになる。 Similarly, when the graph 502 shown in FIG. 5A is obtained, the difference between the extreme values of the extreme points 507 and 508 is calculated to be 10 − (− 10) = 20, which is shown in FIG. When applied to the membership function of b), μ 1S (20) = 1, μ 1M (20) = 0, and μ 1B (20) = 0. That is, the membership value of the membership function μ 1S 503 with a small label is 1, the membership value of the membership function μ 1M 504 in the label is 0, and the membership value of the membership function μ 1B 505 with a large label is 0. It will be.

図7(a)は、本実施の形態に係る移動速度のグラフを表す図である。縦軸は移動速度であり、横軸は時刻である。
図7(a)の実線で表されたグラフ701は健常者の移動速度を表すグラフであり、点線で表されたグラフ702は白杖者の移動速度を表すグラフである。通常、健常者のほうが移動速度が早くなる。
FIG. 7A is a diagram illustrating a moving speed graph according to the present embodiment. The vertical axis is the moving speed, and the horizontal axis is the time.
A graph 701 represented by a solid line in FIG. 7A is a graph representing the movement speed of a healthy person, and a graph 702 represented by a dotted line is a graph representing the movement speed of a white cane person. Usually, a healthy person has a faster moving speed.

図7(b)は、本実施の形態に係る移動速度のメンバシップ関数を表す図である。縦軸はメンバシップ値、横軸は移動速度を表す。
移動速度の度合を示すメンバシップ関数はμ2S703およびμ2B704であり、それぞれのラベルは遅いおよび普通である。
FIG. 7B is a diagram showing a membership function of the moving speed according to the present embodiment. The vertical axis represents the membership value, and the horizontal axis represents the moving speed.
Membership functions indicating the degree of moving speed are μ 2S 703 and μ 2B 704, and the respective labels are slow and normal.

本実施の形態において、例えばグラフ701が得られると、所定の時間内における速度の平均を計算する。例えば、時刻2〜4秒の速度の平均を計算すると、2000が得られる。   In the present embodiment, for example, when a graph 701 is obtained, an average of speeds within a predetermined time is calculated. For example, if the average of the speeds at times 2 to 4 seconds is calculated, 2000 is obtained.

これを図7(b)のメンバシップ関数に当てはめると、μ2S(2000)=0、μ2B(2000)=1となる。すなわち、ラベル遅いのメンバシップ関数703のメンバシップ値が0、ラベル普通のメンバシップ関数704のメンバシップ値が1ということになる。 When this is applied to the membership function of FIG. 7B, μ 2S (2000) = 0 and μ 2B (2000) = 1. In other words, the membership value of the late label membership function 703 is 0, and the membership value of the normal label membership function 704 is 1.

また同様に、グラフ702が得られた場合、時刻2〜4秒の速度の平均を計算すると、500となり、これを図7(b)のメンバシップ関数に当てはめると、μ2S(500)=0.8、μ2B(500)=0となる。すなわち、ラベル遅いのメンバシップ関数703のメンバシップ値が0.8、ラベル普通のメンバシップ関数704のメンバシップ値が0ということになる。 Similarly, when the graph 702 is obtained, the average of the velocities at times 2 to 4 seconds is calculated to be 500. When this is applied to the membership function of FIG. 7B, μ 2S (500) = 0. .8, μ 2B (500) = 0. That is, the membership value of the membership function 703 with the late label is 0.8, and the membership value of the membership function 704 with the normal label is 0.

図8(a)は、本実施の形態に係る顔と手の位置関係を表すグラフである。縦軸は顔に対する手の水平方向の相対的な位置であり、横軸は時刻である。
図8(a)の実線で表されたグラフ801は健常者の手の位置を表すグラフであり、極値点805等を有する。また、点線で表されたグラフ802は白杖者の手の位置を表すグラフであり、極値点806等を有する。
FIG. 8A is a graph showing the positional relationship between the face and the hand according to the present embodiment. The vertical axis is the horizontal position of the hand relative to the face, and the horizontal axis is the time.
A graph 801 represented by a solid line in FIG. 8A is a graph representing the position of the hand of a healthy person, and has extreme points 805 and the like. A graph 802 represented by a dotted line is a graph representing the position of the hand of a white cane and has an extreme point 806 and the like.

図8(b)は、本実施の形態に係る顔と手の位置関係のメンバシップ関数を表す図である。縦軸はメンバシップ値、横軸は手の位置を表す。
手の位置が前方向のみか前後に変化するかの度合を示すメンバシップ関数はμ3S803およびμ3B804であり、それぞれのラベルは一定
および変化である。
FIG. 8B is a diagram showing the membership function of the positional relationship between the face and the hand according to the present embodiment. The vertical axis represents the membership value, and the horizontal axis represents the hand position.
Membership functions that indicate the degree to which the hand position changes only forward or back and forth are μ 3S 803 and μ 3B 804, and each label is constant.
And change.

本実施の形態において、例えばグラフ801が得られると、ある極値を用いてその極値に対応するメンバシップ値を求める。例えば、極値点805を用いると、その極値は35である。   In this embodiment, for example, when a graph 801 is obtained, a membership value corresponding to the extreme value is obtained using a certain extreme value. For example, when an extreme point 805 is used, the extreme value is 35.

これを図8(b)のメンバシップ関数に当てはめると、μ3S(35)=0、μ3B(35)=1となる。すなわち、ラベル一定のメンバシップ関数803のメンバシップ値が0、ラベル変化のメンバシップ関数804のメンバシップ値が1ということになる。 When this is applied to the membership function of FIG. 8B, μ 3S (35) = 0 and μ 3B (35) = 1. That is, the membership value of the constant label membership function 803 is 0, and the membership value of the label change membership function 804 is 1.

また同様に、グラフ802が得られた場合、極値点806の極値は4であり、これを図8(b)のメンバシップ関数に当てはめると、μ3S(4)=0.6、μ3B(4)=0.4となる。すなわち、ラベル一定のメンバシップ関数803のメンバシップ値が0.6、ラベル変化のメンバシップ関数804のメンバシップ値が0.4ということになる。 Similarly, when the graph 802 is obtained, the extreme value of the extreme point 806 is 4, and when this is applied to the membership function of FIG. 8B, μ 3S (4) = 0.6, μ 3B (4) = 0.4. That is, the membership value of the constant label membership function 803 is 0.6, and the membership value of the label change membership function 804 is 0.4.

図1の説明に戻る。
事例ベース手段103−2は、事例ベースを記憶しており、本実施の形態においては、事例ベースをファジィルールとして推論を行う。
Returning to the description of FIG.
The case base unit 103-2 stores a case base, and in this embodiment, inference is performed using the case base as a fuzzy rule.

図9は、本実施の形態に係る事例ベースの例を示す図である。
図9に示した事例ベースの例には、下記の4つのルールが記憶されている。
ルールA:if 手の動き is 小 & 速度 is 遅い & 顔と手の位置関係 is 一定 then 白杖者
ルールB:if 手の動き is 小 & 速度 is 普通 & 顔と手の位置関係 is 一定then 白杖者
ルールC:if 手の動き is 中 & 速度 is 普通 & 顔と手の位置関係 is 変化 then 健常者
ルールD:if 手の動き is 大 & 速度 is 普通 & 顔と手の位置関係 is 変化 then 健常者
ここで、例えば、上記ルールAは、もし手の動きが小さく、かつ移動速度が遅く、かつ
手と顔の位置関係が一定であれば、動作しているのは白杖者である、というルールである。
FIG. 9 is a diagram illustrating an example of a case base according to the present embodiment.
In the example of the case base shown in FIG. 9, the following four rules are stored.
Rule A: if hand movement is small & speed is slow & face and hand position is constant then white cane Rule B: if hand movement is small & speed is normal & face and hand position is constant then white Cane Rule C: if hand movement is medium & speed is normal & face and hand position is change then normal person Rule D: if hand movement is large & speed is normal & face and hand position is change then Healthy Person Here, for example, the rule A is that if the hand movement is small, the moving speed is slow, and the positional relationship between the hand and the face is constant, it is the white cane that is operating. This is the rule.

図1の説明に戻る。
事例判別手段103−3は、入力値と事例ベースの値の比較を行う。すなわち、入力値の事例ベース手段103−2に格納された各ルールに対する適合度を計算する。具体的には、メンバシップ値のファジィ論理演算ANDを行う。計算した適合度が閾値(例えば、0.2。この値は、状況に応じて変更できる。)より大きい場合は移動物判別手段103−4に移行する。閾値は0から1までの0.1刻みで設定され、1のときはメンバシップ関数に依存し、0のときは事例の判別は行われない。それ以外の部分はメンバシップ関数の重みに依存し、事例の判別を行う。もし、各ルールに対する適合度がすべて閾値内の場合、すなわち既存の事例ベースに適合するようなルールが無かった場合、そのときの入力値を新しい事例として、事例ベースに格納する。その際、事例ベースに格納される値は事例のデータのみであり、その事例に対する出力が何であるかは後からユーザが与える。
Returning to the description of FIG.
The case determination unit 103-3 compares the input value with the case base value. That is, the fitness of each input value for each rule stored in the case base means 103-2 is calculated. Specifically, a fuzzy logic operation AND of membership values is performed. When the calculated fitness is larger than a threshold value (for example, 0.2. This value can be changed according to the situation), the process proceeds to the moving object determination unit 103-4. The threshold value is set in increments of 0.1 from 0 to 1. When it is 1, it depends on the membership function, and when it is 0, the case is not discriminated. The other part depends on the weight of the membership function, and the case is discriminated. If the matching degrees for each rule are all within the threshold value, that is, if there is no rule that matches the existing case base, the input value at that time is stored in the case base as a new case. At that time, the value stored in the case base is only the data of the case, and the user gives later what the output for the case is.

移動物判別手段103−4は、メンバシップ関数手段103−1の出力および事例ベース手段103−2に記憶された内容に基づき、移動物が何であるかを推論する。例えば、移動物が健常者であるのか、白杖者であるのか、車椅子使用者であるのか等を推論する。   The moving object discriminating means 103-4 infers what the moving object is based on the output of the membership function means 103-1 and the contents stored in the case base means 103-2. For example, it is inferred whether the moving object is a healthy person, a white cane person, or a wheelchair user.

移動物判別手段103−4は、ファジィ連想推論またはファジィ推論で推論し、状況に応じて切換えて使うことができる。
ファジィ連想推論により推論する場合、移動物判別手段103−4は、ファジィ連想推論システムにより構成される。ファジィ連想推論システムの基本構成要素は、ニューラルネットワークの双方向連想記憶(BAM:Bi-directional Associative Memory)である。ファジィ連想推論は、BAMを複数個用いたネットワークを構成し、活性値の伝搬を繰り返す反響動作によって推論を行う。まず双方向連想記憶について説明する。
The moving object discriminating means 103-4 can be inferred by fuzzy associative inference or fuzzy inference, and can be switched according to the situation.
When inferring by fuzzy associative reasoning, the moving object discriminating means 103-4 is constituted by a fuzzy associative reasoning system. A basic component of the fuzzy associative reasoning system is a bidirectional associative memory (BAM) of a neural network. In fuzzy associative reasoning, a network using a plurality of BAMs is constructed, and inference is performed by an echo operation that repeats propagation of active values. First, bidirectional associative memory will be described.

図10は、双方向連想記憶のネットワーク構成を示す図である。
図10に示すように、レイヤLとレイヤLにより構成されるネットワークがあり、レイヤLには複数のノードa,a,…,aが存在し、レイヤLには複数のノードb,b,…,bが存在する。ノード間の結合の重みは、連想マトリクスM∈Rn×pによって表現される。この連想マトリクスMがレイヤLとレイヤLに対してパターンA∈R、B∈Rのペアを銘記しているとすると、レイヤLにノイズを含んだA’∈Rを与えたとしても、レイヤLとレイヤLとの間で反響動作をさせることにより、パターンBが想起される。逆に、レイヤLにノイズを含んだパターンB’∈Rを与えてもパターンAが想起される。この双方向連想記憶における連想は、以下の式(4)および(5)によって行われる。
FIG. 10 is a diagram illustrating a network configuration of bidirectional associative memory.
As shown in FIG. 10, there is a network constituted by the layer L A and layer L B, the layer L plurality of nodes to A a 1, a 2, ... , there is a n, a plurality in layers L B Nodes b 1 , b 2 ,..., B p exist. The connection weight between nodes is expressed by an association matrix MεR n × p . Pattern A∈R n for this association matrix M Layer L A and layer L B, when to be noted the pair B∈R p, given A'∈R n containing noise to the layer L A as also, by the echo operation between layers L a and layer L B, the pattern B is recalled. Conversely, the pattern A will occur can give a pattern B'∈R p containing noise to the layer L B. Association in this bidirectional associative memory is performed by the following equations (4) and (5).

ここで、a(t)、b(t)は、ステップtにおける各ノードの活性値ベクトルであり、区分[0,1]に属する値をとる。{0,1}の値としてもよい。φは各ノードA(t)=(a(t),a(t),…,a(t))、B(t)=(b(t),b(t),…,b(t))が持つ関数であり、例えばシグモイド関数が用いられる。また、連想マトリクスMは、銘記したいパターンペアが(A,B),…,(A,B)とすると、以下の式(6)および(7)で求められる。 Here, a i (t) and b j (t) are active value vectors of the respective nodes in step t and take values belonging to the section [0, 1]. It may be a value of {0, 1}. φ represents each node A (t) = (a 1 (t), a 2 (t),..., a n (t)), B (t) = (b 1 (t), b 2 (t),. , B p (t)), for example, a sigmoid function is used. The associative matrix M is obtained by the following equations (6) and (7), where the pattern pairs to be recorded are (A 1 , B 1 ),..., (A m , B m ).

ここで、βは連想係数である。Koskoの手法では、連想マトリクスMを求めるとき、{0,1}のパターンペアをバイポーラ変換したパターンペアを用いている。しかしながら、このKoskoの手法で求められた連想マトリクスMを用いると、ネットワークが飽和状態を引き起こす可能性があるので調整が必要となる。この問題を解決するために、連想マトリクスMの正規化の手法が提案されている。そこで、本実施の形態で用いるファジイ連想記憶システムでは、この正規化手法により求めた正規化連想マトリクスを用いる。 Here, β i is an associative coefficient. In the Kosko method, when an associative matrix M is obtained, a pattern pair obtained by bipolar conversion of a pattern pair of {0, 1} is used. However, if the association matrix M obtained by this Kosko technique is used, the network may cause a saturation state, and adjustment is necessary. In order to solve this problem, a method for normalizing the associative matrix M has been proposed. Therefore, in the fuzzy associative memory system used in the present embodiment, a normalized associative matrix obtained by this normalization method is used.

次に、ファジイ連想記憶システムの構築手法について説明する。
図11は、本実施の形態のファジィ連想システムの概念図である。
レイヤの設定は、ファジイルールの前件部を代表するレイヤをIf(X)レイヤ(これは図1に示したメンバシップ関数手段103−1に対応する)、後件部を代表するレイヤをThen(Y)レイヤとする。If(X)レイヤ内のノードは前件部のファジイ集合(メンバシップ関数)を、Then(Y)レイヤ内のノードは後件部のファジイ集合(メンバシップ関数)、あるいは入出力関数を代表する。また、前件部と後件部の相関はBAMの記憶できる制約を越えているので、1つのノードが1つのルールを代表するRule(R)レイヤを設定する。したがって、ファジイルールはIf(X)レイヤとRule(R)レイヤ間(連想マトリクスMxr)にBAMを構成することで表現できる。さらに、R
ule(R)レイヤには、あいまいさの爆発を防ぐために、他のノードの活性化を抑制する働きをもつコーディネータ結合(Mrr)を設定する。コーディネータ結合とは、同一レイヤ内の任意のノードにおいて、自分に対しては正の重みで結合し、他のノードに対しては負の重みで結合することである。
Next, a method for constructing a fuzzy associative memory system will be described.
FIG. 11 is a conceptual diagram of the fuzzy associative system of the present embodiment.
In the layer setting, the layer representing the antecedent part of the fuzzy rule is the If (X) layer (this corresponds to the membership function means 103-1 shown in FIG. 1), and the layer representing the consequent part is Then. (Y) Layer. A node in the If (X) layer represents a fuzzy set (membership function) of the antecedent part, and a node in the Then (Y) layer represents a fuzzy set (membership function) of the consequent part or an input / output function. . Further, since the correlation between the antecedent part and the consequent part exceeds the limit that BAM can store, one node sets a Rule (R) layer representing one rule. Therefore, the fuzzy rule can be expressed by configuring a BAM between the If (X) layer and the Rule (R) layer (associative matrix M xr ). In addition, R
In the ule (R) layer, in order to prevent the explosion of ambiguity, a coordinator combination (M rr ) having a function of suppressing activation of other nodes is set. Coordinator coupling means coupling to a node with a positive weight at an arbitrary node in the same layer and coupling to another node with a negative weight.

次に、図11のネットワーク構成を例にメモリ上への構築の概念を説明する。まず、各々のレイヤ間の連想マトリクスを求めるため、ファジイルールの相関を区間[0,1]に属する値に置き換える。場合により、{0,1}で示される0または1の2値に置き換えてもよい。例えば、図9のファジィルールを置き換えると、その結果は以下の式(8)のようになる。   Next, the concept of construction on the memory will be described by taking the network configuration of FIG. 11 as an example. First, in order to obtain an association matrix between each layer, the correlation of fuzzy rules is replaced with a value belonging to the interval [0, 1]. In some cases, a binary value of 0 or 1 indicated by {0, 1} may be substituted. For example, when the fuzzy rule in FIG. 9 is replaced, the result is as shown in the following equation (8).

この式(8)では、一例として相関を{0,1}で示される0と1の2値で示しているが、これに限定されるものではないことはもちろんである。 In this equation (8), as an example, the correlation is represented by binary values of 0 and 1 represented by {0, 1}, but it is needless to say that the present invention is not limited to this.

この算出結果を銘記すべきパターンペアとして、式(6)および(7)により、各々のレイヤ間の連想マトリクスを求める。ただし、バイポーラ変換したパターンペアを用いて求めるKoskoの手法はとらない。   Using this calculation result as a pattern pair to be recorded, an associative matrix between each layer is obtained by the equations (6) and (7). However, the Kosko method obtained using a pattern pair obtained by bipolar conversion is not used.

前述のとおり、本実施の形態にて使用するファジイ連想記憶システムは、正規化連想マトリクスを推論時に用いる。よって、ここで求められた連想マトリクスは保存し、以下の式(9)により正規化連想マトリクスMを求める。 As described above, the fuzzy associative memory system used in the present embodiment uses a normalized associative matrix at the time of inference. Thus, where an associative matrix obtained saves obtains the normalized associative matrix M e by the following equation (9).

=a(M+B) …(9)
ここで、各パラメータは以下の通りである。
M e = a (M + B) (9)
Here, each parameter is as follows.

ただし、M,M,B∈Rm×n、mijはMの(i,j)要素とする。
実施の形態において、連想マトリクスや正規化連想マトリクスは推論を行う前にあらかじめ計算しておき、例えば、移動物判別手段103−4に記憶しておく。
Here, M, M e , BεR m × n , and m ij are M (i, j) elements.
In the embodiment, the associative matrix and the normalized associative matrix are calculated in advance before performing the inference, and are stored in, for example, the moving object discriminating unit 103-4.

ここで、複数のルールセットが定義されている場合、以上の処理をルールセットの数だけ繰り返し複数のネットワークを提案する。そして、ルールセット間の結合に関する情報をテキストファイルから読み込み、それぞれのネットワークを結合する。また、推論時は、定義したルールセット間の結合の重み(連想マトリクス)も正規化して用いる。ここから、ファジイルールRにより構築されたネットワークをネットワークRと表記する。   Here, when a plurality of rule sets are defined, the above processing is repeated by the number of rule sets to propose a plurality of networks. Then, information relating to the connection between the rule sets is read from the text file, and the respective networks are connected. At the time of inference, the weight (association matrix) of the connection between defined rule sets is also normalized. From here, the network constructed by the fuzzy rule R is referred to as a network R.

次に、ファジイ連想記憶システムの動作過程を説明する。
推論は、ネットワーク全体で同期をとりながら活性値の伝搬を繰り返すことによって行う。まず、入力を与えると各メンバシップ関数で評価した値(これは図1に示したメンバシップ関数手段103−1により得られる)がIf(X)レイヤから出力される。そして、連想マトリクスMxr,Mrr,Mryを式(4)および(5)に適用することによって、設定した連想ステップ数だけ活性値の伝播を繰り返す。例えば、複数のINrレイヤに連想マトリクスMでつながるOUTレイヤの各ノードの出力outは以下の式(13)で求められる。
Next, the operation process of the fuzzy associative memory system will be described.
Inference is performed by repeating the propagation of active values while maintaining synchronization throughout the network. First, when an input is given, a value evaluated by each membership function (which is obtained by the membership function means 103-1 shown in FIG. 1) is output from the If (X) layer. Then, by applying the associative matrices M xr , M rr , and M ry to the equations (4) and (5), the propagation of the active value is repeated by the set number of associative steps. For example, the output out j of each node OUT layers connected by associative matrix M r multiple INr layers can be determined by the following equation (13).

提案された当初の連想推論は、推論結果の統合を行わないため、過度のあいまいさを引き起こす可能性がある。これを解決するために、式(14)〜(16)を用いてThen
(Y)レイヤの活性値を正規化する。
The proposed initial associative reasoning does not integrate reasoning results and can cause excessive ambiguity. In order to solve this, the formulas (14) to (16) are used to
(Y) Normalize the layer activation value.

ここでnはThen(Y)レイヤ内のノード数、γfはノードiの持つ活性値、γは寄与度である。 Here, n is the number of nodes in the Then (Y) layer, γf i is the activation value of node i, and γ i is the contribution.

これにより、寄与度γを得る。この寄与度で後件部のメンバシップ関数、あるいは入出力関数の出力値を内挿し、得られた関数(値)をMAX結合(和)したものを推論結果とする。 Thereby, the contribution degree γ i is obtained. An inference result is obtained by interpolating the membership function of the consequent part or the output value of the input / output function with this contribution, and MAX-joining (summing) the obtained function (value).

次にファジィ推論について説明する。
ファジィ推論は、ファジィルールに基づいて近似的推論を行う。リアルタイム性を重視するファジィ制御における推論では、専門家の主観的曖昧さを図5(b)、図7(b)、および図8(b)で示したようなメンバシップ関数で表現し、専門家の知識をif〜からなる前件部とthen〜からなる後件部によって記述されるファジィルールによって表現される。ファジィルールの表現例を以下に示す。
Next, fuzzy inference will be described.
Fuzzy reasoning performs approximate reasoning based on fuzzy rules. In inference in fuzzy control that emphasizes real-time characteristics, the subjective ambiguity of an expert is expressed by a membership function as shown in FIGS. 5 (b), 7 (b), and 8 (b). House knowledge is expressed by fuzzy rules described by an antecedent part consisting of if ~ and a consequent part consisting of then ~. An example of fuzzy rule expression is shown below.

ルールA:if(x1is PM) & (x2 is ZO) then y is ZO
ルールB:if(x1is ZO) & (x2 is PM) then y is NM
このときルールAは「もし、入力x1がプラス側にやや大きく、かつ入力x2がゼロ付近ならば、出力をゼロ付近にする」というファジィ命題を表現する。ルール中ではx1, x2は入力を示し、は出力を示す。またPB,PM,PS,ZOはそれぞれpositive big, positive medium, positive small, zeroを意味し、専門家の主観的な曖昧さを示すファジイ集合である。また、これらはメンバシップ関数によって定義される。
Rule A: if (x 1 is PM) & (x 2 is ZO) then y is ZO
Rule B: if (x 1 is ZO) & (x 2 is PM) then y is NM
At this time, the rule A expresses a fuzzy proposition that “if the input x 1 is slightly larger on the plus side and the input x 2 is near zero, the output is near zero”. In the rules, x 1 and x 2 indicate inputs and indicates an output. PB, PM, PS, and ZO mean positive big, positive medium, positive small, and zero, respectively, and are fuzzy sets that indicate the subjective ambiguity of experts. These are defined by membership functions.

ファジィ推論の例を説明する。
図12は、ファジィ推論の過程を示す図である。
ルールA、Bで、入力x1, x2にそれぞれx01=0.7, x02=0.2が観測されたとする。ルールA、Bの場合、x1= x01, x2= x02に対するメンバシップ関数ga(y)、gb(y)は、
ga(y) = (μPM(x01)ΔμZO(x02))○μZO(y)
gb(y) = (μZO(x01)ΔμPM(x02))○μNM(y)
で求められる。ここでΔはファジイ論理演算AND(min)を表す。また○は一般化合成規則のT-ノルム演算子を示す。T-ノルム演算子を適当に選択することで、状況に応じた推論が実
現する。ここで、T-ノルム演算子を・(乗算)とした場合、
ga(y) = ωa・μZO(y)
gb(y) = ωb・μNM(y)
となる。ただしωa、ωbはメンバシップ値を示し、
ωa =μPM(x01)ΔμZO(x02)=0.7
ωb =μZO(x01)ΔμPM(x02)=0.2
である。最終的な結論として、以下の式(17)により、出力のメンバシップ関数が求められる。
An example of fuzzy inference will be described.
FIG. 12 is a diagram showing a process of fuzzy inference.
It is assumed that x 01 = 0.7 and x 02 = 0.2 are observed at inputs x 1 and x 2 in rules A and B, respectively. In the case of rules A and B, the membership functions g a (y) and g b (y) for x 1 = x 01 and x 2 = x 02 are
g a (y) = (μPM (x 01 ) ΔμZO (x 02 )) ○ μZO (y)
g b (y) = (μZO (x 01 ) ΔμPM (x 02 )) ○ μNM (y)
Is required. Here, Δ represents a fuzzy logic operation AND (min). ○ indicates the T-norm operator of the generalized synthesis rule. By selecting the T-norm operator appropriately, inference according to the situation is realized. Here, if the T-norm operator is set to · (multiplication),
g a (y) = ω a・ μZO (y)
g b (y) = ω b・ μNM (y)
It becomes. Where ω a and ω b are membership values,
ω a = μPM (x 01 ) ΔμZO (x 02 ) = 0.7
ω b = μZO (x 01 ) ΔμPM (x 02 ) = 0.2
It is. As a final conclusion, an output membership function is obtained by the following equation (17).

ここで∇はファジイ論理演算OR(max)を示す。ファジイ推論では、関係を持つ全てのルールはその確かさに比例して並列に動作する。 Here, ∇ indicates a fuzzy logic operation OR (max). In fuzzy inference, all the rules that have a relationship operate in parallel in proportion to their certainty.

図1に示した移動物判別手段103−4は、上記説明したファジィ連想推論またはファジィ推論により、撮影された移動物体が何であるかを推論する。そして、その結果を図1に示した出力手段104に出力する。   The moving object discriminating means 103-4 shown in FIG. 1 infers what the captured moving object is based on the above-described fuzzy associative reasoning or fuzzy reasoning. And the result is output to the output means 104 shown in FIG.

図1の説明に戻る。
出力手段104は、移動物判別手段103−4の判別結果に基づき、案内を出力する。例えば、判別結果が白杖者だった場合は、出力手段104は、音声案内を行う。これにより、白杖者は必要な情報を音声で得ることができる。また例えば、判別結果が健常者だった場合は、出力手段104は、文字などの案内情報を表示することも出来る。
Returning to the description of FIG.
The output unit 104 outputs guidance based on the determination result of the moving object determination unit 103-4. For example, when the determination result is a white cane, the output unit 104 performs voice guidance. Thereby, the white cane can obtain necessary information by voice. For example, when the determination result is a healthy person, the output unit 104 can display guidance information such as characters.

図13は、本実施の形態に係る情報案内システムの処理の流れを示すフローチャートである。
以下に、図1および図13を用いて情報案内システムの処理の流れを説明する。
FIG. 13 is a flowchart showing a process flow of the information guidance system according to the present embodiment.
The processing flow of the information guidance system will be described below with reference to FIGS. 1 and 13.

あらかじめ、推論に用いられるメンバシップ関数や事例ベース等は情報案内システムに記憶させおく。
ステップS1301において、映像撮影手段101によって移動物を撮影し、映像取得部102−1はその画像を取得する。
The membership function, case base, etc. used for inference are stored in advance in the information guidance system.
In step S1301, the moving image is captured by the image capturing unit 101, and the image acquisition unit 102-1 acquires the image.

ステップS1302において、取得した画像から、例えば背景差分法により、動きのある部分、すなわち移動物体を抽出し、映像データ入力手段102−2に出力する。
ステップS1303において、映像データ入力手段102−2は、移動物体の特定部位、顔や手をトラッキングし、それらの重心座標を計算し、さらに、計算した顔の重心座標、手の重心座標から、顔に対する手の相対的な位置や、所定の時間あたりの顔の位置の座標の差から人物の移動速度などを計算する。そして、計算した値を推論手段103に出力する。
In step S1302, a moving part, that is, a moving object is extracted from the acquired image by, for example, the background difference method, and is output to the video data input unit 102-2.
In step S1303, the video data input unit 102-2 tracks the specific part of the moving object, the face and the hand, calculates the center-of-gravity coordinates of the moving object, and further calculates the face from the calculated center-of-gravity coordinates and hand-center-of-gravity coordinates The moving speed of the person is calculated from the relative position of the hand to the face and the difference in the coordinates of the face position per predetermined time. Then, the calculated value is output to the inference means 103.

ステップS1304において、ステップS1303で計算した値を入力値として、入力値の事例ベース手段103−2に格納された各ルールに対する適合度を計算する。各ルールに対する適合度が全て閾値以下の場合ステップS1305に進み、一つでも閾値より大きいものがあった場合ステップS1306に進む。   In step S1304, using the value calculated in step S1303 as an input value, the fitness of each input value with respect to each rule stored in the case base unit 103-2 is calculated. If the degree of conformity to each rule is less than or equal to the threshold value, the process proceeds to step S1305.

ステップS1305において、ステップS1304で用いた入力値を新たな事例として
、事例データベース手段103−2に格納する。
ステップS1306において、移動部判別手段103−4は、入力値に基づいて移動物がなんであるかを推論する。
In step S1305, the input value used in step S1304 is stored in the case database unit 103-2 as a new case.
In step S1306, the moving unit determination unit 103-4 infers what the moving object is based on the input value.

ステップS1307において、ステップS1306で推論された結果に基づいて、案内出力を行う。
以上、本発明の実施の形態を、図面を参照しながら説明してきたが、上述してきた本発明の実施の形態は、情報案内システムの一機能としてハードウェアまたはDSP(Digital Signal Processor)ボードやCPUボードでのファームウェアもしくはソフトウェアにより実現することができる。
In step S1307, guidance output is performed based on the result inferred in step S1306.
As described above, the embodiments of the present invention have been described with reference to the drawings. However, the above-described embodiments of the present invention are not limited to hardware, a DSP (Digital Signal Processor) board, or a CPU as a function of the information guidance system. It can be realized by firmware or software on the board.

また、本発明が適用される情報案内システムは、その機能が実行されるのであれば、上述の実施の形態に限定されることなく、単体の装置であっても、複数の装置からなるシステムあるいは統合装置であっても、LAN、WAN等のネットワークを介して処理が行なわれるシステムであってもよいことは言うまでもない。   In addition, the information guidance system to which the present invention is applied is not limited to the above-described embodiment as long as the function is executed, and a system composed of a plurality of devices or a single device may be used. Needless to say, the integrated device may be a system in which processing is performed via a network such as a LAN or a WAN.

また、バスに接続されたCPU、ROMやRAMのメモリ、入力装置、出力装置、外部記録装置、媒体駆動装置、ネットワーク接続装置で構成されるシステムでも実現できる。すなわち、前述してきた実施の形態のシステムを実現するソフトェアのプログラムを記録したROMやRAMのメモリ、外部記録装置、可搬記録媒体を、情報案内システムに供給し、その情報案内システムのコンピュータがプログラムを読み出し実行することによっても、達成されることは言うまでもない。   It can also be realized by a system including a CPU, a ROM or RAM memory connected to a bus, an input device, an output device, an external recording device, a medium driving device, and a network connection device. That is, a ROM or RAM memory, an external recording device, or a portable recording medium that records a software program for realizing the system of the above-described embodiment is supplied to an information guidance system, and the information guidance system computer executes the program. Needless to say, this can also be achieved by reading and executing.

この場合、可搬記録媒体等から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した可搬記録媒体等は本発明を構成することになる。   In this case, the program itself read from the portable recording medium or the like realizes the novel function of the present invention, and the portable recording medium or the like on which the program is recorded constitutes the present invention.

プログラムを供給するための可搬記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、DVD−RAM、磁気テープ、不揮発性のメモリーカード、ROMカード、電子メールやパソコン通信等のネットワーク接続装置(言い換えれば、通信回線)を介して記録した種々の記録媒体などを用いることができる。   Examples of portable recording media for supplying the program include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, DVD-RAMs, magnetic tapes, and nonvolatile memory cards. Various recording media recorded via a network connection device (in other words, a communication line) such as a ROM card, electronic mail or personal computer communication can be used.

また、コンピュータ(情報処理装置)がメモリ上に読み出したプログラムを実行することによって、前述した実施の形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施の形態の機能が実現される。   The computer (information processing apparatus) executes the program read out on the memory, thereby realizing the functions of the above-described embodiment, and an OS running on the computer based on the instructions of the program. Performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

さらに、可搬型記録媒体から読み出されたプログラムやプログラム(データ)提供者から提供されたプログラム(データ)が、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施の形態の機能が実現され得る。   Furthermore, a program read from a portable recording medium or a program (data) provided by a program (data) provider is stored in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After being written, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are also realized by the processing. obtain.

すなわち、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または形状を取ることができる。   That is, the present invention is not limited to the embodiment described above, and can take various configurations or shapes without departing from the gist of the present invention.

本発明の実施の形態に係る情報案内システムの機能ブロック図である。It is a functional block diagram of the information guidance system concerning an embodiment of the invention. ステレオ視を説明するための図である。It is a figure for demonstrating a stereo vision. 背景差分法による映像の例を示す図である。It is a figure which shows the example of the image | video by a background difference method. 顔および手のトラッキングを示す図である。It is a figure which shows tracking of a face and a hand. (a)は本実施の形態に係る手の動きのグラフを表す図であり、(b)は本実施の形態に係る手の動きのメンバシップ関数を表す図である。(A) is a figure showing the graph of the hand movement which concerns on this Embodiment, (b) is a figure showing the membership function of the hand movement which concerns on this Embodiment. 手の動きを表すモデルであり、(a)は健常者の場合のモデル、(b)は白杖者の場合のモデルを表す図である。It is a model showing hand movement, (a) is a model in the case of a healthy person, and (b) is a figure showing a model in the case of a white cane person. (a)は移動速度のグラフであり、(b)はメンバシップ関数を表す図である。(A) is a graph of movement speed, (b) is a figure showing a membership function. (a)は顔と手の位置関係を表すグラフであり、(b)はメンバシップ関数を表す図である。(A) is a graph showing the positional relationship between a face and a hand, and (b) is a diagram showing a membership function. 本実施の形態に係る事例ベースの例を示す図である。It is a figure which shows the example of the example base which concerns on this Embodiment. 双方向連想記憶のネットワーク構成を示す図である。It is a figure which shows the network structure of a bidirectional associative memory. 本実施の形態に係るファジィ連想システムの概念図である。It is a conceptual diagram of the fuzzy association system which concerns on this Embodiment. ファジィ推論の過程を示す図である。It is a figure which shows the process of a fuzzy reasoning. 本実施の形態に係る情報案内システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the information guidance system which concerns on this Embodiment.

符号の説明Explanation of symbols

101 映像撮影手段
102 動き検出手段
102−1 映像取得手段
102−2 映像データ入力手段
103 推論手段
103−1 メンバシップ関数手段
103−2 事例ベース手段
103−3 事例判別手段
103−4 移動物判別手段
104 出力手段
201 対象
401,402 トラッキング部分
501 グラフ(健常者の手の位置)
502 グラフ(白杖者の手の位置)
503 メンバシップ関数μ1S
504 メンバシップ関数μ1M
505 メンバシップ関数μ1B
506,507,508,509 極値点
601 顔(健常者)
602 手(健常者)
603 顔(白杖者)
604 手(白杖者)
701 グラフ(健常者の移動速度
702 グラフ(白杖者の移動速度)
703 メンバシップ関数μ2S
704 メンバシップ関数μ2B
801 グラフ(健常者の手の位置)
802 グラフ(白杖者の手の位置)
803 メンバシップ関数μ3S
804 メンバシップ関数μ3B
805,806 極値点
DESCRIPTION OF SYMBOLS 101 Video imaging means 102 Motion detection means 102-1 Video acquisition means 102-2 Video data input means 103 Inference means 103-1 Membership function means 103-2 Case base means 103-3 Case discrimination means 103-4 Moving object discrimination means 104 Output means 201 Target 401, 402 Tracking portion 501 Graph (position of the hand of a healthy person)
502 graph (the position of the hand of a white cane)
503 Membership function μ 1S
504 Membership function μ 1M
505 Membership function μ 1B
506, 507, 508, 509 Extreme point 601 Face (healthy person)
602 hand (healthy person)
603 Face (white cane)
604 hand (white cane)
701 graph (moving speed of healthy person 702 graph (moving speed of white cane)
703 Membership function μ 2S
704 Membership function μ 2B
801 graph (position of the hand of a healthy person)
802 Graph (Position of white cane's hand)
803 Membership function μ 3S
804 Membership function μ 3B
805,806 extreme points

Claims (2)

画像データを受信する画像データ受信手段と、
前記画像データ受信手段が受信した画像データから動画領域を抽出する動画領域抽出手段と、
前記動画領域抽出手段により抽出された動画領域から特定部位を抽出する特定部位抽出手段と、
前記特定部位抽出手段により抽出された特定部位に関する情報を判別する事例判別手段と、
前記事例判別手段による判別結果に基づき人間の種類を判別する移動物判別手段と、
前記移動物判別手段による判別結果に基づき対応する案内を出力する案内出力手段と、
を備え、
前記画像データ受信手段は、撮像装置によって撮像された画像データを受信し、
前記動画領域抽出手段は、動作している前記人間の画像を動画領域として抽出し、
前記特定部位抽出手段は、人間の顔部分および人間の手部分を特定部位として抽出し、
前記事例判別手段は、前記手部分の前記顔部分に対する相対的な水平方向の振幅または、前記顔部分と前記手部分との位置関係の変化を判別し、
前記移動物判別手段は、前記人間が白杖者であるか否かを判別する、
ことを特徴とする情報案内システム。
Image data receiving means for receiving image data;
A moving image region extracting unit that extracts a moving image region from the image data received by the image data receiving unit;
Specific part extracting means for extracting a specific part from the moving picture area extracted by the moving picture area extracting means;
Case discriminating means for discriminating information related to the specific part extracted by the specific part extracting means;
Moving object discriminating means for discriminating a human type based on a discrimination result by the case discriminating means;
Guidance output means for outputting a corresponding guidance based on the determination result by the moving object determination means;
With
The image data receiving means receives image data imaged by an imaging device,
The moving image region extraction unit extracts the human image acting as video area,
The specific part extracting means extracts a human face part and a human hand part as a specific part,
The case determination means determines a relative horizontal amplitude of the hand part relative to the face part or a change in a positional relationship between the face part and the hand part,
The moving object determining means determines whether or not the person is a white cane;
Information guidance system characterized by this.
コンピュータを、
画像データを受信する画像データ受信手段、
前記画像データ受信手段が受信した画像データから動画領域を抽出する動画領域抽出手段、
前記動画領域抽出手段により抽出された動画領域から特定部位を抽出する特定部位抽出手段、
前記特定部位抽出手段により抽出された特定部位に関する情報を判別する事例判別手段、
前記事例判別手段による判別結果に基づき人間の種類を判別する移動物判別手段、
前記移動物判別手段による判別結果に基づき対応する案内を出力する案内出力手段、
として機能させるための情報案内プログラムであって、
前記画像データ受信手段は、撮像装置によって撮像された画像データを受信し、
前記動画領域抽出手段は、動作している人間の画像を動画領域として抽出し、
前記特定部位抽出手段は、人間の顔部分および人間の手部分を特定部位として抽出し、
前記事例判別手段は、前記手部分の前記顔部分に対する相対的な水平方向の振幅または、前記顔部分と前記手部分との位置関係の変化を判別し、
前記移動物判別手段は、前記人間が白杖者であるか否かを判別することを特徴とする情報案内プログラム。
Computer
Image data receiving means for receiving image data;
A moving image region extracting unit that extracts a moving image region from the image data received by the image data receiving unit;
Specific part extracting means for extracting a specific part from the moving picture area extracted by the moving picture area extracting means;
Case discriminating means for discriminating information related to the specific part extracted by the specific part extracting means;
Moving object discriminating means for discriminating a human type based on a discrimination result by the case discriminating means;
Guidance output means for outputting a corresponding guidance based on the discrimination result by the moving object discrimination means;
An information guide program to function as,
The image data receiving means receives image data imaged by an imaging device,
The moving image region extracting means extracts a moving human image as a moving image region,
The specific part extracting means extracts a human face part and a human hand part as a specific part,
The case determination means determines a relative horizontal amplitude of the hand part relative to the face part or a change in a positional relationship between the face part and the hand part,
The moving object discriminating means discriminates whether or not the person is a white cane person.
JP2006285370A 2006-10-19 2006-10-19 Information guidance system and information guidance program Expired - Fee Related JP4848244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006285370A JP4848244B2 (en) 2006-10-19 2006-10-19 Information guidance system and information guidance program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006285370A JP4848244B2 (en) 2006-10-19 2006-10-19 Information guidance system and information guidance program

Publications (2)

Publication Number Publication Date
JP2008102781A JP2008102781A (en) 2008-05-01
JP4848244B2 true JP4848244B2 (en) 2011-12-28

Family

ID=39437058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006285370A Expired - Fee Related JP4848244B2 (en) 2006-10-19 2006-10-19 Information guidance system and information guidance program

Country Status (1)

Country Link
JP (1) JP4848244B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5022356B2 (en) * 2008-12-19 2012-09-12 パナソニック株式会社 Guidance system
CN101882380B (en) * 2010-06-07 2012-10-03 上海市城市建设设计研究院 Parking lot navigation system based on face feature identification technique and navigation method thereof
JP6156532B2 (en) * 2016-02-29 2017-07-05 株式会社ニコン Region extraction device, imaging device, and region extraction program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3128913B2 (en) * 1991-12-10 2001-01-29 オムロン株式会社 In-vehicle road image analysis device and in-vehicle imaging control device using the device
JP2001101576A (en) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp Pedestrian crossing assisting system
JP3697632B2 (en) * 2000-06-05 2005-09-21 沖電気工業株式会社 Walking support system
DE60236461D1 (en) * 2002-07-26 2010-07-01 Mitsubishi Electric Corp IMAGING DEVICE
JP4159049B2 (en) * 2004-02-03 2008-10-01 独立行政法人科学技術振興機構 Human support system, human support method, and human support program
JP2005332071A (en) * 2004-05-18 2005-12-02 Sumitomo Electric Ind Ltd System for tracking visually handicapped person and method for detecting visually handicapped person
JP4691708B2 (en) * 2006-03-30 2011-06-01 独立行政法人産業技術総合研究所 White cane user detection system using stereo camera

Also Published As

Publication number Publication date
JP2008102781A (en) 2008-05-01

Similar Documents

Publication Publication Date Title
US11263409B2 (en) System and apparatus for non-intrusive word and sentence level sign language translation
Yu et al. An online one class support vector machine-based person-specific fall detection system for monitoring an elderly individual in a room environment
JP5478928B2 (en) Person identification device, person identification method, and person identification program
CN109614882A (en) A kind of act of violence detection system and method based on human body attitude estimation
Debard et al. Camera-based fall detection using real-world versus simulated data: How far are we from the solution?
US20110026782A1 (en) Person recognition method and apparatus
Goodridge Multimedia sensor fusion for intelligent camera control and human-computer interaction
US11321618B2 (en) Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method
GB2403365A (en) Camera having behaviour memory
CN114269243A (en) Fall risk evaluation system
KR20210079542A (en) User Motion Recognition Method and System using 3D Skeleton Information
WO2023005403A1 (en) Respiratory rate detection method and apparatus, and storage medium and electronic device
CN113591701A (en) Respiration detection area determination method and device, storage medium and electronic equipment
JP4848244B2 (en) Information guidance system and information guidance program
KR20190119212A (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
CN115984967A (en) Human body falling detection method, device and system based on deep learning
CN113576452A (en) Respiration rate detection method and device based on thermal imaging and electronic equipment
JPH09307868A (en) Communication equipment and communication method
WO2022041182A1 (en) Method and device for making music recommendation
KR102617756B1 (en) Apparatus and Method for Tracking Missing Person based on Attribute
JP5669302B2 (en) Behavior information collection system
CN110148234A (en) Campus brush face picks exchange method, storage medium and system
Mastorakis Human fall detection methodologies: from machine learning using acted data to fall modelling using myoskeletal simulation
Raja et al. Design and implementation of facial recognition system for visually impaired using image processing
JP7453192B2 (en) Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080919

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080919

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees