JP2004246856A - インタフェース装置 - Google Patents
インタフェース装置 Download PDFInfo
- Publication number
- JP2004246856A JP2004246856A JP2003166659A JP2003166659A JP2004246856A JP 2004246856 A JP2004246856 A JP 2004246856A JP 2003166659 A JP2003166659 A JP 2003166659A JP 2003166659 A JP2003166659 A JP 2003166659A JP 2004246856 A JP2004246856 A JP 2004246856A
- Authority
- JP
- Japan
- Prior art keywords
- arm
- pointing
- interface device
- gravity
- arm pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
【解決手段】インタフェース装置において、室内空間5において複数のステレオカメラ1−1から1−nにより室内を撮像し、各ステレオカメラ単位で視野内の撮像画像と室内空間5の座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラ1−1〜1−nからの距離情報に基づきユーザ4の体勢と腕指しを抽出する手段と、前記腕指しが識別された場合に、腕が指し示している方向、その動きから、意図して出されたサインであるかどうかを識別する手段とを具備する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、インタフェース装置に係り、特に、ユーザの腕指しによる指示動作を判定して、対応する機能を持つ、身振りによる室内空間におけるインタフェース装置に関するものである。
【0002】
【従来の技術】
これまでに、図28に示すようなカメラ81−1,81−2付きのディスプレイ82の前にユーザ84が位置し、そのユーザ84の指さし等によりマウスなどを操作するシステムは存在するが、それらは2、3台の少ないカメラ画像から、そのユーザ84の位置を測定し、マウスなどを操作させている。
【0003】
それゆえ、認識対象領域83はディスプレイ82前の特定の空間程度であり、非常に狭い場所でしか使えず、かつ一度に1人しか使えないといった問題点がある。
【0004】
さらに、図29に示すようなハンドサインの認識システムも、カメラ91の前の固定的な環境でユーザ94の手のみの画像を取得して認識することで、インタフェース装置として使われているため、同様の問題点を有する。なお、この図において、92はディスプレイ、93は認識対象領域である。
【0005】
【特許文献1】
特開平11−327753号公報 第5−10頁 図1
【特許文献2】
特開2000−216号公報 第4−5頁 図1
【特許文献3】
特開2002−251235号公報 第4−7頁 図1
【0006】
【発明が解決しようとする課題】
上述したように、かかる従来の装置では、特定の狭い固定的な環境のみでしかインタフェース装置が動作しないといった問題点がある。
【0007】
本発明は、上記状況に鑑みて、室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作の実現、ならびに立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の室内機器の操作を容易になし得るインタフェース装置を提供することを目的としている。
【0008】
【課題を解決するための手段】
本発明は、上記目的を達成するために、
〔1〕インタフェース装置において、室内空間において複数のステレオカメラにより該室内を撮像し、前記各ステレオカメラ単位で視野内の撮像画像と室内の座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラからの距離情報に基づき、ユーザの位置姿勢と腕指しを抽出する位置姿勢・腕指し認識手段と、前記ユーザの腕指しが識別された場合に、該腕が指し示している方向、その動きから、指示動作であるかどうかを認識する指示動作認識手段と、
を具備することを特徴とする。
【0009】
〔2〕上記〔1〕記載のインタフェース装置において、前記指示動作認識手段の動作に基づき、予め登録された室内機器を操作するコマンドを送出し、その結果を受信する操作コマンド送受信装置を具備することを特徴とする。
【0010】
〔3〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記位置姿勢・腕指し認識手段は、集められた3次元情報から前記距離データを室内空間座標系に沿って、段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする位置姿勢認識部と、該得られた複数のユーザの2次元投影図から腕指しの方向を識別する腕指し認識部とを有することを特徴とする。
【0011】
〔4〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記指示動作認識手段は、前記得られた腕指しの方向の時系列データからその指示動作を認識する指示動作認識部を有し、更に、腕指し操作の対象となる操作対象機器の情報や操作方法を保存する操作機器データベースと、前記操作対象機器の基本情報、位置、操作方法を記憶する操作機器登録部とを具備することを特徴とする。
【0012】
〔5〕上記〔1〕記載のインタフェース装置において、前記腕指しを抽出する位置姿勢・腕指し認識手段は、各ステレオカメラから得られた3次元距離情報を、室内座標系に基づいて、20cmごとに階層的に区切って情報を切り出す段違い引き出し法により、各引き出し内に入った点列を2次元平面に投影した後、二値化して、2次元の二値画像となし、各階層単位でラベリングを行った後で各クラスタの全体重心を求め、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げて、3次元点列として利用し、Z軸に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身)までをXY平面上にプロットし、全体重心と比較して大きな外れ値があった場合を腕指し動作が行われたとするとともに、最上部より8階層分までの二値画像と等価の矩形形状である画像モーメントを求めて得られた8組のデータのうち面積が一定の範囲にあり、かつ画像モーメントの長辺と短辺の差が最も大きい階層の長辺の垂直方向を体の向きとし、前記した腕指し動作が認識された場合、最も全体重心からプレート重心が離れた階層の二値画像の重心と全体重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り、腕部分のみを残し、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺、重心、腕先端位置、全体重心を計算することで腕指しのXY平面上での向きを決定し、身長、目の高さ、腕長係数から腕指しのZ方向の向きを決定して腕指しの方向を求め、指示動作を認識することを特徴とする。
【0013】
〔6〕上記〔5〕記載のインタフェース装置において、頭の高さ及び座高に相当する高さから腕指し判定の下限を設定して、該下限より下にある疑似腕指しの場合は、腕指しではないと判定することを特徴とする。
【0014】
〔7〕上記〔6〕記載のインタフェース装置において、前記下限より下にある疑似腕指しの場合が脚を投げ出した場合である。
【0015】
〔8〕上記〔5〕記載のインタフェース装置において、前記画像モーメントの長辺と身長との比が一定に達していない場合は、腕指しでないと判定することを特徴とする。
【0016】
〔9〕上記〔5〕記載のインタフェース装置において、平均重心から腕指し先端までの距離をr1、前記平均重心から腕指し末端までの距離をr2とすると、r1/r2が身長から設定された値以下である場合は、腕指しでないと判定することを特徴とする。
【0017】
〔10〕上記〔8〕又は〔9〕記載のインタフェース装置において、該当する場合が、小さい腕指しであることを特徴とする。
【0018】
〔11〕上記〔5〕記載のインタフェース装置において、前記画像モーメントの長辺L1 、短辺L2 より面積Sを求め、この面積Sに上限を、前記画像モーメントの長辺L1 に下限を設定し、この限度から外れる場合は、腕指しでないと判定することを特徴とする。
【0019】
〔12〕上記〔5〕記載のインタフェース装置において、腕指し先端と平均重心間距離と、腕指し末端と平均重心間距離の比が設定値以上の場合は、腕指しでないと判定することを特徴とする。
【0020】
〔13〕上記〔11〕又は〔12〕記載のインタフェース装置において、前記限度から外れる場合は、両手を広げた場合であることを特徴とする。
【0021】
〔14〕上記〔5〕記載のインタフェース装置において、ユーザの腕指し先端を中心に、所定の半径内に相手の平均重心を発見した場合は、腕指しでないと判定することを特徴とする。
【0022】
〔15〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記室内空間のうち特定エリアを予め登録しておき、その特定エリアにユーザがいる場合にそのユーザの腕指しを識別することを特徴とする。
【0023】
〔16〕上記〔15〕記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいる場合は、その特定エリア用の腕指し識別を行うことを特徴とする。
【0024】
〔17〕上記〔16〕記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいない場合は、ユーザが立位、座位又は伏位かどうか判定し、それぞれの姿勢での腕指しを識別することを特徴とする。
【0025】
本発明によれば、室内空間にいる各ユーザの姿勢をカメラからの距離情報によって識別しながら各ユーザの室内の位置を特定する。また、予め登録された室内機器を直接腕で指し示す指示動作(腕指し)を行うことで、その室内機器を操作するコマンドを送出する。
【0026】
更に、本発明では、指示動作(腕指し)によって操作する室内機器とその操作内容を登録する手段を提供する。及び、同時に室内機器に対応したコマンドを登録する手段を与える。
【0027】
また、腕指しを的確に検出するととともに、一見、腕指しのように見える挙動(疑似腕指し)を腕指しから確実に除外して、正確な腕指しの判定を行うことができる。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について詳細に説明する。
【0029】
図1及び図2は本発明の一実施形態のシステム構成を示す図であり、図3は図1及び図2に示した情報統合認識装置のブロック図である。
【0030】
図1において、複数のステレオカメラ1−1から1−nによって死角がないように室内空間5が撮影され、ユーザ4−1,4−2,…,4−nは室内空間5の中を自由に移動する。各ステレオカメラ1は2台以上のカメラの撮像素子が平行に固定されていて、ステレオカメラ1−1から1−nの撮像出力は画像処理装置2に与えられる。ステレオカメラ1自体は既に公知のものであり、たとえばポイントグレイ社のデジクロップスやサーノフ研究所のアケーディアのようなものが用いられる。
【0031】
画像処理装置2は各ステレオカメラ1からの映像を入力として毎秒10枚〜30枚程度の画像を処理し、そこから得られた距離画像とカラー画像の結果を情報統合認識装置3に与える。なお、6は操作対象機器であり、ここではエアコン6−Aやテレビジョン6−Bが示されている。8は表示装置である。
【0032】
図1には室内空間を全て認識対象領域(操作可能空間)5としてカバーする例を示しているが、図2では説明を簡単にするために、ステレオカメラ1の1台のみを下向きに設置し、その下の室内空間のみを認識対象領域(操作可能空間)5として示した。この図2の操作可能空間5では、一人のユーザ4のみが対象として示されているが、基本的な仕組みは全て図1に示されているものと同様である。
【0033】
図3に示すように、情報統合認識装置3は、位置姿勢認識部31、腕指し認識部32、指示動作認識部33、操作機器データベース34、操作機器登録部35とを含む。位置姿勢認識部31は画像処理装置2によって集められた3次元情報からその距離データを室内空間座標系(図1、図2のX,Y,Z軸)に沿って、図5に示す段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする。腕指し認識部32はその得られた複数のユーザの2次元投影図から腕指しの方向を識別する。指示動作認識部33は、得られた腕指しの方向の時系列データからその指示動作を認識する。操作機器データベース34には腕指し操作の対象となる操作対象機器6の情報や操作方法を保存する。操作機器登録部35には操作対象機器6の基本情報、位置、操作方法を保存する。
【0034】
図1、図2及び図3に示すように、操作コマンド送受信装置9は、情報統合認識装置3で決定された操作対象機器6に操作コマンドを送信し、操作対象機器6でこれを受信して、操作対象機器6を操作する。同時に操作コマンド送受信装置9は操作対象機器6から必要情報を受信する。操作コマンドの送受信方法としては、指向性を持たない微弱電波による通信方法であるブルートゥース(Bluetooth)やエコネット(ECHONET)などを用いる。
【0035】
図1と図2は室内におけるこのインタフェース装置の実施形態であるが、本発明はこの実施形態に限定されるものではなく、例えば室内空間を工場や公共の空間などに置き換えて、指示動作を利用するあらゆる場面にも適用できる。
【0036】
図4は本発明の一実施形態の動作を説明するためのフローチャートであり、図3を部分的に詳細化したものである。
【0037】
図1の室内空間5に出入りする全てのユーザ4−1から4−nはステレオカメラ1−1から1−nによって撮影され、この撮像出力は画像処理装置2に与えられる。すなわちこの室内空間5に出入りする人は、図4の流れに従って、この室内に入ってから出るまでの全てを撮影され、その行動が監視される。
【0038】
画像処理装置2は、各カメラ単位でその視野内のカラー画像と室内の座標系に基づいた距離情報を生成して情報統合認識装置3に与える。各ステレオカメラ1−1から1−n間の共通する座標系X、Y、Z(図1,図2)は予め設定しておく。
【0039】
こうして、各ステレオカメラ1−1から1−nにより、室内空間5の3次元距離情報が獲得される(ステップS41)。
【0040】
このステップS41おいて各ステレオカメラ1−1から1−nにより得られた3次元距離情報(X、Y、Z)は、全体として扱うのではなく、室内座標系に基づいて、図5に示すように、20cmごとに階層的に区切って3次元距離の点列を切り出して使う。境界面において失ってしまう情報をなくすために、切り出しを10cmずらして再度行うことによって情報を失わず連続的に3次元距離の点列を切り出す(ステップS42)。
【0041】
次に、図6に示すように、各引き出し(図5における0〜15)内に入った点列を2次元平面に投影した後、二値化する。これにより、各引き出し内の情報は2次元の二値画像となる。そしてこの各階層単位でラベリングを行った後で(図6では2人のユーザをA、Bとラベリング)、各クラスタの全体重心(図6におけるTotal中の☆)を求める(ステップ43)。このように、最初にラベリングすることで複数人物に対応する。
【0042】
次いで、図7に示すように、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げ、3次元点列として利用する(ステップS44)。
【0043】
さらに、図8(a)に示すようにZ軸(高さ方向)に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身に相当)までをXY平面上にプロットし、大きな外れ値があった場合を腕指し動作が起こったときとする。このとき同時に体の向きを計測するため、図8(b)に示すように、最上部より8階層分〔図8(b)では6階層分のみ記載〕までの二値画像の画像モーメントを計算する。画像モーメントとは、図9に示すような2値画像と等価の矩形のことを指し、画素を(x,y)、画素の値をI(x,y)とすると、式(1)によって、その矩形の重心(xg ,yg )、傾きθ、長辺L1 、短辺L2 が求められる。
【0044】
【数1】
【0045】
そこで得られた8組のデータのうち面積が一定の範囲にあり、かつ長辺L1 と短辺L2 の差が最も大きい階層の、長辺L1 の垂直方向を体の向きとする(ステップS45)。
【0046】
腕指し動作が認識された場合(ステップS46におけるYESの場合)は、最も全体重心からプレート重心が離れた階層の二値画像〔図8(c)〕を用いてその腕指しの方向を決定する。具体的には、後述するが、全体重心と腕指し相当階層の重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り〔図8(d)〕、腕部分の画像のみを残す。そして、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺L1 、短辺L2 、重心(xc ,yc )、傾きθを計算し、そのXY平面上での向きを決定する。
【0047】
高さ方向を示すZ方向は、3次元距離情報から得られる腕の角度αは水平面に射影されたものであり、垂直方向の情報は含まれていない。そこで、腕の垂直方向の角度αv を、身長h,目の高さheye ,腕の高さharm ,腕長係数lより式(2)を用いて求める。
【0048】
【数2】
【0049】
ここで方向の基点を肩の付け根の高さではなく目の高さheye とした。これは図10に示すように、実際の観察の結果、人が何かに向かって腕指しをする場合、腕そのものの方向104で対象物を指すのではなく、目と指先を結んだ線の方向で指し示すことがより多く観察されたからである。目の高さheye 102は得られた頭の高さ(身長h)103から10cmを減じた値とした。腕長係数lとして日本人成人の平均である0.4を利用した。なお、図10において、101は肩の高さ、105は腕指しの方向を示している。
【0050】
そして、腕指し水平方向も目の位置と腕先の位置関係に基づいた上で求める。図11に示すように、人の平均重心111位置(xg ,yg )をg、腕重心112位置(xc ,yc )をc、腕先端113位置(xp ,yp )をp、腕水平方向115をαh 、図8(d)で得られた画像モーメント(腕本体)114の長辺をL1 とする。このとき、腕指し水平方向αh 115は式(3)に基づき求められる。
【0051】
【数3】
【0052】
なお、図11において、116は腕指しの方向を示している。
【0053】
この方法により、腕指しの3次元方向が確定され、指示動作が認識される(ステップS47)。腕指しの方向を決定する手法については、左右の腕に対して別モデルを用意するのではなく、共通に使えるアルゴリズムとする。
【0054】
腕指し認識においては、意図した腕指しを正確に認識すること以上に、利用者が腕指しを意図していない腕指し(疑似腕指し)の誤認識を抑制することが重要になる。
【0055】
その手法として次の3つを設定する。
【0056】
a.腕指し判定を行う高さの制限
b.画像モーメントの大きさによる判定
c.人物の動作の履歴からの判定
ここでは利用者が腕指しを意図していない(疑似腕指し)にも関わらずシステムが腕指しであると判定し易い主な状況を例に、その対応手法について述べる。
【0057】
(i)脚を投げ出した場合(疑似腕指し)
図12は脚を投げ出した場合の模式図であり、121は椅子、122は前方に投げ出された脚、123は腕指し認識下限、124は頭の高さ、125は座高を示している。
【0058】
図12に示すように、椅子121に座っていて前方に脚122を投げ出したとき、その投げ出された脚122の3次元点列が腕指し時のものと似たものになり、システムによる腕指し検出が行われることが考えられる。これを防ぐために人体形状による拘束を利用する。立位、座位に関わらず、腕指し時の腕部が腰の高さよりも高く位置することは明らかである。そこで頭の高さhhead124及び座高125に相当する高さhsit から腕指し判定の下限hmin 123を下記式(4)によって求め、それ以下の高さでの腕指し検出を無視する。
【0059】
【数4】
【0060】
(ii)小さな腕指しの場合(疑似腕指し)
図13は小さな腕指しの場合の模式図であり、図13(a)はその上面図、図13(b)はその正面図である。ここで、131は小さな腕指し、132は画像モーメント、133は画像モーメント132の長辺L1 、134は長辺L1 の下限である。
【0061】
図13に示すような小さな腕指し131の場合は、画像モーメント132の長辺L1 と身長との比が一定に達していない場合は腕指しでないと判定する。
【0062】
また、図14に示すように、平均重心141から腕指し先端144までの距離をr1、平均重心141から腕指し末端142までの距離をr2とする。このときのr1/r2が身長から設定された値以下である場合は同様に腕指しでないと判定する。なお、143は腕重心を示している。
【0063】
(iii)両腕を広げた場合(疑似腕指し)
図15は両腕を広げた場合の模式図(その1)であり、図15(a)はその斜視図、図15(b)はその上面図である。ここで、151は広げた両腕、152は両腕を拡げた場合の画像モーメントを示している。
【0064】
図15に示すように両腕を拡げた場合は、両腕を広げた部分の画像モーメント152の長辺L1 、短辺L2 より面積Sを下記式(5)から求め、面積Sに上限を、また、長辺L1 に下限を設定し、その面積Sが上限を越えた場合、または長辺L1 が下限を下回った場合は、腕指しではないとして無視する。
【0065】
【数5】
【0066】
図16は両腕を広げた場合の模式図(その2)であり、161は平均重心、162は腕指し末端、163は腕指し先端、164はその画像モーメントを示している。
【0067】
図16に示すように、画像モーメント164より、腕指し先端163から平均重心161の距離r3と腕指し末端162から平均重心161の距離r4の比が設定された値以上である疑似腕指しの場合、小さな腕指し同様に腕指しでないと判定する。
【0068】
(iv)握手など相手が側にいた場合(疑似腕指し)
図17は握手など相手が側にいた場合の模式図であり、図17(a)はその上面図、図17(b)はその斜視図であり、171は握手相手の小さな腕指し、172は腕指しの方向、173は腕指し先端、174は握手相手の平均重心である。
【0069】
図17に示すように、握手をしているなど、すぐ側に相手がいる場合は、腕指し先端173を中心に所定半径r内に相手の平均重心174を発見した場合、腕指しでないと判定する。
【0070】
(v)深いお辞儀をした場合(疑似腕指し)
上記式(5)の面積Sの上限設定を利用して腕でないと判定するとともに、腕指し動作検出時の頭の高さの変化から頭を下げたことを判定する。
【0071】
さらに利用者の意図しない誤操作を避けるために、操作前に予備動作(トリガ動作)を設定する。トリガ動作は操作対象に対し一定時間腕を差し伸べる動作とし、この動作によって操作対象を決定してから、以降の腕指しジェスチャを利用してこの操作対象の制御を行う。腕指し対象を決定するとき、トリガ動作中の時間を利用して腕指しの方向の判定を行うことで精度向上を図る。ただし腕が操作対象を指す前に判定が行われると精度損失を招く。よってこれを考慮し、腕指し検出から数フレームの間は判定を行わない。その後、腕指しが継続している間、毎フレームごとに腕重心と腕方向から腕指し先を特定して腕指し先の対象物の判定を行う。上記に適合し、設定した閾値sに達したものを操作対象とする。この閾値sはトリガとして認めるまでの時間T、腕指し移行時間Ttrans 、システムのフレームレートfおよび実際のシステムのターンアラウンドタイムTtat から下記式(6)によって求める。
【0072】
【数6】
【0073】
本発明では、室内空間5のうちの予め特定されたエリア内でユーザ4が腕指し動作を行うことにより、その特定エリア用の腕指し認識を行い、特定の機器操作を行うことができる。例えば、介護ベッドの位置の頭部サイドを特定エリアとし、そこでの動作を室内空間の他のエリアでの動作と区別することができる。
【0074】
図18はそのような動作の区別を説明するためのフローチャートである。
【0075】
まず、室内空間5のうち特定エリアを予め登録しておく(ステップS91)。そして、ユーザ4がその特定エリア内にいるかどうかをチェックする(ステップS92)。図5〜図8で示した手順で、再3次元化されたユーザ4の一連の時系列情報から、そのユーザ4が予め特定されたエリア内にいる場合(ステップS92におけるYESの場合)は、その特定エリア用の腕指し認識をステップS97において行う。また、特定エリア外にいる場合(ステップS92におけるNOの場合)は、そのスライスの高さ方向の情報を判断(判定)して、ユーザ4が立位かもしくは座位であるかをチェックする(ステップS93)。立位・座位の場合(ステップS93におけるYESの場合)は、ステップS96において立位・座位の一般的な腕指し認識を行う。立位でも座位でもない場合(ステップS93におけるNOの場合)は、ステップS94で伏位かどうか判定する。距離画像の連なりからステップS94で伏位と判定された場合(ステップS94におけるYESの場合)は、ステップS95において、伏位の腕指し認識を行う。ここでのステップS95〜97は腕指し認識部32に相当する。特定エリア外で、かつ姿勢が、立位・座位、伏位どちらとも判定されない場合(ステップS94におけるNOの場合)は、ステップS93に戻り姿勢認識を継続する。
【0076】
図19は伏位での腕指し認識部32の動作の一部を詳細化したフローチャートである。
【0077】
ステップS101において、頭部の位置の時系列情報から、ユーザ4の姿勢が伏位になったときに、その頭部位置情報を取得する。そして、その頭部位置情報を基準点として、ステップS102において、手が出せる範囲のプレートを切り出し、その各プレートの重心位置を取得する。その後、ステップS103において、基準点と各プレート重心の距離を測定し、基準点からの最遠点を手先位置と仮定する。ステップS104において、その手先位置とそのプレートの高さから腕の位置を算出し、基準点から手先位置までの距離が長い場合は腕指しがあり、短い場合は腕指しがないと判断(判定)する(ステップS105)。その後ステップS105で、腕指しがある場合(YES)のみ指示動作認識を行う(ステップS106)。
【0078】
図20は特定エリアでの腕指し認識部32の動作の一部を詳細化したフローチャートである。ここでの対象は、介護ベッド(リクライニングベッド)とし、ベッド上において、一般的な姿勢での座位や伏位時に、リクライニング機能の使用の有無の影響を受けずに、腕指し認識を可能にする。
【0079】
特定エリアを介護ベッドの位置とする場合は、ステップS1101で予めその室内空間5におけるベッド位置や、ベッドの大きさ、高さ、折れ線位置を操作機器データベース34に登録しておく。次に、ステップS1102で、ベッド底辺のスライス画像から、ベッドの起き上げ角度を計算する。ベッドの起き上げ角度は、図21に示すように、ベッドの底辺の画像を見ることで、ベッドの大きさとその稼動部分(写真では白っぽく表示される部分)の大きさから求めることが出来る。
【0080】
次に、ステップS1103において、ステップS1102で得られた起き上げ角度から判断(判定)して、角度が小さい場合は、伏位の腕指し認識をステップS1104において行った後、ステップS1114の指示動作認識を行う。
【0081】
起き上げ角度が大きい場合は、介護ベッド特有の腕指し認識を継続する。まず、ステップS1105において、背もたれ部分を除いたベッド面上の距離画像全体から、ユーザ4の仮重心を取得する。次に、ステップS1106において、ユーザ4の仮重心が、図21に示すようなベッド折り曲げ位置より頭部サイドにある場合は、ベッドによりかかっている(ステップS1107)と判定する。
【0082】
一方、逆に仮重心が脚部サイドに近い場合はベッドの背もたれから離れている(ステップS1108)と判定し、ステップS1113で、普通に座っている場合と同様に、立位・座位での腕指し認識を行う。
【0083】
背もたれに寄りかかっている場合(ステップS1107)は、ステップS1109において、ユーザ4の仮重心周りの背もたれ部分を除いた一定領域を切り出し、その各プレート単位での重心とそれらの平均重心を求める。そして、ステップS1110において、各プレート重心と平均重心との距離が最も離れているプレートを決定する。ステップS1111において、その平均重心と最遠点との距離が大きい場合は、腕指しが行われていると判定し、ステップS1112において、そのプレートから腕指しの3次元方向を特定する。ステップS1111において、平均重心と最遠点との距離が小さい場合は腕指しが行われていないと判定し、ステップS1105に戻り介護ベッドでの腕指し判定を継続する。
【0084】
次に、図23に指示動作の3つの基本様式を示した。位置姿勢認識、腕指し認識によって、腕指しをしている状態が正確に把握できている場合は、図23に示す指示動作者41が一定時間操作対象機器6に腕指しを続けると、その腕指しの先にある操作対象機器6にターゲットロックされる。ターゲットロック後の指示動作は十字操作〔図23(a)〕、パネルタッチ操作〔図23(b)〕、パネルジェスチャ操作〔図23(c)〕の3手法を提供する。
【0085】
図24には十字操作のフローチャートを示した。図24のステップS151において、指示動作者41がターゲットロックを行った際の腕の3次元方向を取得し、それを十字操作の原点とする。続けて、ターゲットロック後も腕指し動作が続いているかをステップS152で判断(判定)した後、腕指しが継続している場合(YES)は、ステップS153で腕指し3次元方向を取得し、その腕指しの方向が十字の指示動作範囲内にあるかどうかをステップS154で判断(判定)し、範囲内にある場合(YES)は、ステップS155において、その方向に対応するコマンドを連続して送信する。ステップS152において、一定時間腕指しがなかった場合(NO)は、腕指し判定を終了する。この十字動作は特にスイッチのオン・オフ、ボリュームやチャンネルの変更など、簡単な操作に適している。
【0086】
図25にはパネルタッチ操作のフローチャートを示した。図25のステップS161において、指示動作者41がターゲットロックを行った後の、体の方向(肩の向き)を取得し、それをパネルタッチ操作の基点とする。パネルタッチ操作では、指示を行うためのパネル(操作パネル42)が指示動作者41の前にあると仮想して行われる。図23の指示動作者41のように、ターゲットロック後の操作パネル42は、常に指示動作者41の真正面に設定される。この操作パネル42に対して、指示動作者41はその操作パネル42の一部(図23の例では9ヵ所に分割)にタッチすることで、操作対象機器6を制御する。
【0087】
次に、ターゲットロック後も腕指し動作が続いているかをステップS162で判断(判定)した後、腕指しが継続している場合(YES)は、肩の高さと腕指しの方向をステップS163で取得する。そして、体の正面に設定された操作パネル42の範囲内に腕指しがあるがどうかをステップS164で判断(判定)し、操作パネル42の範囲内にある場合(YES)は、どのパネルを指しているか判定し、その場所に対応するコマンドをステップS165において送信する。また、ステップS162において腕指しをしておらず(NO)、さらにステップS166において、ターゲットロックから一定時間腕指しがなかった場合(YES)は、腕指し判定を終了する。このパネルタッチ操作は、操作対象機器6のスイッチに上記のような直接触れるような操作をいくつか組み合わせることもできる。
【0088】
図26にはパネルジェスチャ操作のフローチャートを示した。図26のステップS1701において、指示動作者41がターゲットロックを行った後の、体の方向(肩の向き)を取得し、それをパネルジェスチャ操作の基点とする。パネルジェスチャ操作では、図23に示す指示動作者41のように、ターゲットロック後の操作パネル42は、常に指示動作者41の真正面に設定される。この操作パネル42に対して、指示動作者41が行うそのパネル内の範囲(図23の例では9カ所に分割)の腕指し軌跡を判別することで、操作対象機器6を制御する。つまり同じ円のような軌跡でも、その通過順序によって操作コマンドを別々に作ることができる。これらは全て操作機器登録部35によって自由に設定できる。
【0089】
具体的には、まず、ステップS1701で体の方向を取得した後、ステップS1702において、ターゲットロック後も腕指し動作が続いているかを判断(判定)する。腕指しが継続している場合(YES)は、肩の高さと腕指しの3次元方向をステップS1703で取得する。そして、その腕指しの方向が体の正面に設定された操作パネル42の範囲内にあるかどうかをステップS1704で判断(判定)し、操作パネル42の範囲内にある場合(YES)は、その腕指しされたパネルは既に指示動作者41の腕が通過済みか否かをステップS1705にて判断(判定)する。未通過の場合(NO)は、ステップS1706において、腕指し軌跡にそのパネル位置を追加する。そして、ステップS1707でその腕指し軌跡に対応する操作コマンドがあるかどうかを判定し、対応するコマンドがある場合(YES)は、その操作コマンドをステップS1708において送信する。ステップS1702において、腕指しがされていない場合(NO)は、腕指し軌跡の初期化を行い、ステップS1710でターゲットロックから一定時間腕指しなしで経過したかを判断(判定)してYESの場合は腕指し判定を終了する。このパネルジェスチャ操作は、その腕指し軌跡の順序を変えることで、様々な操作コマンドに対応させることができる。
【0090】
ここまでに示した十字操作、パネルタッチ操作、パネルジェスチャ操作は、基本的に操作対象機器6に対して、腕指しでターゲットロックを行った後、続けて、その操作対象機器6に向かって指示動作を行うことを基本としている。そこで、図1及び図2に示した表示装置8を用いることで、複雑な操作をより容易に行えることを示す実施形態を図27に示した。
【0091】
図27は、パネルタッチ操作やパネルジェスチャ操作と表示装置8との組み合わせによる指示操作実施形態を示している。第1段階として、ターゲットロックの実施形態51では、指示動作者41は操作対象機器6に対して腕指しをする意図を示している。このとき、指示動作者41は操作対象機器6に向かって腕指しを行い、表示装置8は別方向に存在する。
【0092】
次に、第2段階として、表示装置8を使った操作パネル42の利用形態52では、ターゲットロック直後に、指示動作者41の体の向きとは関係なしに、別方向にある表示装置8と指示動作者41とを結ぶ直線上に操作パネル42が設定される。これは指示動作者41がどの位置に移動しても一定時間は指示動作者41と表示装置8を結ぶ直線上に常に設定され、その操作パネル42と操作コマンドなどが表示装置8に表示される。
【0093】
第3段階として、表示装置8を使ったパネル操作実施形態53では、指示動作者41は、操作対象機器6を一切気にすることなしに、表示装置8に表示される操作パネル42や情報を見ながら実際に操作対象機器6を制御することができる。このような方法で、覚えられないコマンドや複雑な操作を行う場合でも、指示動作者41は表示装置8の助けを借りて容易に操作対象機器6を制御することが可能になる。
【0094】
さらに、このような表示装置8を使ったパネル操作実施形態53の別な実施形態として、最初からターゲットロックをしない方法もある。この方法では、操作対象機器6などをメニューとして表示装置8に表示しておき、指示動作者41は表示装置8のみに向かって室内のどの位置からでも全ての機器の制御を行う。この方法は、特に身体障害者など動き回ることが少なく、常時一方向を向いていることが多い人には便利なインタフェースとなる。
【0095】
図3の操作機器登録部35では、操作対象機器6の情報やその操作のための各種指示動作やその組み合わせなどを操作機器データベース34に登録することができる。このときの実施形態を図22のフローチャートに示した。ステップS141では、最初に対象となる操作対象機器6の種別、個別情報などを登録する。続いてステップS142では、その操作対象機器6の位置を登録する。さらにステップS143では、指示動作とそれに対応するコマンドの登録を行う。そしてステップS144では、さらに複雑な場合として、指示動作の組み合わせ、指示動作時の表示装置利用の有無などを登録し、これらの一連の動作を必要数だけ繰り返す。
【0096】
また、これら一連の操作機器登録時には、操作コマンド送受信装置9を使って、BluetoothやECHONETなどを有する情報家電などとの間で通信を行う。これは操作機器登録部35と操作コマンド送受信装置9との間で必要情報を相互に通信して、必要な情報を獲得する。
【0097】
ステップS142においては、操作機器にLEDなどのランプを取り付け、それをBluetoothやECHONETなどを経由した命令で点灯させることによって、それがステレオカメラ1の視野範囲にある場合は、その3次元位置を自動的に取得することが可能である。
【0098】
なお、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づいて種々の変形が可能であり、これらを本発明の範囲から排除するものではない。
【0099】
【発明の効果】
以上、詳細に説明したように、本発明によれば、以下のような効果を奏することができる。
【0100】
(A)室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作を実現させることができる。
【0101】
(B)上記(A)を受けて、ユーザの腕指しによる指示動作によって室内空間の操作対象機器の操作を容易にすることができる。
【0102】
(C)特定エリアの設定により、ユーザの腕指しによる目標を確実に設定することができる。
【0103】
(D)特定エリアが介護ベッドの頭部サイドである場合、特定エリアを基準にして、立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の操作対象機器の操作をアシストすることができる。
【0104】
(E)疑似腕指しを的確に検出する。つまり、一見、腕指しのように見える挙動を腕指しから確実に除外して、正確な腕指しの判定を行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態のシステム構成を示す図である。
【図2】本発明の一実施形態のシステム構成を示す図である。
【図3】図1及び図2に示した情報統合認識装置のブロック図である。
【図4】本発明の一実施形態の動作を説明するためのフローチャートである。
【図5】本発明に用いられる段違い引き出し法の説明図である。
【図6】本発明に用いられる姿勢認識処理方法の説明図(その1)である。
【図7】本発明に用いられる姿勢認識処理方法の説明図(その2)である。
【図8】本発明に用いられる姿勢認識処理方法の説明図(その3)である。
【図9】本発明に用いられる姿勢認識処理方法の説明図(その4)である。
【図10】本発明の一実施形態の動作を説明するための説明図〔腕指し図(その1)〕である。
【図11】本発明の一実施形態の動作を説明するための説明図〔腕指し図(その2)〕である。
【図12】本発明の一実施形態の動作を説明するための説明図(脚を投げ出した場合)である。
【図13】本発明の一実施形態の動作を説明するための説明図〔小さな腕指し(その1)の場合〕である。
【図14】本発明の一実施形態の動作を説明するための説明図〔小さな腕指し(その2)の場合〕である。
【図15】本発明の一実施形態の動作を説明するための説明図〔両腕を広げた場合(その1)〕である。
【図16】本発明の一実施形態の動作を説明するための説明図〔両腕を広げた場合(その2)〕である。
【図17】本発明の一実施形態の動作を説明するための説明図(握手など相手が側にいた場合)である。
【図18】本発明の一実施形態の動作の区別を説明するためのフローチャートである。
【図19】図18における伏位での腕指し認識部の動作の一部を詳細化したフローチャートである。
【図20】本発明における特定エリアでの腕指し認識部の動作の一部を詳細化したフローチャートである。
【図21】ベッドの起き上げ角度を計算するためのベッドの底辺の画像である。
【図22】本発明における操作機器データベースの登録を説明するためのフローチャートである。
【図23】本発明における指示動作の3つの基本様式を説明するための説明図である。
【図24】本発明における十字操作を説明するためのフローチャートである。
【図25】本発明におけるパネルタッチ操作を説明するためのフローチャートである。
【図26】本発明におけるパネルジェスチャ操作を説明するためのフローチャートである。
【図27】本発明の一実施形態の動作を説明するための説明図である。
【図28】従来の技術を示す図である。
【図29】従来の技術を示す図である。
【符号の説明】
1,1−1,1−2,…,1−n ステレオカメラ
2 画像処理装置
3 情報統合認識装置
4,4−1,4−2,…,4−n ユーザ(複数可能)
5 操作可能空間(室内空間)
6 操作対象機器
6−A エアコン
6−B テレビジョン
8 表示装置
9 操作コマンド送受信装置
31 位置姿勢認識部
32 腕指し認識部
33 指示動作認識部
34 操作機器データベース
35 操作機器登録部
41 指示動作者
42 操作パネル
51 ターゲットロック実施形態
52 表示装置を使った操作パネルの利用形態
53 表示装置を使ったパネル操作実施形態
101 肩の高さ
102 目の高さ
103,124 頭の高さ
104 腕の方向
105,116,172 腕指しの方向
111,141,161 平均重心
112,143 腕重心
113 腕先端
114,132,164 画像モーメント
115 腕水平方向
121 椅子
122 前方に投げ出された脚
123 腕指し認識下限
125 座高
131 小さな腕指し
133 画像モーメントの長辺
134 長辺の下限
142,162 腕指し末端
144,163,173 腕指し先端
151 広げた両腕
152 両腕を拡げた場合の画像モーメント
171 握手相手の小さな腕指し
174 握手相手の平均重心
Claims (17)
- (a)室内空間において複数のステレオカメラにより該室内を撮像し、前記各ステレオカメラ単位で視野内の撮像画像と室内の座標系に基づいた距離画像を生成する画像処理手段と、
(b)前記各ステレオカメラからの距離情報に基づき、ユーザの位置姿勢と腕指しを抽出する位置姿勢・腕指し認識手段と、
(c)前記ユーザの腕指しが識別された場合に、該腕が指し示している方向、その動きから、指示動作であるかどうかを認識する指示動作認識手段と、
を具備することを特徴とするインタフェース装置。 - 請求項1記載のインタフェース装置において、前記指示動作認識手段の動作に基づき、予め登録された室内機器を操作するコマンドを送出し、その結果を受信する操作コマンド送受信装置を具備することを特徴とするインタフェース装置。
- 請求項1又は2記載のインタフェース装置において、前記位置姿勢・腕指し認識手段は、集められた3次元情報から前記距離データを室内空間座標系に沿って、段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする位置姿勢認識部と、該得られた複数のユーザの2次元投影図から腕指しの方向を識別する腕指し認識部とを有することを特徴とするインタフェース装置。
- 請求項1又は2記載のインタフェース装置において、前記指示動作認識手段は、前記得られた腕指しの方向の時系列データからその指示動作を認識する指示動作認識部を有し、更に、腕指し操作の対象となる操作対象機器の情報や操作方法を保存する操作機器データベースと、前記操作対象機器の基本情報、位置、操作方法を記憶する操作機器登録部とを具備することを特徴とするインタフェース装置。
- 請求項1記載のインタフェース装置において、前記腕指しを抽出する位置姿勢・腕指し認識手段は、各ステレオカメラから得られた3次元距離情報を、室内座標系に基づいて、20cmごとに階層的に区切って情報を切り出す段違い引き出し法により、各引き出し内に入った点列を2次元平面に投影した後、二値化して、2次元の二値画像となし、各階層単位でラベリングを行った後で各クラスタの全体重心を求め、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げて、3次元点列として利用し、Z軸に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身)までをXY平面上にプロットし、全体重心と比較して大きな外れ値があった場合を腕指し動作が行われたとするとともに、最上部より8階層分までの二値画像と等価の矩形形状である画像モーメントを求めて得られた8組のデータのうち面積が一定の範囲にあり、かつ画像モーメントの長辺と短辺の差が最も大きい階層の長辺の垂直方向を体の向きとし、前記した腕指し動作が認識された場合、最も全体重心からプレート重心が離れた階層の二値画像の重心と全体重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り、腕部分のみを残し、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺、重心、腕先端位置、全体重心を計算することで腕指しのXY平面上での向きを決定し、身長、目の高さ、腕長係数から腕指しのZ方向の向きを決定して腕指しの方向を求め、指示動作を認識することを特徴とするインタフェース装置。
- 請求項5記載のインタフェース装置において、頭の高さ及び座高に相当する高さから腕指し判定の下限を設定して、該下限より下にある疑似腕指しの場合は、腕指しではないと判定することを特徴とするインタフェース装置。
- 請求項6記載のインタフェース装置において、前記下限より下にある疑似腕指しの場合が脚を投げ出した場合であるインタフェース装置。
- 請求項5記載のインタフェース装置において、前記画像モーメントの長辺の身長との比が一定に達していない場合は、腕指しでないと判定することを特徴とするインタフェース装置。
- 請求項5記載のインタフェース装置において、平均重心から腕指し先端までの距離をr1、前記平均重心から腕指し末端までの距離をr2とすると、r1/r2が身長から設定された値以下である場合は、腕指しでないと判定することを特徴とするインタフェース装置。
- 請求項8又は9記載のインタフェース装置において、該当する場合が、小さい腕指しであることを特徴とするインタフェース装置。
- 請求項5記載のインタフェース装置において、前記画像モーメントの長辺L1 、短辺L2 より面積Sを求め、該面積Sに上限を、前記画像モーメントの長辺L1 に下限を設定し、この限度から外れる場合は、腕指しでないと判定することを特徴とするインタフェース装置。
- 請求項5記載のインタフェース装置において、腕指し先端と平均重心間距離と、腕指し末端と平均重心間距離の比が設定値以上の場合は、腕指しでないと判定することを特徴とするインタフェース装置。
- 請求項11又は12記載のインタフェース装置において、前記限度から外れる場合は、両手を広げた場合であることを特徴とするインタフェース装置。
- 請求項5記載のインタフェース装置において、ユーザの腕指し先端を中心に、所定の半径内に相手の平均重心を発見した場合は、腕指しでないと判定することを特徴とするインタフェース装置。
- 請求項1又は2記載のインタフェース装置において、前記室内空間のうち特定エリアを予め登録しておき、その特定エリアにユーザがいる場合にそのユーザの腕指しを識別することを特徴とするインタフェース装置。
- 請求項15記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいる場合は、その特定エリア用の腕指し識別を行うことを特徴とするインタフェース装置。
- 請求項16記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいない場合は、ユーザが立位、座位又は伏位かどうか判定し、それぞれの姿勢での腕指しを識別することを特徴とするインタフェース装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003166659A JP4035610B2 (ja) | 2002-12-18 | 2003-06-11 | インタフェース装置 |
PCT/JP2003/016171 WO2004055726A1 (ja) | 2002-12-18 | 2003-12-17 | インタフェース装置 |
AU2003289395A AU2003289395A1 (en) | 2002-12-18 | 2003-12-17 | Interface system |
US10/540,127 US7821531B2 (en) | 2002-12-18 | 2003-12-17 | Interface system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002366432 | 2002-12-18 | ||
JP2003166659A JP4035610B2 (ja) | 2002-12-18 | 2003-06-11 | インタフェース装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246856A true JP2004246856A (ja) | 2004-09-02 |
JP4035610B2 JP4035610B2 (ja) | 2008-01-23 |
Family
ID=32599280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003166659A Expired - Lifetime JP4035610B2 (ja) | 2002-12-18 | 2003-06-11 | インタフェース装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7821531B2 (ja) |
JP (1) | JP4035610B2 (ja) |
AU (1) | AU2003289395A1 (ja) |
WO (1) | WO2004055726A1 (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209359A (ja) * | 2005-01-26 | 2006-08-10 | Takenaka Komuten Co Ltd | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム |
JP2007274234A (ja) * | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた白杖使用者検出システム |
JP2008123186A (ja) * | 2006-10-17 | 2008-05-29 | Chuo Electronics Co Ltd | 不正通過者検出装置及びこれを利用した不正通過者録画システム |
JP2008140268A (ja) * | 2006-12-04 | 2008-06-19 | Denso Corp | 操作推定装置およびプログラム |
JP2009151419A (ja) * | 2007-12-19 | 2009-07-09 | Advanced Telecommunication Research Institute International | 対象物特定方法および装置 |
JP2009240370A (ja) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | 動作検出装置 |
JP2010165223A (ja) * | 2009-01-16 | 2010-07-29 | Denso Corp | 操作推定装置およびプログラム |
JP2011044160A (ja) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム |
JP2011215921A (ja) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012008998A (ja) * | 2010-06-23 | 2012-01-12 | Ind Technol Res Inst | 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体 |
JP2012069114A (ja) * | 2010-09-21 | 2012-04-05 | Visteon Global Technologies Inc | 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース |
JP2012098771A (ja) * | 2010-10-29 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
JP2012198608A (ja) * | 2011-03-18 | 2012-10-18 | Nec Personal Computers Ltd | 入力装置および入力方法 |
JP2013105203A (ja) * | 2011-11-10 | 2013-05-30 | Canon Inc | 情報処理装置、情報処理装置の制御方法、及び情報処理システム |
JP2013114466A (ja) * | 2011-11-29 | 2013-06-10 | Nikon Corp | 表示システム、表示方法およびプログラム |
JP2014504394A (ja) * | 2010-11-17 | 2014-02-20 | オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド | ゾーンを監視する方法及び装置 |
JP2015061577A (ja) * | 2013-01-18 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
WO2015118756A1 (ja) * | 2014-02-10 | 2015-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2016024690A (ja) * | 2014-07-22 | 2016-02-08 | Necパーソナルコンピュータ株式会社 | 動作認識装置、動作認識方法、及び、プログラム |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
JP2016218610A (ja) * | 2015-05-18 | 2016-12-22 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
WO2017145787A1 (ja) * | 2016-02-23 | 2017-08-31 | ソニー株式会社 | 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム |
US10156909B2 (en) | 2015-04-17 | 2018-12-18 | Mitsubishi Electric Corporation | Gesture recognition device, gesture recognition method, and information processing device |
WO2019235263A1 (ja) * | 2018-06-06 | 2019-12-12 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2021517314A (ja) * | 2018-04-13 | 2021-07-15 | 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. | 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4566596B2 (ja) * | 2004-03-29 | 2010-10-20 | アルパイン株式会社 | 操作指示装置 |
US7893920B2 (en) * | 2004-05-06 | 2011-02-22 | Alpine Electronics, Inc. | Operation input device and method of operation input |
JP4712804B2 (ja) * | 2005-07-29 | 2011-06-29 | パイオニア株式会社 | 画像表示制御装置及び画像表示装置 |
DE102006053837A1 (de) * | 2006-11-14 | 2008-05-15 | Robert Bosch Gmbh | Integrierter Schaltkreis |
KR100851977B1 (ko) * | 2006-11-20 | 2008-08-12 | 삼성전자주식회사 | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8269834B2 (en) | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US8588464B2 (en) | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP5182202B2 (ja) * | 2009-04-14 | 2013-04-17 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
WO2011045786A2 (en) | 2009-10-13 | 2011-04-21 | Rami Parham | Wearable device for generating input for computerized systems |
KR101082545B1 (ko) * | 2010-01-28 | 2011-11-10 | 주식회사 팬택 | 영상 변환 기능을 구비한 이동통신 단말기 |
US9880619B2 (en) | 2010-02-23 | 2018-01-30 | Muy Interactive Ltd. | Virtual reality system with a finger-wearable control |
EP2679013A2 (en) | 2010-02-23 | 2014-01-01 | MUV Interactive Ltd. | A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
US20110268365A1 (en) * | 2010-04-30 | 2011-11-03 | Acer Incorporated | 3d hand posture recognition system and vision based hand posture recognition method thereof |
DE102011002577A1 (de) * | 2011-01-12 | 2012-07-12 | 3Vi Gmbh | Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung |
KR101789683B1 (ko) * | 2011-06-13 | 2017-11-20 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치 |
US9305229B2 (en) | 2012-07-30 | 2016-04-05 | Bruno Delean | Method and system for vision based interfacing with a computer |
KR20150110032A (ko) * | 2014-03-24 | 2015-10-02 | 삼성전자주식회사 | 영상데이터 처리 전자장치 및 방법 |
KR102209354B1 (ko) * | 2014-06-20 | 2021-01-29 | 엘지전자 주식회사 | 영상 표시 기기 및 그의 동작 방법 |
WO2017020954A1 (en) * | 2015-08-06 | 2017-02-09 | Arcelik Anonim Sirketi | Multi-point motion sensing and user monitoring system for an image display device |
US10057078B2 (en) | 2015-08-21 | 2018-08-21 | Samsung Electronics Company, Ltd. | User-configurable interactive region monitoring |
JP6922410B2 (ja) * | 2017-05-19 | 2021-08-18 | 富士通株式会社 | 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法 |
CN109143875B (zh) * | 2018-06-29 | 2021-06-15 | 广州市得腾技术服务有限责任公司 | 一种手势控制智能家居方法及其系统 |
EP4099275A4 (en) * | 2020-01-29 | 2023-07-05 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
JPH1031551A (ja) * | 1996-07-15 | 1998-02-03 | Mitsubishi Electric Corp | ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置 |
JP2000056916A (ja) * | 1998-08-06 | 2000-02-25 | Takenaka Komuten Co Ltd | ハンドポインティング装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2000259337A (ja) * | 1999-03-10 | 2000-09-22 | Atr Media Integration & Communications Res Lab | ポインティング装置 |
JP2000267800A (ja) * | 1999-01-12 | 2000-09-29 | Takenaka Komuten Co Ltd | 動作認識装置 |
JP2001216527A (ja) * | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体 |
JP2001513244A (ja) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オプション選択に基づくジェスチャー方法及び装置 |
JP2002157079A (ja) * | 2000-11-09 | 2002-05-31 | Doko Kagi Kofun Yugenkoshi | 意向識別方法 |
JP2002259989A (ja) * | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP2004246578A (ja) * | 2003-02-13 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
JP2004258766A (ja) * | 2003-02-24 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム |
JP2004265222A (ja) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | インタフェース方法、装置、およびプログラム |
JP2004272515A (ja) * | 2003-03-07 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | インタフェース方法、装置、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7036094B1 (en) * | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US6611206B2 (en) * | 2001-03-15 | 2003-08-26 | Koninklijke Philips Electronics N.V. | Automatic system for monitoring independent person requiring occasional assistance |
-
2003
- 2003-06-11 JP JP2003166659A patent/JP4035610B2/ja not_active Expired - Lifetime
- 2003-12-17 AU AU2003289395A patent/AU2003289395A1/en not_active Abandoned
- 2003-12-17 US US10/540,127 patent/US7821531B2/en active Active
- 2003-12-17 WO PCT/JP2003/016171 patent/WO2004055726A1/ja active Application Filing
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
JPH1031551A (ja) * | 1996-07-15 | 1998-02-03 | Mitsubishi Electric Corp | ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置 |
JP2001513244A (ja) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オプション選択に基づくジェスチャー方法及び装置 |
JP2000056916A (ja) * | 1998-08-06 | 2000-02-25 | Takenaka Komuten Co Ltd | ハンドポインティング装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2000267800A (ja) * | 1999-01-12 | 2000-09-29 | Takenaka Komuten Co Ltd | 動作認識装置 |
JP2000259337A (ja) * | 1999-03-10 | 2000-09-22 | Atr Media Integration & Communications Res Lab | ポインティング装置 |
JP2001216527A (ja) * | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体 |
JP2002157079A (ja) * | 2000-11-09 | 2002-05-31 | Doko Kagi Kofun Yugenkoshi | 意向識別方法 |
JP2002259989A (ja) * | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP2004246578A (ja) * | 2003-02-13 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、およびプログラム |
JP2004258766A (ja) * | 2003-02-24 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム |
JP2004265222A (ja) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | インタフェース方法、装置、およびプログラム |
JP2004272515A (ja) * | 2003-03-07 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | インタフェース方法、装置、およびプログラム |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209359A (ja) * | 2005-01-26 | 2006-08-10 | Takenaka Komuten Co Ltd | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム |
JP4608326B2 (ja) * | 2005-01-26 | 2011-01-12 | 株式会社竹中工務店 | 指示動作認識装置及び指示動作認識プログラム |
JP2011044160A (ja) * | 2005-12-12 | 2011-03-03 | Sony Computer Entertainment Inc | コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム |
JP2007274234A (ja) * | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | ステレオカメラを用いた白杖使用者検出システム |
JP4691708B2 (ja) * | 2006-03-30 | 2011-06-01 | 独立行政法人産業技術総合研究所 | ステレオカメラを用いた白杖使用者検出システム |
JP2008123186A (ja) * | 2006-10-17 | 2008-05-29 | Chuo Electronics Co Ltd | 不正通過者検出装置及びこれを利用した不正通過者録画システム |
JP4617286B2 (ja) * | 2006-10-17 | 2011-01-19 | 中央電子株式会社 | 不正通過者検出装置及びこれを利用した不正通過者録画システム |
JP2008140268A (ja) * | 2006-12-04 | 2008-06-19 | Denso Corp | 操作推定装置およびプログラム |
JP4670803B2 (ja) * | 2006-12-04 | 2011-04-13 | 株式会社デンソー | 操作推定装置およびプログラム |
JP2009151419A (ja) * | 2007-12-19 | 2009-07-09 | Advanced Telecommunication Research Institute International | 対象物特定方法および装置 |
JP2009240370A (ja) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | 動作検出装置 |
JP2010165223A (ja) * | 2009-01-16 | 2010-07-29 | Denso Corp | 操作推定装置およびプログラム |
JP2011215921A (ja) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012008998A (ja) * | 2010-06-23 | 2012-01-12 | Ind Technol Res Inst | 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体 |
US8433131B2 (en) | 2010-06-23 | 2013-04-30 | Industrial Technology Research Institute | Method for recognizing three-dimensional control point and computer readable medium using the same thereof |
JP2012069114A (ja) * | 2010-09-21 | 2012-04-05 | Visteon Global Technologies Inc | 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース |
JP2012098771A (ja) * | 2010-10-29 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
JP2014504394A (ja) * | 2010-11-17 | 2014-02-20 | オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド | ゾーンを監視する方法及び装置 |
US10841539B2 (en) | 2010-11-17 | 2020-11-17 | Omron Scientific Technologies, Inc. | Method and apparatus for monitoring zones |
JP2012198608A (ja) * | 2011-03-18 | 2012-10-18 | Nec Personal Computers Ltd | 入力装置および入力方法 |
JP2013105203A (ja) * | 2011-11-10 | 2013-05-30 | Canon Inc | 情報処理装置、情報処理装置の制御方法、及び情報処理システム |
JP2013114466A (ja) * | 2011-11-29 | 2013-06-10 | Nikon Corp | 表示システム、表示方法およびプログラム |
JP2015061577A (ja) * | 2013-01-18 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
WO2015118756A1 (ja) * | 2014-02-10 | 2015-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JPWO2015118756A1 (ja) * | 2014-02-10 | 2017-03-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10088910B2 (en) | 2014-02-10 | 2018-10-02 | Sony Corporation | Information processing apparatus and information processing method |
JP2016024690A (ja) * | 2014-07-22 | 2016-02-08 | Necパーソナルコンピュータ株式会社 | 動作認識装置、動作認識方法、及び、プログラム |
JP2016045670A (ja) * | 2014-08-22 | 2016-04-04 | 株式会社国際電気通信基礎技術研究所 | ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置 |
US10156909B2 (en) | 2015-04-17 | 2018-12-18 | Mitsubishi Electric Corporation | Gesture recognition device, gesture recognition method, and information processing device |
JP2016218610A (ja) * | 2015-05-18 | 2016-12-22 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
JPWO2017145787A1 (ja) * | 2016-02-23 | 2018-12-13 | ソニー株式会社 | 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム |
CN107924239A (zh) * | 2016-02-23 | 2018-04-17 | 索尼公司 | 遥控装置、遥控方法、遥控系统和程序 |
WO2017145787A1 (ja) * | 2016-02-23 | 2017-08-31 | ソニー株式会社 | 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム |
CN107924239B (zh) * | 2016-02-23 | 2022-03-18 | 索尼公司 | 遥控系统、遥控方法和记录介质 |
JP2021517314A (ja) * | 2018-04-13 | 2021-07-15 | 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. | 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体 |
US11481036B2 (en) | 2018-04-13 | 2022-10-25 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Method, system for determining electronic device, computer system and readable storage medium |
JP7280888B2 (ja) | 2018-04-13 | 2023-05-24 | 北京京東尚科信息技術有限公司 | 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体 |
WO2019235263A1 (ja) * | 2018-06-06 | 2019-12-12 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN112204505A (zh) * | 2018-06-06 | 2021-01-08 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
JPWO2019235263A1 (ja) * | 2018-06-06 | 2021-07-08 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11570017B2 (en) | 2018-06-06 | 2023-01-31 | Sony Corporation | Batch information processing apparatus, batch information processing method, and program |
JP7306386B2 (ja) | 2018-06-06 | 2023-07-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2003289395A1 (en) | 2004-07-09 |
JP4035610B2 (ja) | 2008-01-23 |
US20060168523A1 (en) | 2006-07-27 |
US7821531B2 (en) | 2010-10-26 |
WO2004055726A1 (ja) | 2004-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4035610B2 (ja) | インタフェース装置 | |
JP6334925B2 (ja) | 動作情報処理装置及び方法 | |
Kepski et al. | Fall detection using ceiling-mounted 3d depth camera | |
CN106859675B (zh) | 用3d相机进行的用于x射线管的扫描仪自动化的方法和系统 | |
US11016569B2 (en) | Wearable device and method for providing feedback of wearable device | |
CN109799900B (zh) | 手腕可安装计算通信和控制设备及其执行的方法 | |
JP6814220B2 (ja) | モビリティ及びモビリティシステム | |
JP3749369B2 (ja) | ハンドポインティング装置 | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
US20160065909A1 (en) | Video monitoring system | |
US20110118877A1 (en) | Robot system and method and computer-readable medium controlling the same | |
CN110666791B (zh) | 一种基于深度学习的rgbd机器人看护系统及方法 | |
Yamamoto et al. | Arm-pointing gesture interface using surrounded stereo cameras system | |
WO2013149586A1 (zh) | 一种腕上手势操控系统和方法 | |
CN109558004B (zh) | 一种人体辅助机器人的控制方法及装置 | |
TWI652039B (zh) | Simple detection method and system for sarcopenia | |
TW201724022A (zh) | 對象辨識系統,對象辨識方法及電腦記憶媒體 | |
JP2017012691A (ja) | リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム | |
JP2000056916A (ja) | ハンドポインティング装置 | |
JP7243725B2 (ja) | 対象物体検出プログラム、および対象物体検出装置 | |
JP2016087226A (ja) | 運動補助装置、運動補助方法、プログラム | |
CN111515946B (zh) | 一种人体辅助机器人的控制方法及装置 | |
Cheng et al. | Application exploring of ubiquitous pressure sensitive matrix as input resource for home-service robots | |
KR20150028623A (ko) | 영상 처리 방법 및 영상 처리 장치 | |
JP2022010581A (ja) | 検知装置、検知方法、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4035610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |