JP2005251197A - 環境から情報を収集するためのシステムおよび方法 - Google Patents

環境から情報を収集するためのシステムおよび方法 Download PDF

Info

Publication number
JP2005251197A
JP2005251197A JP2005053359A JP2005053359A JP2005251197A JP 2005251197 A JP2005251197 A JP 2005251197A JP 2005053359 A JP2005053359 A JP 2005053359A JP 2005053359 A JP2005053359 A JP 2005053359A JP 2005251197 A JP2005251197 A JP 2005251197A
Authority
JP
Japan
Prior art keywords
information
environment
computing system
computing
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005053359A
Other languages
English (en)
Inventor
Christian Goerick
クリスチャン・ゲーリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2005251197A publication Critical patent/JP2005251197A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)

Abstract

【課題】環境内の物体に関する情報を収集するためのコンピューティング・システムの能力を向上させる。
【解決手段】コンピューティング・システムが、環境から情報を収集することができ、特にコンピューティング・システムの環境内の物体に関する情報を収集することができる。このシステムは、環境から視覚情報を収集する手段と、コンピューティング・システムの環境内の物体によって能動的に送信される情報を受信するする手段と、物体を認識するために視覚情報と無線で受信された情報を結合する手段と、を含む。
【選択図】図1

Description

本発明は、パーベイシブ・コンピューティング環境における視覚情報および物体情報の統合手法に関する。
視覚情報を使用した情景分析(scene analysis)は、活発な研究分野である。特に、制約付き環境および限定数の物体に関して、成功した応用例が報告されている。すなわち、顔認識である。同時に、自然環境では、一眼カメラ・システムまたは立体カメラ・システムからの純粋に視覚的な情報による成功は制限される。しばしば、追加のセンサ群、例えば、レーダー・センサ群または赤外線センサ群が追加され、視覚システムによって行われる処理を補助し容易にする。
「パーベイシブ・コンピューティング(Pervasive Computing)」は、処理能力および通信能力を有するが、従来のコンピュータとはみなされていないデバイスに関する。パーベイシブ・コンピューティング環境およびユビキタス・コンピューティング環境では、環境内の各要素または各物体は、その他の物体および/または部屋に入ってくる新たな物体によって使用されることが可能な情報を送信する。例えば、モバイル・コンピュータは、このようなコンピューティング環境に持ち込まれ、利用可能なプリンタ群およびネットワーク群を自動的に検出し、それらに接続することができる。しかし、このような小型コンピューティング・デバイスは技術的物体に限定されることはなく、衣服に使用したり、または日常使用する物体に取り付けることが容易に可能である。
特許文献1は、パーベイシブ・コンピューティング・デバイスを開示している。
特許文献2は、マルチモーダル・インテグレーション(multimodal integration)を用いたユビキタス・コンピューティング環境におけるシステムを開示している。
英国特許第2347834A号 米国特許第2003/0149803A1号
本発明の目的は、環境内の物体に関する情報を収集するためのコンピューティング・デバイスの能力を向上させることである。
この目的は、独立請求項の特徴によって達せられる。独立請求項は、本発明の中心的な考えをさらに発展させる。
本発明の第1の態様によれば、コンピューティング・システムが、環境から情報を収集することができ、特にコンピューティング・システムの環境内の物体に関する情報を収集することができる。このシステムは、環境から視覚情報を収集する手段と、コンピューティング・システムの環境内の物体によって能動的に送信される情報を受信するする手段と、物体を認識するために視覚情報と無線で受信された情報を結合する手段と、を含む。
コンピューティング・システムは、モバイル・コンピューティング・デバイスであることが可能である。
コンピューティング・システムは、(例えば、人間型の)ロボットであることが可能である。
コンピューティング・システムは、自動車またはモーターバイクに取り付けることができる。
コンピューティング・システムは、据え置き型デバイスであることが可能である。
本発明のさらなる態様は、環境から情報を収集するための方法に関する。この方法は、環境から視覚情報を収集するステップと、コンピューティング・システムの環境内の物体によって能動的に送信される情報を受信するステップと、物体を認識するために視覚情報と無線で受信された情報を結合するステップと、を有する。
本発明のさらなる態様は、このような方法を実施するコンピュータ・プログラムに関する。
本発明のさらなる特徴、利点、および目的を以下に、本発明によるシステムを概略で示す同封の図面の単一の図を参照して説明する。
図1は、環境に関し、特にコンピューティング・デバイス9の環境内の物体2に関するマルチモーダルな情報を収集し、論理的に処理するためのシステム1を全体的に示している。「環境」とは、コンピューティング・デバイス9の周囲の領域を表す。この領域は、コンピューティング・デバイス9が、領域内に配置された物体から知覚情報を収集し、または送信された信号を無線で受信することができるように定義される。
コンピューティング・デバイス9は、情報を収集するための少なくとも2つのデバイス6、7、すなわち、視覚センサ手段(カメラなど)6と、物体2から送信された情報を無線で受信するための後続の受信ステージ(following receiver stage)(図示せず)を有するアンテナ7とを備えている。
2つの入力データ・ストリームは、インテグレータ・ユニット8において結合され、処理される。インテグレータ・ユニット8は、少なくとも2つのマルチモーダルな入力ストリームで識別された物体に関する判定を行い、前記判定に基づいて出力信号10を生成することができる。出力信号10は、例えば、アクチュエータを作動させ、またはコンピューティング・デバイスを識別された物体に向けて動かす。
物体2は、関連付けられた物体2に関する情報を送信するRF IDタグを備えている。
したがって、本発明は、パーベイシブまたはユビキタス・コンピューティング環境において、視覚情報と、物体および要素から送信された情報とを結合することができるインテグレータ・ユニット8を提案する。これにより、純粋に視覚的な分析から獲得することがしばしば困難である情報を、物体自体からの情報で補うことができ、またその逆も同様である。物体によって送信された情報を主観的(subjective)情報と呼び、視覚システムによって収集された情報を客観的(objective)情報と呼ぶ。
この区別の理由は、次のとおりである。物体によって送信される情報は、物体自体の視点からの情報に過ぎない。すなわち、この情報は、物体中心的(object-centered)である。このタイプの情報の例は、存在、形状、色、重量、対称性情報、易損性などの静的(static)情報、および温度、満杯/空(full/empty)などの動的(dynamic)情報である。
しかし、視覚システムは、1つの物体を中心とするだけでなく、物体間の関係および位置を考慮に入れた情報を収集することができる。したがって、このタイプの情報を客観的と呼ぶ。また、この区別により、我々の発明と、システムに追加の知覚デバイス群を追加して、それらの異なるデバイス群によって提供される情報を融合させることに通常専念している従来技術との違いも強調される。しかし、本発明では、異なるタイプの情報、主観的情報と客観的情報を結合する。
通常、カメラ・システムおよびインテグレータは、人間型ロボットのようなモバイル・プラットフォーム上に搭載されるが、代替のシナリオも考えられる。以下を参照されたい。プラットフォームは、パーベイシブ・コンピューティング環境の中に入り、パーベイシブ・コンピューティング環境は、最も単純な場合、自らに関する情報を供給することができる1つの物体である。この情報が、インテグレータにより、異なるステージにおいて視覚情報処理システムおよび動作生成システムと結合される。モバイル・プラットフォームのシナリオでは、物体は、テーブル上のマグであって良い。マグは、例えば、RF IDタグを備えており、形状、色、重量、適度な易損性のような、自らの存在に関する主観的情報を発信する。RF IDタグは、例えば、インテグレータから要求するアクティブ化信号を受信すると、その情報を能動的に発信することができる。
同時に、視覚システムは、テーブル上の物体に関していくつかの仮説(一部は、アーチファクトであるか、またはパーベイシブ・コンピューティング環境の一部ではない物体からのものである可能性がある)を既に提供することができる。色のような粗い情報に基づき、インテグレータは、視覚システムの焦点を視野の特定の部分に合わせることができる。形状情報を使用して、物体が部分的に遮られているかどうかを判定することが可能である。さらに、インテグレータは、物体のいずれの側がモバイル・プラットフォームに向いているかを推定することができる(例えば、把持する目的で、プラットフォームが位置を変える必要がある可能性がある)。2つの物体が互いを部分的に遮っているのか、あるいは1つの物体の部分であるのかの判断に、客観的情報源のみ、または主観的情報源のみから達することは困難である可能性がある。パーベイシブ・コンピューティング環境と視覚情報を使用することで、インテグレータは、難なくそのような判断に達することができる。さらに、インテグレータは、易損性の度合い、または空/満杯に関するような追加の情報を、マニピュレータのような全体的システムの他のデバイス群に提供することができる。この情報は、どのように、どのぐらいの力で物体に接近するかについてマニピュレータを駆動するシステムによって使用されることが可能である。
インテグレータ・システムの応用の例は、以下のとおりである。すなわち、
−パーベイシブ・コンピューティング環境の中に入っていくインテグレータ・システムおよびカメラ・システムを搭載した人間型ロボット、
−パーベイシブ・コンピューティング・デバイスを供給することができる他の自動車、歩行者のインテリジェント衣服、交通信号、および交通状況に関連する他の物体から情報を収集するインテグレータ・システムおよびカメラ・システムを搭載した自動車、
−物体が監視区域内に入っていく据え置き型インテグレータおよびカメラ・システム。例えば、空港、銀行、鉄道の駅などにおける室内システムまたは監視システムである。このシステムでは、インテリジェント衣服、荷物などのパーベイシブ・コンピューティング物体が、据え置き型システムの区域内に入っていく。
−PDA、ラップトップ、またはモバイル電話機のようなモバイル・デバイス上のインテグレータおよびカメラ・システム。
本システムを以下のとおり要約することができる。
1.カメラ部およびインテグレータ部を有する能動的で、自律的なモバイル・プラットフォーム(例えば人間型ロボット)上に実装されたシステムであって、該インテグレータ部は、情景分析のために、次いでマニピュレータのような全体的システムの追加のデバイス群を制御するために主観的情報と客観的情報の前述した結合を実行することができる、システム。
2.カメラ部およびインテグレータ部を有する受動的、または部分的に能動的な自律的でない、または部分的に自律的なモバイル・プラットフォーム(例えば、自動車)上に実装されたシステムであって、該インテグレータ部は、情景分析のために、次いで照明、ブレーキ、またはシートベルトなどのようなシステムの追加のデバイス群を制御するために主観的情報と客観的情報の前述した結合を実行することができる、システム。
3.カメラ部およびインテグレータ部分を有する据え置き型システムであって、該インテグレータ部は、情景分析のために、次いで警報デバイス群のような追加のデバイス群の制御または要求された情報のユーザへの提供のために、主観的情報と客観的情報の前述した結合を実行することができる、システム。
環境に関するマルチモーダルな情報を収集し、論理的に処理するためのシステム1を示す図である。
符号の説明
1 システム
2 物体
6 視覚センサ手段
7 アンテナ
8 インテグレータ・ユニット
9 コンピューティング・デバイス
10 信号

Claims (7)

  1. 環境から情報を収集するためのコンピューティング・システムであって、
    前記環境から視覚情報を収集する手段と、
    コンピューティング・システムの環境内の物体によって能動的に送信される情報を受信するための手段と、
    物体を認識するために前記視覚情報と無線で受信された前記情報を結合する手段と、
    を有するコンピューティング・システム。
  2. モバイル・コンピューティング・デバイスであることを特徴とする、請求項1に記載のコンピューティング・システム。
  3. ロボットであることを特徴とする、請求項1または請求項2のいずれかに記載のコンピューティング・システム。
  4. 自動車またはモーターバイクに実装されることを特徴とする、請求項1に記載のコンピューティング・システム。
  5. 据え置き型デバイスであることを特徴とする、請求項1に記載のコンピューティング・システム。
  6. 環境から情報を収集するための方法であって、
    前記環境から視覚情報を収集するステップと、
    コンピューティング・システムの環境内の物体によって能動的に送信される情報を受信するステップと、
    物体を認識するために前記視覚情報と無線で受信された前記情報を結合するステップと、
    を有する方法。
  7. コンピューティング・デバイス上で請求項6に記載の方法を実行するコンピュータ・ソフトウェア・プログラム。

JP2005053359A 2004-03-03 2005-02-28 環境から情報を収集するためのシステムおよび方法 Pending JP2005251197A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04005027 2004-03-03
EP04012383A EP1571584A1 (en) 2004-03-03 2004-05-25 Integrating visual and object information in a pervasive computing environment

Publications (1)

Publication Number Publication Date
JP2005251197A true JP2005251197A (ja) 2005-09-15

Family

ID=34751692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005053359A Pending JP2005251197A (ja) 2004-03-03 2005-02-28 環境から情報を収集するためのシステムおよび方法

Country Status (4)

Country Link
US (1) US7644059B2 (ja)
EP (1) EP1571584A1 (ja)
JP (1) JP2005251197A (ja)
CN (1) CN100576248C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012533802A (ja) * 2009-07-17 2012-12-27 クゥアルコム・インコーポレイテッド マスタデバイスとオブジェクトデバイスとの自動インターフェース接続

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5284599B2 (ja) * 2007-03-30 2013-09-11 株式会社日立国際電気 画像処理装置
CN107685669B (zh) * 2017-08-31 2024-01-09 湖南匡楚科技有限公司 共享单车的收集方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092291A1 (fr) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Dispositif de detection d'objet, serveur de detection d'objet et procede de detection d'objet

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1430420A (en) * 1972-04-24 1976-03-31 Niemi A Method and apparatus for analyzing a visible object
US6507779B2 (en) * 1995-06-07 2003-01-14 Automotive Technologies International, Inc. Vehicle rear seat monitor
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
US5056031A (en) * 1988-11-12 1991-10-08 Kabushiki Kaisha Toyota Chuo Kenyusho Apparatus for detecting the collision of moving objects
US6720920B2 (en) * 1997-10-22 2004-04-13 Intelligent Technologies International Inc. Method and arrangement for communicating between vehicles
US6088469A (en) * 1996-09-30 2000-07-11 Sony Corporation Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US7131136B2 (en) * 2002-07-10 2006-10-31 E-Watch, Inc. Comprehensive multi-media surveillance and response system for aircraft, operations centers, airports and other commercial transports, centers and terminals
DE19842161C1 (de) * 1998-09-15 1999-08-26 Order Anordnung zur automatischen Erfassung der Augenzahl der Oberseite eines Spielwürfels und eine eine derartige Anordnung aufweisende Spielanlage zur professionellen Ausübung von Tischspielen mit Spielwürfeln und Jetons, insbesondere des Spiels "Craps"
EP1103352A1 (en) * 1999-01-18 2001-05-30 Sony Corporation Robot, main unit of robot, and coupling unit of robot
TW454123B (en) 1999-01-28 2001-09-11 Ibm Method and system for enabling pervasive computing devices to communicate with each other
AUPP839199A0 (en) * 1999-02-01 1999-02-25 Traffic Pro Pty Ltd Object recognition & tracking system
US6161071A (en) * 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP4207336B2 (ja) * 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
EP1232424A1 (en) * 1999-11-18 2002-08-21 The Procter & Gamble Company Home cleaning robot
KR20010111503A (ko) * 2000-02-09 2001-12-19 이데이 노부유끼 정보 처리 장치 및 방법, 데이터 유지 장치 및 프로그램
JP4480843B2 (ja) * 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
CA2426991C (en) * 2000-11-17 2008-04-08 Honda Giken Kogyo Kabushiki Kaisha Biped robot
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
KR100454714B1 (ko) * 2002-02-16 2004-11-05 한국과학기술연구원 작업용 로봇, 작업용 로봇을 위한 액츄에이터 및 작업용 로봇의 제어방법
US20040030449A1 (en) * 2002-04-22 2004-02-12 Neal Solomon Methods and apparatus for multi robotic system involving coordination of weaponized unmanned underwater vehicles
KR100556612B1 (ko) * 2002-06-29 2006-03-06 삼성전자주식회사 레이저를 이용한 위치 측정 장치 및 방법
WO2004052597A1 (ja) * 2002-12-10 2004-06-24 Honda Motor Co.,Ltd. ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US7415321B2 (en) * 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
KR100548272B1 (ko) * 2003-07-23 2006-02-02 엘지전자 주식회사 이동로봇의 위치검출장치 및 방법
CN1802239A (zh) * 2003-08-21 2006-07-12 提姆查克股份有限公司 机器人装置以及机器人远程操作系统
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092291A1 (fr) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Dispositif de detection d'objet, serveur de detection d'objet et procede de detection d'objet

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012533802A (ja) * 2009-07-17 2012-12-27 クゥアルコム・インコーポレイテッド マスタデバイスとオブジェクトデバイスとの自動インターフェース接続
KR20140090263A (ko) * 2009-07-17 2014-07-16 퀄컴 인코포레이티드 마스터 디바이스와 오브젝트 디바이스 간의 자동 인터페이싱
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
JP2015038740A (ja) * 2009-07-17 2015-02-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated マスタデバイスとオブジェクトデバイスとの自動インターフェース接続
US8971811B2 (en) 2009-07-17 2015-03-03 Qualcomm Incorporated Interface between object devices initiated with a master device
KR101583245B1 (ko) * 2009-07-17 2016-01-08 퀄컴 인코포레이티드 마스터 디바이스와 오브젝트 디바이스 간의 자동 인터페이싱
US9667817B2 (en) 2009-07-17 2017-05-30 Qualcomm Incorporated Interface between object devices initiated with a master device
KR101755147B1 (ko) * 2009-07-17 2017-07-19 퀄컴 인코포레이티드 마스터 디바이스와 오브젝트 디바이스 간의 자동 인터페이싱

Also Published As

Publication number Publication date
US7644059B2 (en) 2010-01-05
EP1571584A1 (en) 2005-09-07
US20050234977A1 (en) 2005-10-20
CN100576248C (zh) 2009-12-30
CN1667651A (zh) 2005-09-14

Similar Documents

Publication Publication Date Title
US10489982B2 (en) Device, system and method for controlling a display screen using a knowledge graph
US10078961B2 (en) Method and device for operating a traffic-infrastructure unit including a signal source
IL288004B2 (en) Real-time video data stream latency estimation
WO2021084519A1 (en) System for multi-path 5g and wi-fi motion detection
JP7052305B2 (ja) 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
US10225525B2 (en) Information processing device, storage medium, and control method
JP7459916B2 (ja) 物体追跡方法、物体追跡装置、及びプログラム
JP7320690B2 (ja) 光通信用のシステム、デバイス及び方法
US12018947B2 (en) Method for providing navigation service using mobile terminal, and mobile terminal
KR20190117477A (ko) 제어 장치 및 방법
JP2016066314A (ja) 警備システム及び警備方法
US20220223050A1 (en) Electronic device controlling a plurality of external electronic devices performing resource offloading, and a control method thereof
JP2005251197A (ja) 環境から情報を収集するためのシステムおよび方法
JP2019053438A (ja) 情報処理装置、情報提供システム、情報提供方法、及びプログラム
JP6661902B2 (ja) 通信制御装置、通信制御方法及びプログラム
CN109691063B (zh) 用于接收、处理和传输数据的方法和设备
JP2020129369A (ja) モバイル機器を使用する画像処理のためのシステムおよび方法
US10878211B2 (en) System and method enabling location, identification, authentication and ranging with social networking features
CN109715465B (zh) 用于运行第一车辆的方法和设备
WO2021164387A1 (zh) 目标物体的预警方法、装置和电子设备
JP6733732B2 (ja) 位置推定プログラム、位置推定装置、および位置推定方法
KR101953796B1 (ko) 차량용 주변 감시 장치 및 방법
US9444988B2 (en) Fast image sensor for body protection gear or equipment
US11830247B2 (en) Identifying antenna communication issues using unmanned aerial vehicles
Gunasundari et al. Gesture Controlled Drone Swarm System for Violence Detection Using Machine Learning for Women Safety

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110906