JP2006058887A - 情報処理システム、並びに、情報処理装置および方法 - Google Patents
情報処理システム、並びに、情報処理装置および方法 Download PDFInfo
- Publication number
- JP2006058887A JP2006058887A JP2005236883A JP2005236883A JP2006058887A JP 2006058887 A JP2006058887 A JP 2006058887A JP 2005236883 A JP2005236883 A JP 2005236883A JP 2005236883 A JP2005236883 A JP 2005236883A JP 2006058887 A JP2006058887 A JP 2006058887A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- code
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 簡単かつ迅速に、データを処理できるようにする。
【解決手段】 CCDビデオカメラ31で、本41のカラーコード42を取り込み、カラーコード識別部61でこれを識別する。音声認識部62は、マイクロホン32で取り込んだ音声を認識する際、識別されたカラーコード42に対応する分野の辞書を選択し、参照する。視覚メッセージ発生部67は、音声認識部62で認知された結果に基づく視覚メッセージを発生する。スーパインポーズ部68は、ビデオ信号に視覚メッセージをスーパインポーズし、テレビジョン受像機33のディスプレイに供給し、表示される。本発明は、音声認識システムに適用できる。
【選択図】 図2
【解決手段】 CCDビデオカメラ31で、本41のカラーコード42を取り込み、カラーコード識別部61でこれを識別する。音声認識部62は、マイクロホン32で取り込んだ音声を認識する際、識別されたカラーコード42に対応する分野の辞書を選択し、参照する。視覚メッセージ発生部67は、音声認識部62で認知された結果に基づく視覚メッセージを発生する。スーパインポーズ部68は、ビデオ信号に視覚メッセージをスーパインポーズし、テレビジョン受像機33のディスプレイに供給し、表示される。本発明は、音声認識システムに適用できる。
【選択図】 図2
Description
本発明は、情報処理システム、並びに、情報処理装置および方法に関し、特に所望の情報を迅速かつ確実に得ることができるようにした情報処理システム、並びに、情報処理装置および方法に関する。
最近、音声認識システムの開発が進み、各種の分野で応用されている。この音声認識システムにおいては、ユーザの会話をマイクロホンを介して取り込み、その特徴を分析して、単語として認識するようにしている。
そして不明な単語が認識された場合においては、文脈情報(会話の流れ)から分析を行うようにしている。これにより、例えば、「我輩は猫であるの著者は誰ですか。」といった文章をユーザが音声入力した場合、この質問を分析し、コンピュータにより、その回答を出力させることができる。
しかしながら、例えば、「この本の著者は誰ですか。」といった文章が入力された場合、「この本」の単語を認識することができたとしても、「この本」が具体的にどの本を指すのか特定しなければ、その質問に対する回答を行うことができない。このような代名詞により、指称される意味を会話の文脈だけから判断することは困難である。
また、音声認識の認識率を向上させるには、できるだけ多くの語彙を辞書に登録しておき、これを参照するようにすればよいが、語彙の数が多くなると、それだけ認識に時間がかかることになる。また、誤認識のおそれも多くなる。
本発明はこのような状況に鑑みてなされたものであり、迅速かつ簡単に、データを処理することができるようにするものである。
本発明の情報処理システムは、所定のコードにそれぞれ対応付けられた所定の情報を記憶する記憶手段と、現実世界のオブジェクトの画像を取り込む画像取込手段と、前記画像取込手段により取り込まれた前記画像の中の前記コードを識別する識別手段と、前記画像取込手段により取り込まれた前記画像を表示する表示手段と、前記記憶手段に記憶されている前記情報の中から、前記識別手段により識別された前記コードに対応づけられている情報を選択する選択手段とを備え、前記表示手段は、前記選択手段により選択された前記情報を、前記画像取込手段により取り込まれた前記画像に重畳させて表示することを特徴とする。
前記オブジェクトに関するキーワードの入力を制御する入力制御手段をさらに備え、前記選択手段は、前記コードおよび前記キーワードに基づいて、前記情報を選択することを特徴とする。
本発明の情報処理装置は、他の装置とネットワークを介して接続される情報処理装置であって、現実世界のオブジェクトの画像を取り込む画像取込手段と、前記画像取込手段により取り込まれた前記画像を表示する表示手段と、前記他の装置と通信を行う通信手段とを備え、前記通信手段は、前記ネットワークを介して、前記画像を前記他の装置に送信するとともに、前記画像の中の所定のコードに基づいて検索された所定の情報を前記他の装置より受信し、前記表示手段は、受信した前記情報を、前記画像取込手段により取り込まれた前記画像に重畳させて表示することを特徴とする。
本発明の情報処理方法は、現実世界のオブジェクトの画像を取り込む画像取込ステップと、前記画像の中の所定のコードを識別する識別ステップと、所定のコードにそれぞれ対応付けられた記憶手段に記憶されている所定の情報の中から、識別された前記コードに対応づけられている情報を選択する選択ステップと、選択された前記情報を、取り込まれた前記画像に重畳させて表示する表示ステップとを含むことを特徴とする。
本発明の情報処理システムおよび情報処理方法においては、現実世界のオブジェクトの画像が取り込まれ、画像の中の所定のコードが識別され、所定のコードにそれぞれ対応付けられた記憶手段に記憶されている所定の情報の中から、識別されたコードに対応づけられている情報が選択され、選択された情報が、取り込まれた画像に重畳されて表示される。
本発明の情報処理装置においては、現実世界のオブジェクトの画像が取り込まれ、ネットワークを介して、画像が他の装置に送信されるとともに、画像の中の所定のコードに基づいて検索された所定の情報が他の装置より受信され、受信された情報が、取り込まれた画像に重畳されて表示される。
本発明によれば、簡単、確実、迅速に、所望の情報を検索することが可能となる。また、本発明によれば、迅速かつ簡単に、データを処理することができる。
図1は、本発明の情報処理システムの一般的な構成例を表している。この実施例においては、携帯端末10が入力部1を備え、現実世界オブジェクト13のデータを取り込むようになされている。入力部1は、CCDビデオカメラ、バーコードリーダ、マイクロホンなどにより構成される。現実世界オブジェクト13としては、テーブル、キャビネット、ドア、壁、コンピュータ、オフィス機器、文書、ホルダなど、種々のものが考えられる。
検出部2は、例えばGPS装置、PHS装置(簡易無線電話)などよりなり、衛星その他を介して伝送されてくる電波を受信して、現在時刻や現在位置を検出する。
入力部3は、例えばキーボード、トラックボールなどにより構成され、ユーザID、その他のデータを入力するとき操作される。
合成部4は、入力部1より供給される現実世界オブジェクト13のデータ、検出部2より供給される時刻データや位置データ、入力部3より供給されるユーザIDなどのデータを合成し、通信部6に供給している。通信部6は、入力されたデータをネットワーク11に出力するとともに、ネットワーク11より伝送されてきたデータを取り込み、ディスプレイ、スピーカなどより構成される出力部5に出力する。
ネットワーク11は、ワイヤレス、あるいは所定の通信回線を介して構成され、データベース12に接続されている。
次に、その動作について説明する。通信部6は、データベース12にアクセスするとき、入力部1から現実世界オブジェクト13の所定のものの識別コード(ID)をCCDビデオカメラで読み取る。この読み取られた識別データは、合成部4を介して通信部6に供給される。通信部6は、このデータをネットワーク11を介してデータベース12に供給する。
データベース12は、入力された識別コードに対応する検索処理を行い、得られた検索結果をネットワーク11を介して通信部6に出力する。通信部6は、このデータを出力部5に供給し、画像データは、そのディスプレイに表示させるとともに、音声データはスピーカから出力させる。
なお、この実施例においては、データベース12をネットワーク11を介して携帯端末10に接続するようにしたが、データベース12を携帯端末10に内蔵させるようにすることも可能である。
図2は、図1に示した実施例を音声認識システムに応用した例を表している。この実施例においては、携帯端末10が、入力部1としてのCCDビデオカメラ31と、マイクロホン32を有しており、また、出力部5として、パームトップのテレビジョン受像機(TV)33を有している。この他、図1における通信部6も有しているが、便宜上、図2においては省略されている。また、ネットワーク11は、ワイヤレスネットワークにより構成されるが、図2においては、その図示は省略されている。
データベース12は、例えば図書館に配置されているコンピュータ51により構成されている。CCDビデオカメラ31は、現実世界オブジェクト13の1つとしての本41の所定の位置に印刷されているカラーコード42を読み取り、その読み取った画像データをNTSC方式のビデオ信号として、コンピュータ51のカラーコード識別部61に供給している。カラーコード識別部61は、入力されたビデオ信号からカラーコードを識別し、その識別結果を音声認識部62と自然言語処理部64に出力している。
音声認識部62には、対話辞書63が接続されており、音声認識部62は、この対話辞書63のデータを利用して、マイクロホン32より入力された音声データを認識する処理を実行する。
音声認識部62の出力は、自然言語処理部64に供給され、解析されるようになされている。自然言語処理部64の出力は、会話メッセージ発生部65に供給され、会話メッセージ発生部65は、入力に対応する会話メッセージを発生し、音声合成部66と視覚メッセージ発生部67に出力している。
音声合成部66は、会話メッセージ発生部65より供給された会話メッセージを音声信号に変換し、テレビジョン受像機33のスピーカ(図示せず)に供給するようになされている。
視覚メッセージ発生部67は、会話メッセージ発生部65からの入力に対応する視覚メッセージ(文字データ)を発生し、スーパインポーズ部68に出力している。スーパインポーズ部68は、視覚メッセージ発生部67より入力された文字データと、ビデオカメラ31より供給されたビデオデータとを合成し、テレビジョン受像機33に供給し、表示させるようになされている。
次に、その動作について説明する。ユーザは、例えば、「この本の著者は誰ですか。」の音声を出力し、その回答をコンピュータ51より得たいと思うとき、CCDビデオカメラ31で対象とする本41のカラーコード42を読み取らせる。カラーコード識別部61は、CCDビデオカメラ31より入力されるビデオ信号からカラーコードを識別し、その識別結果(ID番号)を音声認識部62に出力する。音声認識部62は、このID番号の入力に対応して図3のフローチャートに示す処理を実行する。
すなわち、最初にステップS1において、ID番号が入力されたか否かを判定し、ID番号が入力されていないと判定された場合、ステップS2に進み、予め設定されているデフォルトの参照順位で、対話辞書63に記憶されている複数の辞書を順次参照して、マイクロホン32より入力された音声の認識処理を実行する。
これに対して、ステップS1において、ID番号が入力されたと判定された場合、ステップS3に進み、入力されたID番号に対応する分野の辞書を第1番目の参照順位に設定する。そして、対話辞書63に記憶されている複数の辞書のうち、第1番目の参照順位に設定された辞書を参照して、マイクロホン32より入力された音声データの認識処理を実行する。
例えば、音声認識部62は、入力されたID番号から、その本41の著者、タイトルを判定することができる。そして、その本の分野(フィールド)を判定する。この分野とは、例えば、政治、経済、物理、運動といったような分野である。対話辞書63は、こういった分野別に辞書を有している。音声認識部62は、マイクロホン32より入力された音声データを認識するに際し、第1番目の参照順位に選定された分野の辞書から順次参照を行う。マイクロホン32より入力される音声は、CCDビデオカメラ31で、そのカラーコード42を取り込んだ本41に関する音声である可能性が高い。その結果、この現実世界における本41の分野に関する辞書を参照して音声認識処理を行うと、より的確に、短時間で、音声認識を完了することができる。
音声認識部62で認知された結果は、自然言語処理部64に供給され、解析される。この解析に際しても、カラーコード識別部61で識別されたID番号が利用される。これにより、例えば、「この本」の音声が認識された場合において、「この本」が意味するところの本をID番号で特定される本として認識する。従って、例えば、ID番号が「我輩は猫である」のタイトルの本のものである場合においては、その著者は「夏目漱石」と判定する。
そこで、自然言語処理部64は、例えば、「この本の著者は夏目漱石です。」の会話メッセージを発生させるように、会話メッセージ発生部65を制御する。会話メッセージ発生部65は、音声合成部66を制御し、「この本の著者は夏目漱石です。」の音声メッセージを発生させる。この音声メッセージは、テレビジョン受像機33のスピーカより出力される。
一方、会話メッセージ発生部65が発生した会話メッセージは、視覚メッセージ発生部67に入力され、視覚メッセージ、すなわち文字、あるいは図形に変換される。いまの場合、「この本の著者は夏目漱石です。」の文字列(文章)が発生され、スーパインポーズ部68において、CCDビデオカメラ31が出力するビデオ信号にスーパインポーズされ、テレビジョン受像機33のディスプレイに供給、表示される。
このようにして、簡単かつ確実に、音声認識部62において使用する辞書を特定の分野の辞書に切り替えることができる。その結果、認識率を向上させることができるばかりでなく、より迅速な認識処理を行うことが可能となる。
また、「この本」といった、曖昧な表現に対する分析も、迅速かつ確実に、行うことが可能となる。
図4は、他の実施例を表している。この実施例においては、雑誌広告43にカラーコード44が印刷されている。この雑誌広告43には、例えば、所定の自動車の宣伝広告が印刷されている。
このカラーコード44を、CCDビデオカメラ31で取り込むと、この取り込んだビデオ信号がコンピュータ81の位置データベース91に供給される。位置データベース91は、入力されたビデオ信号からカラーコード44を識別し、対応するID番号に変換する。
また、位置データベース91は、仮想世界93のデータを記憶している。この仮想世界93には、各種の商品を扱う仮想世界の販売店などが形成されている。データベース91は、この仮想世界93の中から、CCDビデオカメラ31より取り込んだID番号に対応する商品を取り扱っている店を検索する。
すなわち、位置データベース91は、図5のフローチャートに示す処理を実行する。最初にステップS11においてID番号が入力されるまで待機し、ID番号が入力されたときステップS12に進み、入力されたID番号に対応する仮想世界の情報を読み出し、これを出力する。
そして、検索された店のデータを3D(3次元)ビジュアライザ92に供給し、ビデオ信号に変換させ、このビデオ信号は、携帯端末10のテレビジョン受像機33のディスプレイ34に供給され、表示される。
これにより、ユーザは、雑誌広告43に掲載されている自動車のより詳しい情報を仮想世界93から(仮想世界93の販売店から)得ることができる。
従って、自動車販売者は、雑誌に各種の広告を行い、その広告にカラーコードを付しておくとともに、その広告する商品を取り扱う販売店を仮想世界93に形成しておくことで、より効果的な販売促進を行うことができる。
図6は、本発明のさらに他の実施例を表している。この実施例においては、携帯端末10が、インターネットなどに代表されるネットワーク11に接続されている。このネットワーク11には、WWW(World Wide Web)のシステムが構築されており、各種の情報プロバイダ101から各種の情報がハイパーテキストに代表されるハイパーメディアとして提供されている。従って、各ユーザは、情報を一元的に識別するアドレスとしてのURL(Uniform Resource Locator)を指定することで、各種の情報にアクセスすることが可能となされている。
データベース12は、ネットワーク11を介してWWWに接続されており、WWWに情報を提供している情報提供者の緯度、経度、高度などの位置情報を記憶している。そして、この位置情報は、WWWに登録されている情報にURLでリンクしている。
すなわち、例えば、情報プロバイダ101から、WWWに所定の情報を登録するとき、その表示画面には、例えば図7に示すような項目が表示される。情報プロバイダ101では、この各項目に必要な入力を行う。この実施例においては、URLとして、http://www.taxim.co.jpが入力され、緯度として、40°13’10”が、また経度として、135°40’05”が、それぞれ入力されている。さらに、情報のタイトルとして、「タキシムドパリ銀座店」が、またキーワードとして「レストラン」と「フランス料理」が、それぞれ入力されている。
このような所定の項目に、所定の入力を行った後、登録キーを操作すると、WWWに、タキシムドパリ銀座店のタイトルの情報(ファイル)が登録される。ファイルの中身には、必要な文字(テキスト)や図形を書き込むことができる。そして、ハイパーメディアとして、所定の文字に所定のURLを対応させることができる。
またこの時、データベース12には、ファイルの中身は登録されないが、図7に示した各項目が登録される。
この実施例においては、携帯端末10が、検出部2として、GPS装置20を有している。従って、携帯端末10の現在位置が、常に分かるようになっている。
この実施例の場合、ネットワーク11には、この他、カーナビゲーションシステム10Aや、街頭キオスク10Bが接続されている。カーナビゲーションシステム10AもGPS装置20Aを有しており、常に現在位置を検出するようになされている。また、街頭キオスク10Bは固定されているため、固定した位置情報を発生する。
なお、現在位置を知るには、GPSの他、PHS(簡易無線電話)を用いるようにしてもよい。この場合、現在位置は、現在、どのセルの中にいるかということから判定される。
いま、例えば、ユーザが携帯端末10を携帯して、銀座、またはその周辺に到着したとする。そして、その近傍のレストランで食事をしたいと思ったとき、携帯端末10において、図8のフローチャートに示す処理を実行する。
すなわち、最初にステップS21において、キーワードと現在位置を入力する。いま、検索したいのはレストランであるから、キーボードを操作して、「レストラン」の文字をキーワードとして入力する。現在位置は、GPS装置20により検出され、自動的に設定されている。
図9は、携帯端末10において、検索を指令する場合における携帯端末10のディスプレイ34の表示例を表している。キーワードには、「レストラン」の文字が入力されている。また、緯度と経度は、GPS装置20により検出したものが自動的に設定されている。
この状態において、検索ボタンを操作すると、携帯端末10の通信部6はステップS22に進み、データベース12にアクセスする。そして、キーワードと現在位置の情報をデータベース12に出力する。
データベース12は、このキーワードと位置情報の供給を受けたとき、そのキーワードに対応されており、かつ、現在位置から所定の距離(例えば1km)の範囲内の位置情報が対応されているURL(すなわちレストラン)を検索する。そして、データベース12は、検索した結果を携帯端末10に伝送する。
携帯端末10は、ステップS23において、データベース12より供給された検索結果を取得し、そのディスプレイ34に検索結果を表示させる。これにより、携帯端末10のディスプレイ34には、図10に示すように、現在位置から1kmの範囲内のレストランの名称が表示される。このレストランの名称には、そのレストランに関する、より詳細な情報を取得するためのURLが対応されている。
そこで、ユーザはステップS24に進み、表示されているレストランの中から所望のレストランを選択する(所望のURLを選択する)。
この時、携帯端末10はステップS25に進み、WWWにアクセスし、ステップS24で選択したURLに対応する情報の検索を要求する。WWWにおいては、この要求に対応して指定されたURLに対応する情報を検索し、携帯端末10に出力する。
携帯端末10は、WWWより供給された情報をステップS26で取得し、ディスプレイ34に表示させる。
例えば、図10に示すレストランのうち、「タキシムドパリ銀座店」を選択したとき、図11に示すように、WWWからこの「タキシムドパリ銀座店」の情報(ファイル)が読みだされ、表示される。
以上のようにして、現在位置の周辺のレストランに関する情報を、簡単かつ確実に、得ることができる。各情報プロバイダは、WWWに登録している情報を常に最新の情報に更新しているので、ユーザは、最新の情報を迅速に得ることができる。
なお、図6の実施例においては、データベース12をWWWと別個に構成するようにしたが、これをWWWに含めてシステムを構築することも可能である。
以上、本発明を説明したが、本発明は上記した実施例以外の各種の情報処理システムに適応することが可能である。
1 入力部, 2 検出部, 3 入力部, 4 合成部, 5 出力部, 6 通信部, 10 携帯端末, 11 ネットワーク, 12 データベース, 13 現実世界オブジェクト
Claims (4)
- 所定のコードにそれぞれ対応付けられた所定の情報を記憶する記憶手段と、
現実世界のオブジェクトの画像を取り込む画像取込手段と、
前記画像取込手段により取り込まれた前記画像の中の前記コードを識別する識別手段と、
前記画像取込手段により取り込まれた前記画像を表示する表示手段と、
前記記憶手段に記憶されている前記情報の中から、前記識別手段により識別された前記コードに対応づけられている情報を選択する選択手段と
を備え、
前記表示手段は、前記選択手段により選択された前記情報を、前記画像取込手段により取り込まれた前記画像に重畳させて表示する
ことを特徴とする情報処理システム。 - 前記オブジェクトに関するキーワードの入力を制御する入力制御手段を
さらに備え、
前記選択手段は、前記コードおよび前記キーワードに基づいて、前記情報を選択する
ことを特徴とする請求項1に記載の情報処理システム。 - 他の装置とネットワークを介して接続される情報処理装置において、
現実世界のオブジェクトの画像を取り込む画像取込手段と、
前記画像取込手段により取り込まれた前記画像を表示する表示手段と、
前記他の装置と通信を行う通信手段と
を備え、
前記通信手段は、前記ネットワークを介して、前記画像を前記他の装置に送信するとともに、前記画像の中の所定のコードに基づいて検索された所定の情報を前記他の装置より受信し、
前記表示手段は、受信した前記情報を、前記画像取込手段により取り込まれた前記画像に重畳させて表示する
ことを特徴とする情報処理装置。 - 現実世界のオブジェクトの画像を取り込む画像取込ステップと、
前記画像の中の所定のコードを識別する識別ステップと、
所定のコードにそれぞれ対応付けられた記憶手段に記憶されている所定の情報の中から、識別された前記コードに対応づけられている情報を選択する選択ステップと、
選択された前記情報を、取り込まれた前記画像に重畳させて表示する表示ステップと
を含むことを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005236883A JP2006058887A (ja) | 2005-08-17 | 2005-08-17 | 情報処理システム、並びに、情報処理装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005236883A JP2006058887A (ja) | 2005-08-17 | 2005-08-17 | 情報処理システム、並びに、情報処理装置および方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004196862A Division JP2005004782A (ja) | 2004-07-02 | 2004-07-02 | 情報処理システム、情報処理装置および情報処理方法、並びに携帯型情報端末装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006058887A true JP2006058887A (ja) | 2006-03-02 |
Family
ID=36106347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005236883A Pending JP2006058887A (ja) | 2005-08-17 | 2005-08-17 | 情報処理システム、並びに、情報処理装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006058887A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018510412A (ja) * | 2015-02-19 | 2018-04-12 | インドアアトラス オサケ ユキチュア | 検索機能を備えたモバイル装置 |
-
2005
- 2005-08-17 JP JP2005236883A patent/JP2006058887A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018510412A (ja) * | 2015-02-19 | 2018-04-12 | インドアアトラス オサケ ユキチュア | 検索機能を備えたモバイル装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6055536A (en) | Information processing apparatus and information processing method | |
JPH096798A (ja) | 情報処理システムおよび情報処理方法 | |
KR101683676B1 (ko) | 사운드를 이용한 증강 현실 서비스 제공 장치 및 방법 | |
JPWO2005066882A1 (ja) | 文字認識装置、移動通信システム、移動端末装置、固定局装置、文字認識方法および文字認識プログラム | |
US20080094496A1 (en) | Mobile communication terminal | |
JP2008234427A (ja) | ユーザ間の対話を支援する装置、方法およびプログラム | |
JP2005004782A (ja) | 情報処理システム、情報処理装置および情報処理方法、並びに携帯型情報端末装置 | |
JP6366409B2 (ja) | システム、ナビゲーション方法、およびプログラム | |
JP3898440B2 (ja) | 情報提供システム | |
KR101536933B1 (ko) | 위치 정보 제공 방법 및 장치 | |
JP2011065526A (ja) | オペレーティングシステム及びオペレーティング方法 | |
JP2006209784A (ja) | 情報処理システム、情報処理端末、情報処理装置及び情報処理方法 | |
JPH11203295A (ja) | 情報提供装置および方法 | |
JP2000076040A (ja) | 音声入力ネットワーク端末装置 | |
JP2006171012A (ja) | 無線通信端末、相対距離推定方法及びプログラム | |
JP2006058887A (ja) | 情報処理システム、並びに、情報処理装置および方法 | |
JP5618371B2 (ja) | 検索システム、端末、検索装置、及び検索方法 | |
JP2005107978A (ja) | 撮影機能付き情報端末による情報検索装置、及び、情報検索方法 | |
KR20190044950A (ko) | 단일 추론 다중 레이블 생성 기반의 객체 인식 장치 및 방법 | |
WO2019098036A1 (ja) | 情報処理装置、情報処理端末、および情報処理方法 | |
JP2003315078A (ja) | ナビゲーション装置 | |
JP2010139843A (ja) | 音声情報収集装置、その方法およびそのプログラム | |
JP5019367B2 (ja) | 電子機器およびその制御方法 | |
JP6324256B2 (ja) | 電子装置、情報検索プログラムおよび情報検索システム | |
JP2015203934A (ja) | 制御方法、制御プログラム、制御装置、文字または音声メッセージの処理方法、文字または音声メッセージの処理プログラム、および文字または音声メッセージの処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060911 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061107 |