JP2005017074A - Device and program for transmitting/receiving information - Google Patents

Device and program for transmitting/receiving information Download PDF

Info

Publication number
JP2005017074A
JP2005017074A JP2003181093A JP2003181093A JP2005017074A JP 2005017074 A JP2005017074 A JP 2005017074A JP 2003181093 A JP2003181093 A JP 2003181093A JP 2003181093 A JP2003181093 A JP 2003181093A JP 2005017074 A JP2005017074 A JP 2005017074A
Authority
JP
Japan
Prior art keywords
imaging
user
meeting place
video
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003181093A
Other languages
Japanese (ja)
Other versions
JP4059154B2 (en
JP2005017074A5 (en
Inventor
Susumu Fujita
晋 藤田
Toru Takagi
徹 高木
Satoshi Chinomi
聡 知野見
Masayasu Suzuki
政康 鈴木
Okihiko Nakayama
沖彦 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003181093A priority Critical patent/JP4059154B2/en
Publication of JP2005017074A publication Critical patent/JP2005017074A/en
Publication of JP2005017074A5 publication Critical patent/JP2005017074A5/ja
Application granted granted Critical
Publication of JP4059154B2 publication Critical patent/JP4059154B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information transmitting/receiving device that allows a person, who goes to meet a person waiting, to accurately grasp the state of a meeting place by a picture, and to find out the person waiting. <P>SOLUTION: The information transmitting/receiving device includes a current position acquiring means 1 that is provided at the side of a first user who waits for a second user at a specified meeting place and acquires the current position of the first user; a meeting place acquiring means 2 for acquiring the meeting place of the first and second users; a travel direction estimation means 3 for estimating the direction of movement of the first user who arrives at the meeting place, based on the positional relation between the current position of the first user and the meeting place; an imaging command generating means 5 for generating an imaging command for making the picture of the meeting place in a specified imaging direction imaged, based on the travel direction, estimated by the travel direction estimation means 3; and a transmitting/receiving means 6 for transmitting a generated imaging command toward the second user. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【技術分野】
本発明は、所定の待ち合わせ場所で他のユーザと待ち合わせをする一のユーザ側に設けられ、他のユーザに待ち合わせ場所の映像を撮像させる情報送受信装置および情報送受信用プログラムに関する。
【0002】
【背景技術】
待ち人が待ち合わせ場所の位置情報を車両へ向けて送信し、車両は受信した位置情報を目的地として経路検索を行うナビゲーションシステムがある(特許文献1参照)。このナビゲーションシステムによれば、ドライバは目的地検索の操作をしなくとも目的地までの経路を検索することができ、誘導経路に従えば待ち合わせ場所周辺にまで到達することができる。
しかし、待ち合わせ場所周辺の土地勘がないドライバは、待ち合わせ場所周辺まで到達できたとしても、実際に待ち人を見つけ出すことができない場合があるという問題があった。
【0003】
また、特許文献2には、自車両位置の緯度、経度、高度、進行方向を特定し、自車両の進行方向の景色に係わる地形情報を保持したCD−ROM等のデータベースから取り出し、この地形情報に基づいて、運転者の視線方向の景色を表す映像を生成し、生成した映像を表示装置に表示させる技術が記載されている。
しかし、特許文献2に記載された技術では、CD−ROM等の記憶装置に保持された情報に基づいて景色映像を生成するため、ランドマークや目印の変化に対応することができないという問題があった。すなわち、特許文献2に記載の技術によっては、季節や天候によって変化するランドマーク(草花、木等)や、一時的に配置され経時的に変化する目印(カート、ノボリ等)を反映させた景色映像を生成することができないという問題があった。
【0004】
つまり、待ち人を迎えに行く者は、待ち合わせ時における待ち合わせ場所の状況を正確に把握することができず、待ち人を容易に探し出すことができないという問題があった。
【0005】
【従来の技術】
【特許文献1】
特開2001−141478号公報
【特許文献2】
特開平8−327375号公報
【0006】
【発明の開示】
本発明は、待ち合わせ場所付近で待ち人を探すドライバが、待ち人を発見するときにドライバが見るであろう景色を、待ち人に撮影させることを目的とする。
【0007】
この発明によれば、所定の待ち合わせ場所で他のユーザと待ち合わせをする一のユーザ側に設けられ、前記他のユーザ側と相互に情報の送受信を行い、前記一のユーザの現在位置を取得する現在位置取得機能と、前記一のユーザと他のユーザとの待ち合わせ場所を取得する待ち合わせ場所取得機能と、前記一のユーザの現在位置と前記待ち合わせ場所との位置関係に基づいて、前記待ち合わせ場所に到着する前記一のユーザの進行方向を予測する進行方向予測機能と、前記進行方向予測機能により予測された前記進行方向に基づく所定の撮像方向で、前記待ち合わせ場所の映像を撮像させる撮像命令を生成する撮像命令生成機能と、前記撮像命令生成機能により生成された撮像命令を、前記他のユーザに向けて送出する送受信機能とを有するコンピュータ(情報送受信装置)を提供することができる。
待ち人を探すドライバは、待ち人に撮影させた映像を参照することにより、待ち人を容易に探し出すことができる。
【0008】
【発明の実施の形態】
本発明の情報送受信装置100は、所定の待ち合わせ場所で第2ユーザ(「他のユーザ」に対応、以下同じ)と待ち合わせをする第1ユーザ(「一のユーザ」に対応、以下同じ)が搭乗する車両に設けられ、第2ユーザ側と相互に情報の送受信を行うことができる装置である。第2ユーザはカメラ手段および送受信手段を少なくとも備えた携帯端末200を所持している。第2ユーザ側の携帯端末200と情報送受信装置100とは、通信回線を介して相互に情報の授受が可能である。第2ユーザ側は、携帯端末200のほか、第1ユーザと同じ車載の情報送受信装置100を有していてもよい。
【0009】
情報送受信装置100は、第1ユーザが搭乗する車両に搭載され、同じく当該車両に搭載された情報入力装置300、ナビゲーション装置400、提示装置500および記憶装置600と相互に情報の授受が可能であるように車載LANにより接続されている。
【0010】
情報送受信装置100と相互に情報の送受信を行う携帯端末200は、少なくとも送受信手段201と、撮像を行うカメラ手段202と、モニタ等の提示手段203と、電子コンパス204とを有している。送受信手段201は、情報送受信装置100の送受信手段6と同様の機能を有する。カメラ手段202は、撮像倍率の制御機能、撮像距離の制御機能、自動焦点機能、露出設定機能、絞り制御機能、自動フラッシュ機能その他の通常のデジタルカメラが有する機能を備えた撮像手段である。このカメラ手段202によれば、逆光となってしまう場合や、露出度が十分でない場合であっても、撮影環境を補正することが可能である。電子コンパス204は、携帯端末200がどの方位を向いているかを検出する機能を有する。本実施形態の電子コンパス204は、地磁気の3成分を検出する地磁気センサを備え、携帯端末200が向けられた方位を検出する。GPS機能(Global Positioning System)等のロケータ機能を利用してもよい。
【0011】
〔第1実施形態〕
以下、図面に基づいて、情報送受信装置100およびその関連装置を説明する。
図1に示すように、本実施形態の情報送受信装置100は、現在位置取得手段1と、待ち合わせ場所取得手段2と、進行方向予測手段3と、視点位置算出手段4と、撮像命令生成手段5と、送受信手段6とを有している。具体的には、少なくとも、待ち合わせ場所に到着する第1ユーザの進行方向を予測し、予測された進行方向に基づく所定の撮像方向で待ち合わせ場所の映像を撮像させる撮像命令を生成させるプログラムを格納したROMと、このROMに格納されたプログラムを実行することで、進行方向予測手段3、撮像命令生成手段5として、機能するCPUと、記憶装置600として機能するRAMとを備えている。
【0012】
また、ROMは、予測された進行方向と算出された第1ユーザの視点位置とに基づいて、待ち合わせ場所の映像を撮像させる撮像命令を生成させるプログラムをさらに格納し、CPUはこのプログラムを実行することで、視点位置算出手段4、撮像命令生成手段5として機能する。
【0013】
本装置は、車両のイグニッションオンで電源が起動する。もちろん、車両駆動バッテリとは別の小型バッテリを内蔵させて、常時起動させてもよい。なお、消耗を防ぐため、走行時に小型バッテリを充電することが好ましい。
【0014】
「現在位置取得手段1」は、第1ユーザと第2ユーザとの待ち合わせ場所を取得する。現在位置取得手段1は、ナビゲーション措置400の現在位置検出手段410を介して現在位置を取得する。現在位置検出手段410は、GPS機能(Global Positioning System)およびジャイロセンサー等の自車位置検出機能を用いて第1ユーザが搭乗する車両の現在位置を検出する。
【0015】
「待ち合わせ場所取得手段2」は、情報入力装置300、または目的地取得部422を介して第1ユーザと第2ユーザとが待ち合わせる場所の位置情報を取得する。取得される待ち合わせ場所の情報は、待ち合わせ情報入力手段310に入力された位置情報であってもよいし、ナビゲーション装置400に目的地として入力された位置情報であってもよい。また、所定の方式で記述されたスケジュールデータから待ち合わせ場所の位置情報を取得してもよい。
【0016】
「進行方向予測手段3」は、経路算出部31と、道路形状参照部32とを有し、第1ユーザの現在位置と待ち合わせ場所との位置関係に基づいて、待ち合わせ場所に到着する第1ユーザの進行方向を予測する。進行方向予測手段3の進行方向予測処理を図2に基づいて説明する。
【0017】
「経路算出部31」は、現在位置取得手段1により取得された第1ユーザの現在位置と、待ち合わせ場所取得手段2により取得された待ち合わせ場所との位置関係に基づいて、記憶装置600に記憶された地図情報を参照し、現在位置から待ち合わせ場所までの経路を算出する。図2は、地図情報に基づいて算出された経路を示す。算出された経路と第1ユーザの走行履歴(現在位置を含む)から、待ち合わせ場所Aに到着した第1ユーザの進行方向aを推測することができる。
【0018】
本実施形態では、誘導経路の終点となる待ち合わせ場所と待ち合わせ場所から誘導経路上の数メートル手前の地点を結んだ線を進行方向と推測する。なお、経路の算出処理をナビゲーション装置400の経路算出手段420に行わせ、算出された経路を取得してもよい。情報送受信装置100が車両に搭載されていない場合には、電子コンパス、3軸地磁気サンセ、加速度センサを用いて、第1ユーザの経路を算出する。
【0019】
「道路形状参照部31」は、記憶された道路形状を予め取得する。道路形状参照部31が起動した場合、進行方向予測手段3は、第1ユーザの現在位置と待ち合わせ場所との位置関係に基づいて、取得した道路形状を参照し、待ち合わせ場所に到着する第1ユーザの進行方向を予測する。先述した、待ち合わせ場所と待ち合わせ場所から数メートル手前の地点を結んだ線を進行方向と推測した場合、道路形状が複雑であると、進行方向に第2ユーザを見つけることができない場合もある。そこで、本実施形態では、道路形参照部31を設け、進行方向予測手段3は、道路形状に沿った方向を進行方向と推測する。
【0020】
これにより、待ち合わせ場所の道路がロータリーなど特殊な形状である場合でも、道路形状を参照することによって、待ち合わせ場所における正確な進行方向を判断することができる。予測結果として得られた進行方向は、撮像命令生成手段5に送出される。
【0021】
経路算出部31が算出した経路に基づいて推測された進行方向と、道路形状参照部32が読み込んだ道路形状に基づいて推測された進行方向とが異なる場合、進行方向予測手段3は、いずれかを優先させることにより1の進行方向を決定してもよいし、推測された2つの方向の合成方向を進行方向として決定してもよい。
【0022】
「視点位置算出手段4」は、第1ユーザの視点の位置を算出する。第1ユーザが待ち合わせ場所で見る映像は、第1ユーザの視点に応じて異なる。しかし、第1ユーザが利用する車両の車高は様々であり、第1ユーザの背丈も異なることから、車両を運転する第1ユーザ(ドライバ)の視点は一定ではない。第1ユーザが見る映像を正確に撮像するためには、車高と車両のドライバの背丈に応じた第1ユーザの視点位置を考慮する必要がある。本実施形態では、撮像させる映像の撮像位置を第1ユーザの視点位置に応じて決定するため、視点位置算出手段4を設け、第1ユーザの視点位置を算出する。
【0023】
具体的に、視点位置算出手段4は、車内に備え付けられたカメラにより車両に搭乗する第1ユーザの目の位置を検出して視点位置を算出する。また受信した車高に関する車両情報を取得して第1ユーザの視点位置を算出してもよいし、あらかじめ車両IDと関連づけられた車高と、ドライバIDと関連づけられた身長とを記憶しておいてもよい、算出された第1ユーザの視点位置は、必要に応じて撮像命令生成手段5へ送出される。
【0024】
「撮像命令生成手段5」は、少なくとも進行方向予測手段3により予測された進行方向に基づく所定の撮像方向で、待ち合わせ場所の映像を撮像させる撮像命令を生成する。また、第1ユーザの視点位置を考慮して、「撮像命令生成手段5」は、進行方向予測手段3により予測された進行方向に基づく撮像方向、および視点位置算出手段により算出された第1ユーサの視点位置に基づく撮像位置で、待ち合わせ場所の映像を撮像させる撮像命令を生成してもよい。具体的に、撮像命令生成手段5は、撮像命令に含める撮像方向を走行方向に基づいて算出する撮像方向算出機能を有し、この撮像方向算出機能により算出された撮像方向を用いて撮像命令を生成する。また、撮像命令生成手段5は、撮像命令に含める撮像位置を視点位置に基づいて算出する撮像位置算出機能を有し、この撮像位置算出機能により算出された撮像位置を用いて撮像命令を生成する。すなわち、撮像命令生成手段5により生成される撮像命令は、撮像方向および/または撮像位置を特定するための情報を含む。
【0025】
撮像命令には、第2ユーザを撮像する命令を含ませてもよい。第2ユーザの容姿、服装、服の色、持ち物等を予め知ることができれば、第2ユーザを容易に探すことができるからである。
【0026】
まず、撮像方向を含む撮像命令について説明する。
撮像命令に含まれる撮像方向を特定する情報は、少なくとも、東西南北の2次元の方位情報に基づく情報である。撮像命令に含める撮像方向は、進行方向予測手段3により予測された進行方向と、少なくとも水平方向において略同一の方向であることが好ましい。これにより、待ち合わせ場所に到着する第1ユーザの進行方向に沿った撮像方向の映像を撮像させることが可能となる。ただし、進行方向と撮像方向とは略同一方向であることに限定されず、撮像方向を進行方向に対して所定の角度を有するように定義してもよい。所定の角度は特に限定されず進行方向を基準に左右方向(0°〜30°)の範囲で設定することができる。たとえば、情報送受信装置100が車両に搭載されている場合、撮像方向は、進行方向に対して、道路の路肩側に所定の角度だけ回転させた方向とすることが好ましい。このような場合、進行方向を基準に左側又は右側(0°〜20°)の範囲で設定することができる。車道を走行する車両の進行方向と同一方向の映像よりも、店舗や施設がある路肩側の映像のほうが、待ち合わせ場所の目印となる情報が多く含まれていると考えられるからである。
【0027】
撮像命令生成手段5は、予測された進行方向に基づく撮像方向を第2ユーザが認識できるような情報に加工し、撮像命令に含ませる。撮像方向の加工手法は特に限定されず、撮像方向を方位(東西南北)として第2ユーザに示してもよいし、撮像方向を矢印等の画像に変換して第2ユーザに示してもよいし、撮像方向を、方位の特定が可能なアイコンにより表現して第2ユーザに示してもよい。第2ユーザの携帯端末200は、電子コンパス204を備えているので、撮像命令に含まれた撮像方向をデータとして認識し、撮像方向をアイコン等により表示することが可能である。
【0028】
図3に、第2ユーザに示された「所定の撮像方向で待ち合わせ場所の映像を撮像させる撮像命令」の一例を示した。この撮像命令では、方位の特定が可能なアイコンにより「撮像方向」を第2ユーザに指示する。
【0029】
図3(a)は第2ユーザが所持する携帯端末200の正面を示し、図3(b)は携帯端末200の背面を示す。携帯端末200の正面および背面には、モニタM.M´が設けられている。モニタM,M´には、方位の特定が可能なアイコンが表示される。
【0030】
図3(c)には、撮像方向、すなわちカメラの方向が正しくない場合のアイコンの表示を示した。図3(c)に示すように、撮像するために向けられた携帯端末200のカメラ手段202の向きが正しくない場合、アイコンには×印が表示される。「×」が示された場合、車両に搭乗する第1ユーザから見える方向と第2ユーザ(待ち人)が撮像した映像の撮像方向が異なることを意味する。これだけの表示では、撮像方向が正しいか否かしか判断することができないため、第2ユーザのカメラをどのくらい回転させればいいかを示した表示を付加してもよい。本実施形態において、アイコンの隣に示された矢印は、カメラの向きを修正する方向と修正度合を示す矢印である。大きな矢印はカメラの向きを回転させる角度が大きいことを示し、小さな矢印はカメラの向きを回転させる角度が小さいことを示す。図3(c)のアイコンは、カメラの向きを大きく左回転することを第2ユーザに指示し、図3(d)のアイコンは、カメラの向きを少しだけ左回転することを第2ユーザに指示している。第2ユーザの調整により、カメラの向き、すなわち撮像方向が撮像命令に従う方向となったとき、図3(e)に示すようにアイコンの表示が変化(「×」から「・」へ)する。このように、第2ユーザは、図3(e)のアイコンが示されるように、携帯端末200の向きを調整する。
【0031】
このように、進行方向に基づく撮像方向で待ち合わせ場所の映像を撮像させる命令を第2ユーザへ送出することにより、第1ユーザが待ち合わせ場所を見る方向と同じ方向から見た映像を第2ユーザに撮像させることができる。
【0032】
つぎに、第2ユーザの視点位置に基づく撮像位置を含む撮像命令について説明する。
視点位置を特定する情報は、少なくとも、重力方向に沿った2次元の高さ情報である。撮像命令に含める視線位置は、第2ユーザの搭乗する車両の車高、第2ユーザの身長に基づいて算出されてもよいし。もちろん、車内に装備されたカメラにより第2ユーザの目を検出し、検出された目の位置を視線の位置としてもよい。
【0033】
撮像命令生成手段5は、算出された視点位置に基づく撮像位置を第2ユーザが認識できるような情報に加工し、撮像命令に含ませる。撮像位置の加工手法は特に限定されず、撮像位置を高さとして第2ユーザに示してもよいし、撮像位置を、位置の特定が可能なアイコンにより表現して第2ユーザに示してもよい。
【0034】
図4に、第2ユーザに示された「所定の撮像位置で待ち合わせ場所の映像を撮像させる撮像命令」の一例を示した。この撮像命令では、方位の特定が可能なアイコンにより「撮像方向」を第2ユーザに指示する。
【0035】
図4(a)(b)に示す携帯端末200は、図3(a)(b)に示した携帯端末200と同じである。図4(c)には、撮像位置、すなわちカメラの位置が正しくない場合のアイコンの表示を示した。図4(c)、図4(d)に示すように、撮像するために向けられた携帯端末200のカメラ手段202の位置が正しくない場合、アイコンに示した丸印が重ならない。第2ユーザの調整により、カメラの位置、すなわち撮像位置が撮像命令に従う位置となったとき、図4(e)に示すようにアイコンに表示された2つの丸印が重なる。このように、第2ユーザは、図4(e)のアイコンが示されるように、携帯端末200の位置を調整する。
【0036】
このように、第1ユーザの視点位置に基づく撮像位置で待ち合わせ場所の映像を撮像させる命令を第2ユーザへ送出することにより、第1ユーザが待ち合わせ場所を見る場所と同じ場所から見た映像を第2ユーザに撮像させることができる。
【0037】
また、視点位置に基づく撮像位置を合わせる作業は、先に述べた撮像方向が確定してから行う。つまり、第2ユーザ(待ち人)は、携帯端末200のモニタにアイコン「・」が表示されている状態(撮像命令に従う撮像方向)を維持しつつ、アイコンの2つの円が重なった状態(撮像命令に従う撮像位置)とし、待ち合わせ場所を撮影する。
【0038】
このように、走行方向に基づく撮像方向および第1ユーザの視点位置に基づく撮像位置で待ち合わせ場所の映像を撮像させる命令を第2ユーザへ送出することにより、第1ユーザが待ち合わせ場所を見る方向および場所と同じ方向および場所から見た映像を第2ユーザに撮像させることができる。
【0039】
以上のように、第1ユーザは、第1ユーザが見る映像と方向および/または位置が一致する映像を第2ユーザに撮像させ、撮像させた映像を参照することができるため、第2ユーザを容易に探し出すことができる。
【0040】
このようにして待ち合わせ相手によって撮影された映像は、車両側に送信される。車両側でこの映像を受信すると、車載情報端末のモニタに表示される。この表示された映像を参考にすることによって、車両のドライバーは待ち合わせ相手を探し出し、スムーズに待ち合わせを遂行することが可能になる。
【0041】
「送受信手段6」は、情報の送受信機能を有し、少なくとも携帯端末200と相互に情報の送受信を行う。送受信される情報には、少なくとも撮像命令と、第2ユーザ側の携帯端末200で撮影された待ち合わせ場所の映像が含まれる。
【0042】
送受信手段は特に限定されない。例えば、公衆回線網を用いた一般電話、携帯電話、PHS電話、車載電話、通信機能内蔵モジュール等公衆通信網を用いる移動通信機、MCA(Multi Channel Access System)無線システム、Bluetooth、IEEE802.11系(802.11a、802.11b、802.11gなど)その他の無線LAN規格等に従う無線通信機能、DSRC(Dedicated Short Range Communications)であってもよい。本実施形態では、通信料の低減の観点から、無線LAN、またはDSRC(Dedicated Short Range Communications)を採用する。
【0043】
なお、送受信手段6は、Bluetoothや赤外線(IrDA)等の無線、もしくはRS−232C(シリアルインターフェイス)やUSB(Universal Serial Bus)、UART(Universal Asynchronous Receiver Transmitter)等の有線によって、情報送受信装置100の各構成と接続される。
【0044】
次に、本実施形態に係る情報送受信装置100の制御手順を、図5のフローチャートに基づいて説明する。
送受信手段6は、車両に搭載された情報送信装置100と車両内に存在する通信端末との間にリンクが確立されていることを確認する(S111)。リンクが確立されるまで第1ユーザが接続動作を行い、リンクが確立されるまで待機する。リンクが確立されていることを確認した場合、S112に遷移する。
【0045】
S112では、ナビゲーション装置400のイニシャライズを行う。具体的には、DVD−ROMやハードディスクの内容を読み取るとともに、車載された現在位置検出手段410の起動を行う。
【0046】
現在位置取得手段1は、ナビゲーション装置400の現在位置検出手段410を介して、第1ユーザの搭乗する車両の現在位置を取得する(S113)。
【0047】
待ち合わせ場所取得手段2は、待ち合わせ場所を、待ち合わせ情報入力手段310、またはナビゲーション装置400の目的地取得部422を介して取得する(S114)。待ち合わせ場所の入力手法は限定されず、一般のナビゲーション装置における目的地入力と同様の手法により入力できる。たとえば、メニュー等からジャンルを選択して入力する手法、電話番号を入力する手法、直接住所を入力する方法などを用いることができる。
【0048】
進行方向予測手段3の経路算出部31は、現在位置と待ち合わせ場所との位置関係から、現在位置から待ち合わせ場所までの誘導経路を算出する(S115)。この誘導経路の算出処理は、ナビゲーション装置400の経路算出手段420に行わせてもよい。道路形状参照部32は、記憶装置600にアクセスし、道路形状を読み出す(S116)。
【0049】
進行方向予測手段3は、現在位置と待ち合わせ場所との位置関係から、待ち合わせ場所に到着する第1ユーザの進行方向を予測する。本実施形態では、現在位置と待ち合わせ場所との位置関係に加えて、道路形状を参照して進行方向を予測する(S117)。
【0050】
撮像命令生成手段5は、進行方向予測手段3により予測された進行方向に基づいて撮像方向を決定する(S118)。視点位置算出手段4は、第1ユーザの視点位置を算出する(S119)。撮像命令生成手段5は、視点位置算出手段4により算出された視点位置に基づいて撮像位置を決定する(S120)。すなわち、撮像命令生成手段5は、進行方向に基づく撮像方向と視点位置に基づく撮像位置とを決定する。
【0051】
撮像命令生成手段5は、少なくとも撮像方向を特定し、特定された撮像方向で待ち合わせ場所の映像を撮像させる撮像命令を生成する。撮像命令には視点位置に基づく撮像位置を含ませてもよい(S121)。
【0052】
撮像命令生成手段5は、撮像命令を、第2ユーザ側の携帯端末200へ送受信手段6を介して送出する(S122)。撮像命令の送信処理は、電子メールやインスタントメッセンジャー等の一般の情報送受信用アプリケーションを利用して行うことができる。
【0053】
撮像命令は、撮像方向と撮像位置を含み、第2ユーザ側の携帯端末200に、撮像方向(カメラの向き(水平方向))と撮像位置(ドライバの視点方向(垂直方向))をアイコンで表示させる(S123)。
【0054】
情報送信装置100は、携帯端末200から第2ユーザによりの撮像された待ち合わせ場所の映像の受信を待機する(S124)。送受信手段6を介して受信した映像は、提示装置500のモニタに表示する(S125,S126)。
【0055】
以上のように構成され、機能する情報送受信装置100は、以下の効果を奏する。
第2ユーザ(待ち人)を迎えに行く第1ユーザが、待ち合わせ場所に到着するときの進行方向を予測し、予測された進行方向に基づく撮像方向で、待ち合わせ場所の映像を撮像させる撮像命令を第2ユーザに送信することから、第1ユーザは自身の視線方向に沿って撮像された映像を取得することができるため、この映像を参考にして容易に第2ユーザを探し出すことができる。
【0056】
車載のナビゲーション装置400の位置特定精度によっては、人間が立っている場所までをも特定することが困難な場合があるが、待ち人が立っている場所の映像を予め見ておけば初めて来た場所であっても、その場所を容易に特定することができる。つまり、第1ユーザはその映像を見ながら待ち合わせ相手を探すことが可能であり、込み入った場所や分かりずらい場所でも、スムーズに待ち人を探し出すことができる。しかも、撮像させた映像は、第2ユーザが目的地で見るであろう方向から撮像されたものであるため、その映像は待ち人を探す手がかりとして有意義である。
【0057】
第1ユーザの進行方向の予測にあたり道路形状を参照することから、駅のロータリーのように道路形状が複雑な場所でも、待ち合わせ場所に向かう第1ユーザの進行方向を適切に予測することができる。
【0058】
第2ユーザ(待ち人)を迎えに行く第1ユーザの視点位置を算出し、進行方向に基づく撮像方向と視点位置に基づく撮像位置で、待ち合わせ場所の映像を撮像させる撮像命令を第2ユーザに送信することから、第1ユーザは自身の視点位置に合った映像を取得することができる。つまり、車高や身長の違いによる景色の見え方の違いを修正した映像を撮像させることができる。第1ユーザは、第1ユーザの視点と共通の視点から撮像された映像を参考にして容易に第2ユーザを探し出すことができる。
【0059】
〔第2実施形態〕
次に、第2実施形態の情報送受信装置100について説明する。
第2実施形態の情報送受信装置100は、第2ユーザに、第1ユーザの視野範囲に応じた映像を撮像させる。つまり、本実施形態は、第1ユーザの視野範囲を算出し、視野範囲に基づく所定の撮像倍率または撮像距離で、待ち合わせ場所の映像を撮像させる撮像命令を生成し、この撮像命令を第2ユーザ側へ送出する。第2実施形態の構成を図6に示した。図6に示すように、第2実施形態の情報送受信装置100の構成は、図1に示した第1実施形態の構成と基本的に共通する。異なる点は、第2実施形態の情報送受信装置100は視野範囲算出手段7を有する点である。また第2実施形態の撮像命令生成手段5は、撮像倍率算出機能と、撮像距離算出機能とを有している。ここでは、異なる点を中心に説明する。
【0060】
「視野範囲算出手段7」は、第1ユーザの視点の範囲を算出する。視野の範囲を算出する手法は特に限定されない。図7に車両に搭乗する第1ユーザの視野範囲を算出する2つの算出例を示した。
【0061】
図7(a)に示す例は、車内に備え付けられたカメラを利用して景色を撮影し、その映像の4角の3次元座標から第1ユーザの視野範囲を特定する手法である。図7(a)では第1ユーザがフロントガラスを介して見ることのできる範囲を視野範囲に対応させ、座標値r1〜座標値r4の4点により視野範囲を特定する。この視野範囲に応じた映像は、撮像された映像を表示するモニタ500の大きさにも対応していることが好ましい。
【0062】
第1ユーザは、実際に見る景色と第2ユーザが撮像した映像とを比較ながら第2ユーザを探すため、第1ユーザが実際に見る景色と、第2ユーザが撮像する映像とは同じ範囲の映像であることが好ましい。本実施形態では、第1ユーザの視野範囲に基づいて撮像命令を生成することにより、撮像命令に従う映像は、第1ユーザが実際に待ち合わせ場所で見る映像と同じ景色を映し出すものとすることができる。ちなみに、第2ユーザが撮像した映像が、図7(a)に示すような座標値r01〜座標値r04の小さい範囲の映像である場合、この映像は、第1ユーザが実際に待ち合わせ場所で見る映像とは異なる景色となり、この映像に基づいて第2ユーザを探すことは困難となる。
【0063】
図7(b)に示す例は、アイトラッキングの機能を利用して第1ユーザの視野範囲を測定する例である。図7(b)に示すように、視野範囲算出手段7は、第1ユーザの視点の動きを検出するカメラを用いて、視点の移動履歴を記憶し、その移動履歴の分布から座標値r11〜座標値r14を視野範囲として算出する。
【0064】
撮像命令生成手段5の撮像倍率算出機能は、座標値r1〜r4で囲まれた視野範囲に基づいて撮像倍率を決定する。また、撮像距離算出機能は、座標値r1〜r4で囲まれた視野範囲に基づいて撮像距離を決定する。撮像倍率、撮像距離は、少なくとも第1ユーザの視野範囲と略一致するように決定することが好ましく、第1ユーザの視野範囲およびモニタ600の表示範囲と略一致するように決定することがより好ましい。撮像倍率、撮像距離を決定するにあたり、携帯端末200のカメラ手段202の情報(撮像倍率、撮像距離等)が必要である場合には、第2ユーザの携帯端末200に要求命令を送出し、送受信手段6を介して必要な情報を取得しておく。もちろん、携帯端末200に関する情報を予め記憶又は取得しておいてもよいし、携帯端末200から機種情報を取得して、機種に対応する情報を記憶された情報から読み出してもよい。
【0065】
算出された撮像倍率および/または撮像距離は、撮像方向等に加えて撮像命令に含められる。すなわち、本実施形態の撮像命令には、撮像方向、撮像倍率および/または撮像距離が含まれる場合と、撮像方向、撮像位置、撮像倍率および/または撮像距離を含まれる場合とがある。
【0066】
撮像命令生成手段5は、算出された視野範囲に基づく撮像倍率、撮像距離を第2ユーザが認識できるような情報に加工し、撮像命令に含ませる。撮像倍率、撮像距離の加工手法は特に限定されず、撮像倍率、撮像距離を数値として第2ユーザに示してもよいし、撮像倍率、撮像距離をその特定が可能なアイコンにより表現して第2ユーザに示してもよい。
【0067】
図8に、第2ユーザに示された「所定の撮像倍率および/または撮像距離で待ち合わせ場所の映像を撮像させる撮像命令」の一例を示した。この撮像命令では、撮像倍率、撮像距離の特定が可能なアイコンにより「撮像倍率」「撮像距離」を第2ユーザに指示する。
【0068】
図8(a)は第2ユーザが所持する携帯端末200の正面を示し、図8(b)は携帯端末200の背面を示す。携帯端末200の正面および背面には、モニタM.M´が設けられている。モニタM,M´には、方位の特定が可能なアイコンが表示される。
【0069】
図8(c)には、撮像倍率および/または撮像距離が正しくない場合のアイコンM21の表示を示した。図8(c)に示すように、撮像倍率が大きい場合、撮像距離が近い場合、基準円(実線)に対して小さい比較円(点線)が示される。基準円と比較円との大きさの相対的な差が、撮像命令の撮像倍率、撮像距離と実際に撮像しようとしている撮像倍率、撮像距離との差に対応する。
【0070】
基準円(実線)に対して比較円(点線)が小さい場合または大きい場合は、撮像倍率、撮像距離の調整が必要である。図8(d)に示すアイコンは、図8(c)に示すアイコンと同様に、撮像倍率、撮像距離が適当ではない。さらに撮像倍率、撮像距離を調整し、図8(e)のような状態、すなわち基準円(実線)と比較円(点線)との大きさが略一致したとき、携帯端末200の撮像倍率、撮像距離は、撮像命令に従う撮像倍率、撮像距離となる。
【0071】
撮像命令には、撮像倍率と撮像距離とを含ませてもよいし、撮像倍率と撮像距離のうち、いずれか一方を含ませてもよい。撮像倍率には限界があるため、撮像倍率とともに撮像距離を撮像命令に含ませ、視野範囲に応じた景色を撮像させることが好ましい。
【0072】
算出された撮影倍率、撮像距離を含む撮像命令は、情報送受信装置100から第2ユーザ側の携帯端末200に送信される。第2ユーザは、撮像命令に基づく指示に従い待ち合わせ場所の映像を撮像する。
【0073】
このように、第1ユーザの視野範囲に基づく撮像倍率、撮像距離で待ち合わせ場所の映像を撮像させる命令が含まれた撮像命令を、第2ユーザへ送出することにより、第1ユーザの視野と同等の範囲の映像を第2ユーザに撮像させることができる。
【0074】
以上のように、第1ユーザは、第1ユーザが見る映像と視野範囲が一致する映像を第2ユーザに撮像させ、撮像させた映像を参照することができるため、第2ユーザを容易に探し出すことができる。
【0075】
次に、第2実施形態の処理手順を、図9のフローチャートに基づいて説明する。
【0076】
図9に示すS111からS118までの処理は、図5に示した第1実施形態の制御処理と共通する。本実施形態では、撮像命令に、撮像方向と撮像倍率および/または撮像距離とを含める。もちろん第1実施形態のS119〜S121までの処理を含ませ、撮像命令に撮像位置を含ませるようにしてもよい。
【0077】
ここでは、第1実施形態とは異なるS201以降の処理について説明する。
【0078】
まず、車両に搭乗する第1ユーザの視野範囲を算出する(S201)。視野範囲は、上述した車載カメラやアイトラッキング機能を利用して算出する。撮像倍率決定機能は撮像倍率を、撮像距離決定機能は撮像距離を決定する。第1ユーザの視野範囲とモニタ500に表示される映像の範囲が一致するような倍率および距離を算出する。
【0079】
撮像命令生成手段5は、撮像方向と撮像倍率および/または撮像距離を含めた撮像命令を生成する(S203)。生成された撮像命令は、送受信手段6を介して携帯端末200へ送信される(S204)。第2ユーザの携帯端末200に撮像方向と撮像倍率および/または撮像距離を設定・変更させるアイコンを表示する(S205)。本実施形態では、アイコンにより第2ユーザに撮像倍率、撮像距離を設定・変更させたが、撮像命令が携帯端末200のカメラ手段202にインストールされているアプリケーション上で撮像倍率を直接変更させてもよい。撮像倍率の変更は、カメラ手段202に直接命令してもよいし、第2ユーザに命令してもよい。
【0080】
情報送受信装置100は、第2ユーザの撮像した映像の受信を待機する(S206)。撮像された映像を受信したら(S207)、モニタ500に表示する(S208)。
【0081】
本実施形態によれば、第1実施形態の効果に加え、さらに、第1ユーザから実際に見える景色の範囲と、第2ユーザが撮像した映像の範囲とが一致するため、第1ユーザは、実際の景色と第2ユーザが撮像した映像とを直接対比することができ、第2ユーザを容易に見つけることができる。
【0082】
〔第3実施形態〕
次に、第3実施形態について説明する。
第3実施形態の情報送受信装置100は、第2ユーザから受信した映像を、撮像命令に従う映像に変換する。撮像命令により撮像方向、撮像位置、撮像倍率、撮像距離を指定しても、その命令に従わない映像が撮像される場合がある。本実施形態では、そのような場合に撮像された映像を撮像命令に従う映像に補正する。
第3実施形態の構成を図10に示した。図10に示すように、第3実施形態の情報送受信装置100の構成は、図6に示した第2実施形態の構成と基本的に共通する。異なる点は、第3実施形態の情報送受信装置100は映像変換手段8を有する点である。ここでは、異なる点を中心に説明する。
【0083】
本実施形態の情報送受信装置100は、映像変換手段8を備える。映像変換手段8は、撮像された待ち合わせ場所の映像と、当該映像の撮像方向を第2ユーザ側から取得し、取得した映像の撮像方向と撮像命令に含まれる撮像方向とを比較し、取得した映像を撮像命令の撮像方向に従う映像に変換する。
【0084】
「映像変換手段8」は、第2ユーザが撮像した映像を、撮像命令に従う映像に変換する。具体的には撮像方向Bで撮像された映像(投射面B)から、撮像方向A(撮像命令)で撮像された映像(投射面B)へ3次元の座標変換処理を行う。ここで行われる座標変換処理は一般の手法を用いることができるが、図11および図12にその一例を説明する。
【0085】
まず、図11に基づいて、撮像方向に関する変換処理を説明する。図11は、撮像ポイントと映像面とを上から見た図である。第2ユーザにより撮像された映像の投射面(映像面)がB平面であり、撮像命令に従う映像方向で撮像された映像の投射面(映像面)がA平面である。実際に撮像された映像の撮像方向は、第2ユーザ側の携帯端末200の電子コンパス204を用いて検出させ、撮像された映像とともに第2ユーザから取得する。実際に撮像された映像の撮像方向と撮像命令に含まれる撮像方向とを比較する。図11に示す例ではA面とB面とでは角度θの差がある。角度θに基づいて、B平面に投影された映像をA平面に変換する。つまり、撮像されたB平面上のランドマークPは、A平面上のランドマークP´に写像される。これにより、正しい角度から撮影されなかった映像をほぼ任意の角度から撮影したような映像に変換することが可能であり、撮像方向が撮像命令に従わない映像を、撮像命令に従う映像に変換することができる。
【0086】
図12に基づいて、撮像距離に関する変換処理を説明する。図12は、撮像ポイントと映像面とを上から見た図である。第2ユーザにより撮像された映像の投射面(映像面)がB平面であり、撮像命令に従う映像方向で撮像された映像の投射面(映像面)がA平面である。実際に撮像された映像の撮像距離は、第2ユーザ側の携帯端末200のカメラ手段202を用いて検出させ、撮像された映像とともに第2ユーザから取得する。実際に撮像された映像の撮像距離と撮像命令に含まれる撮像距離とを比較する。図12に示す例ではA面とB面とでは距離Δd=d2−d1の差がある。距離差Δdに基づいて、B平面に投影された映像をA平面に変換する。つまり、撮像されたB平面上のランドマークRは、A平面上のランドマークR´に写像される。これにより、正しい撮像距離で撮影されなかった映像をほぼ任意の撮像距離から撮影したような映像に変換することが可能であり、撮像距離が撮像命令に従わない映像を、撮像命令に従う映像に変換することができる。
【0087】
ここでは、撮像方向、撮像距離を例にして映像変換手段8の処理を説明したが、映像変換手段8は、撮像位置、撮像倍率についても座標変換処理を利用して、撮像命令に従う映像を求めることができる。
【0088】
図13に示すS111からS118までの処理は、第2実施形態と同様に、図5に示した第1実施形態の制御処理と共通する。本実施形態では、撮像命令に、撮像方向と撮像倍率および/または撮像距離とを含める。もちろん第1実施形態のS119〜S121までの処理を含ませ、撮像命令に撮像位置を含ませるようにしてもよい。
【0089】
ここでは、第1実施形態とは異なるS301以降の処理について説明する。
【0090】
第2ユーザの撮像した映像等を取得する。このステップでは映像とともに、当該映像の撮像方向、撮像位置、撮像倍率、撮像距離を必要に応じて取得する(S207)。映像変換手段8は、実際に撮像された映像面であるB平面と、撮像命令に従う映像面であるA平面との差異を検出する。具体的には、両平面の特徴点(画面角の4点)から、
【0091】
【数1】
平面方程式
A平面:ax+by+cz+d=0
B平面:ax+by+cz+d=0
を導き出し、そこから両平面の垂直ベクトル、および、その垂直ベクトルのなす角を算出する。
【0092】
S312では、実際に撮影した映像面(B平面)から第1ユーザが実際に見る映像年(A平面)への変換(写像作成)を行う。映像の変換(写像作成)には、S311で算出した両平面のなす角を利用し、図11に示した処理を行う。
【0093】
本実施形態によれば、第2ユーザが正しい撮像方向、撮像位置、撮像倍率、撮像距離に従って撮像できなかった場合に、撮像命令に従う撮像方向、撮像位置、撮像倍率、撮像距離で撮像した映像を第1ユーザに提供することができる。
【0094】
すなわち、第1ユーザは、待ち合わせ場所における進行方向に応じた映像を得ることができ、第2ユーザを容易に探すことができる。第1ユーザは、視点位置に応じた映像を得ることができ、第2ユーザを容易に探すことができる。第1ユーザは、視野領域に応じた映像を得ることができ、第2ユーザを容易に探すことができる。
【0095】
第2ユーザの携帯端末200が、図3、4、8に示したような、撮像命令をアイコンで表示するような機能を有していない場合、撮像命令に正確に従う映像を撮像することは難しい。本実施形態によれば、撮像命令をアイコンで表示する機能を有していない携帯端末200が撮像した映像であっても、撮像命令に従う映像に変換することができ、第1ユーザは第2ユーザから取得した映像を参考にして第2ユーザを容易に探すことができる。
【0096】
本実施形態では情報送受信装置100について説明したが、本発明の情報送受信用プログラムにより動作するコンピュータは、情報送受信装置100と同様に作用し、同様の効果を奏する。
【0097】
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
【図面の簡単な説明】
【図1】第1実施形態に係る情報送受信装置100のブロック図である。
【図2】進行方向予測手段3の処理を説明するための図である。
【図3】図3(a)〜(e)は、撮像命令の表示態様の第1の例を説明するための図である。
【図4】図4(a)〜(e)は、撮像命令の表示態様の第2の例を説明するための図である。
【図5】第1実施形態の情報送受信装置100の制御手順を示すフローチャート図である。
【図6】第2実施形態に係る情報送受信装置100のブロック図である。
【図7】視野範囲算出手段7の処理を説明するための図である。
【図8】図8(a)〜(e)は、撮像命令の表示態様の第3の例を説明するための図である。
【図9】第2実施形態の情報送受信装置100の制御手順を示すフローチャート図である。
【図10】第3実施形態に係る情報送受信装置100のブロック図である。
【図11】映像変換手段8の処理を説明するための第1の図である。
【図12】映像変換手段8の処理を説明するための第2の図である。
【図13】第3実施形態の情報送受信装置100の制御手順を示すフローチャート図である。
【符号の説明】
100…送受信装置
1…現在位置取得手段
2…待ち合わせ場所取得手段
3…進行方向予測手段
31…経路算出部
32…道路形状参照部
4…視点位置算出手段
5…撮像命令生成手段
6…送受信手段
7…視野範囲算出手段
8…映像変換手段
200…携帯端末
300…情報入力装置
400…ナビゲーション装置
500…提示装置
600…記憶装置
[0001]
【Technical field】
The present invention relates to an information transmission / reception apparatus and an information transmission / reception program that are provided on the side of one user who waits with another user at a predetermined meeting place, and that allows the other user to take an image of the meeting place.
[0002]
[Background]
There is a navigation system in which a waiter transmits position information of a meeting place toward a vehicle, and the vehicle performs a route search using the received position information as a destination (see Patent Document 1). According to this navigation system, the driver can search the route to the destination without performing the destination search operation, and can reach the vicinity of the meeting place according to the guidance route.
However, there is a problem that a driver who does not know the land around the meeting place may not actually find the waiting person even if the driver can reach the vicinity of the meeting place.
[0003]
Also, in Patent Document 2, the latitude, longitude, altitude, and traveling direction of the vehicle position are specified, and the terrain information is extracted from a database such as a CD-ROM holding terrain information related to the scenery in the traveling direction of the host vehicle. Based on the above, there is described a technique for generating an image representing a scenery in the driver's line of sight and displaying the generated image on a display device.
However, the technique described in Patent Document 2 generates a landscape video based on information stored in a storage device such as a CD-ROM, and thus cannot cope with changes in landmarks and landmarks. It was. That is, depending on the technique described in Patent Document 2, a landscape that reflects landmarks (flowers, trees, etc.) that change according to the season or weather, or landmarks that are temporarily arranged and change over time (carts, novice, etc.) There was a problem that video could not be generated.
[0004]
That is, there is a problem that a person who picks up the waiting person cannot accurately grasp the situation of the meeting place at the time of meeting and cannot easily find the waiting person.
[0005]
[Prior art]
[Patent Document 1]
JP 2001-141478 A
[Patent Document 2]
JP-A-8-327375
[0006]
DISCLOSURE OF THE INVENTION
An object of the present invention is to allow a driver who searches for a waiting person near a meeting place to photograph the scenery that the driver will see when he finds the waiting person.
[0007]
According to this invention, it is provided on the one user side who waits with another user at a predetermined meeting place, exchanges information with the other user side, and acquires the current position of the one user. Based on a current position acquisition function, a meeting place acquisition function for acquiring a meeting place between the one user and another user, and a positional relationship between the current position of the one user and the meeting place, the meeting place A traveling direction prediction function for predicting the traveling direction of the one user who arrives, and an imaging command for capturing an image of the meeting place in a predetermined imaging direction based on the traveling direction predicted by the traveling direction prediction function An imaging command generation function for transmitting and receiving / transmitting an imaging command generated by the imaging command generation function to the other user It is possible to provide a computer (information transmitting and receiving apparatus).
The driver who searches for the waiting person can easily find the waiting person by referring to the video imaged by the waiting person.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
The information transmission / reception apparatus 100 of the present invention is boarded by a first user (corresponding to "one user", the same applies below) who waits with a second user (corresponding to "other users", the same applies hereinafter) at a predetermined meeting place. It is an apparatus provided in a vehicle that can transmit and receive information to and from the second user side. The second user has a portable terminal 200 having at least camera means and transmission / reception means. The mobile terminal 200 on the second user side and the information transmitting / receiving apparatus 100 can exchange information with each other via a communication line. The 2nd user side may have the same in-vehicle information transmitter / receiver 100 as the 1st user other than portable terminal 200.
[0009]
The information transmission / reception device 100 is mounted on a vehicle on which the first user is boarded, and can exchange information with the information input device 300, the navigation device 400, the presentation device 500, and the storage device 600 that are also mounted on the vehicle. As shown in FIG.
[0010]
A portable terminal 200 that transmits and receives information to and from the information transmitting and receiving apparatus 100 includes at least a transmitting and receiving unit 201, a camera unit 202 that performs imaging, a presentation unit 203 such as a monitor, and an electronic compass 204. The transmission / reception means 201 has the same function as the transmission / reception means 6 of the information transmission / reception apparatus 100. The camera unit 202 is an imaging unit having functions such as an imaging magnification control function, an imaging distance control function, an autofocus function, an exposure setting function, an aperture control function, an automatic flash function, and other ordinary digital cameras. According to the camera unit 202, it is possible to correct the shooting environment even in the case of backlighting or when the degree of exposure is not sufficient. The electronic compass 204 has a function of detecting which direction the mobile terminal 200 is facing. The electronic compass 204 of the present embodiment includes a geomagnetic sensor that detects three components of geomagnetism, and detects the direction in which the mobile terminal 200 is directed. A locator function such as a GPS function (Global Positioning System) may be used.
[0011]
[First Embodiment]
The information transmitting / receiving apparatus 100 and related apparatuses will be described below with reference to the drawings.
As shown in FIG. 1, the information transmitting / receiving apparatus 100 of the present embodiment includes a current position acquisition unit 1, a meeting place acquisition unit 2, a traveling direction prediction unit 3, a viewpoint position calculation unit 4, and an imaging command generation unit 5. And a transmission / reception means 6. Specifically, at least a program for predicting the traveling direction of the first user arriving at the meeting place and generating an imaging command for capturing an image of the meeting place in a predetermined imaging direction based on the predicted traveling direction is stored. A ROM and a CPU functioning as the traveling direction prediction unit 3 and the imaging command generation unit 5 and a RAM functioning as the storage device 600 are provided by executing a program stored in the ROM.
[0012]
The ROM further stores a program for generating an imaging command for imaging the video at the meeting place based on the predicted traveling direction and the calculated viewpoint position of the first user, and the CPU executes the program. Thus, it functions as the viewpoint position calculation unit 4 and the imaging command generation unit 5.
[0013]
This apparatus is powered on when the vehicle ignition is turned on. Of course, a small battery other than the vehicle drive battery may be built in and always activated. In order to prevent wear, it is preferable to charge a small battery during traveling.
[0014]
The “current position acquisition unit 1” acquires a meeting place between the first user and the second user. The current position acquisition unit 1 acquires the current position via the current position detection unit 410 of the navigation measure 400. The current position detection means 410 detects the current position of the vehicle on which the first user is boarding using a GPS function (Global Positioning System) and a vehicle position detection function such as a gyro sensor.
[0015]
The “waiting place acquisition unit 2” acquires position information of a place where the first user and the second user meet via the information input device 300 or the destination acquisition unit 422. The acquired information on the meeting place may be position information input to the meeting information input unit 310 or position information input to the navigation device 400 as a destination. Further, the position information of the meeting place may be acquired from the schedule data described by a predetermined method.
[0016]
The “traveling direction predicting means 3” includes a route calculation unit 31 and a road shape reference unit 32, and the first user arriving at the meeting place based on the positional relationship between the current position of the first user and the meeting place. Predict the direction of travel. The traveling direction prediction process of the traveling direction predicting means 3 will be described with reference to FIG.
[0017]
The “route calculation unit 31” is stored in the storage device 600 based on the positional relationship between the current position of the first user acquired by the current position acquisition unit 1 and the meeting place acquired by the meeting place acquisition unit 2. By referring to the map information, the route from the current position to the meeting place is calculated. FIG. 2 shows a route calculated based on the map information. From the calculated route and the travel history of the first user (including the current position), the traveling direction a of the first user that has arrived at the meeting place A can be estimated.
[0018]
In the present embodiment, it is estimated that a meeting place that is the end point of the guide route and a line connecting a point several meters before the guide route on the guide route is the traveling direction. Note that the route calculation process may be performed by the route calculation unit 420 of the navigation device 400 to acquire the calculated route. When the information transmitting / receiving apparatus 100 is not mounted on the vehicle, the route of the first user is calculated using an electronic compass, a triaxial geomagnetic sensation, and an acceleration sensor.
[0019]
The “road shape reference unit 31” acquires the stored road shape in advance. When the road shape reference unit 31 is activated, the traveling direction prediction unit 3 refers to the acquired road shape based on the positional relationship between the current position of the first user and the meeting place, and reaches the meeting place. Predict the direction of travel. If it is assumed that the traveling direction is a line connecting a meeting place and a point a few meters before the meeting place, the second user may not be found in the traveling direction if the road shape is complicated. Therefore, in the present embodiment, the road shape reference unit 31 is provided, and the traveling direction predicting unit 3 estimates the direction along the road shape as the traveling direction.
[0020]
Thereby, even when the road at the meeting place has a special shape such as a rotary, it is possible to determine the accurate traveling direction at the meeting place by referring to the road shape. The traveling direction obtained as a prediction result is sent to the imaging command generation means 5.
[0021]
When the traveling direction estimated based on the route calculated by the route calculation unit 31 and the traveling direction estimated based on the road shape read by the road shape reference unit 32 are different, the traveling direction prediction means 3 is either 1 may be determined as a priority, or a combined direction of two estimated directions may be determined as the direction of travel.
[0022]
The “viewpoint position calculation unit 4” calculates the position of the viewpoint of the first user. The video that the first user sees at the meeting place varies depending on the viewpoint of the first user. However, since the vehicle height of the vehicle used by the first user varies and the height of the first user varies, the viewpoint of the first user (driver) driving the vehicle is not constant. In order to accurately capture an image viewed by the first user, it is necessary to consider the viewpoint position of the first user according to the vehicle height and the height of the driver of the vehicle. In the present embodiment, in order to determine the imaging position of the video to be imaged according to the viewpoint position of the first user, the viewpoint position calculation means 4 is provided to calculate the viewpoint position of the first user.
[0023]
Specifically, the viewpoint position calculating unit 4 calculates the viewpoint position by detecting the position of the eyes of the first user who gets on the vehicle using a camera provided in the vehicle. In addition, the vehicle information regarding the received vehicle height may be acquired to calculate the viewpoint position of the first user, or the vehicle height previously associated with the vehicle ID and the height associated with the driver ID are stored in advance. The calculated viewpoint position of the first user may be sent to the imaging command generation unit 5 as necessary.
[0024]
The “imaging command generating unit 5” generates an imaging command for capturing an image of a meeting place in a predetermined imaging direction based on at least the traveling direction predicted by the traveling direction predicting unit 3. Further, in consideration of the viewpoint position of the first user, the “imaging command generation unit 5” is configured so that the imaging direction based on the traveling direction predicted by the traveling direction prediction unit 3 and the first user calculated by the viewpoint position calculating unit. An imaging command for capturing an image of a meeting place at an imaging position based on the viewpoint position may be generated. Specifically, the imaging command generation means 5 has an imaging direction calculation function for calculating the imaging direction included in the imaging command based on the traveling direction, and outputs an imaging command using the imaging direction calculated by the imaging direction calculation function. Generate. The imaging command generation means 5 has an imaging position calculation function for calculating an imaging position included in the imaging command based on the viewpoint position, and generates an imaging command using the imaging position calculated by the imaging position calculation function. . That is, the imaging command generated by the imaging command generation unit 5 includes information for specifying the imaging direction and / or imaging position.
[0025]
The imaging command may include a command for imaging the second user. This is because the second user can be easily found if the second user's appearance, clothes, color of clothes, belongings, etc. can be known in advance.
[0026]
First, an imaging command including an imaging direction will be described.
The information specifying the imaging direction included in the imaging command is information based on at least two-dimensional azimuth information of east, west, south, and north. The imaging direction included in the imaging command is preferably substantially the same direction at least in the horizontal direction as the traveling direction predicted by the traveling direction predicting means 3. Thereby, it is possible to capture an image in the imaging direction along the traveling direction of the first user arriving at the meeting place. However, the traveling direction and the imaging direction are not limited to being substantially the same direction, and the imaging direction may be defined to have a predetermined angle with respect to the traveling direction. The predetermined angle is not particularly limited, and can be set in the range of the left-right direction (0 ° to 30 °) based on the traveling direction. For example, when the information transmitting / receiving apparatus 100 is mounted on a vehicle, the imaging direction is preferably a direction rotated by a predetermined angle toward the shoulder side of the road with respect to the traveling direction. In such a case, it can be set in the range of the left side or the right side (0 ° to 20 °) based on the traveling direction. This is because it is considered that the image on the shoulder side where the store or facility is located contains more information as a mark of the meeting place than the image in the same direction as the traveling direction of the vehicle traveling on the roadway.
[0027]
The imaging command generation means 5 processes the imaging direction based on the predicted traveling direction into information that can be recognized by the second user, and includes the information in the imaging command. The processing method of the imaging direction is not particularly limited, and the imaging direction may be indicated to the second user as an orientation (east, west, south, and north), or the imaging direction may be converted into an image such as an arrow and indicated to the second user. The imaging direction may be expressed by an icon that can specify the orientation and shown to the second user. Since the second user's mobile terminal 200 includes the electronic compass 204, the imaging direction included in the imaging command can be recognized as data, and the imaging direction can be displayed with an icon or the like.
[0028]
FIG. 3 shows an example of an “imaging command for capturing an image of a meeting place in a predetermined imaging direction” shown to the second user. In this imaging command, the “imaging direction” is instructed to the second user by an icon that can specify the direction.
[0029]
FIG. 3A shows the front of the mobile terminal 200 possessed by the second user, and FIG. 3B shows the back of the mobile terminal 200. On the front and back of the portable terminal 200, a monitor M.M. M ′ is provided. On the monitors M and M ′, icons capable of specifying the direction are displayed.
[0030]
FIG. 3C shows icon display when the imaging direction, that is, the camera direction is not correct. As shown in FIG. 3C, when the orientation of the camera unit 202 of the mobile terminal 200 that is directed to take an image is not correct, an X mark is displayed on the icon. When “x” is indicated, it means that the direction seen from the first user boarding the vehicle is different from the imaging direction of the image captured by the second user (waiting person). Since only this display can determine whether or not the imaging direction is correct, a display indicating how much the second user's camera should be rotated may be added. In the present embodiment, the arrow shown next to the icon is an arrow that indicates the direction in which the direction of the camera is corrected and the degree of correction. A large arrow indicates that the angle for rotating the direction of the camera is large, and a small arrow indicates that the angle for rotating the direction of the camera is small. The icon in FIG. 3C instructs the second user to rotate the camera direction to the left, and the icon in FIG. 3D instructs the second user to rotate the camera slightly to the left. I am instructing. When the orientation of the camera, that is, the imaging direction becomes a direction according to the imaging command by the adjustment of the second user, the icon display changes (from “×” to “•”) as shown in FIG. In this way, the second user adjusts the orientation of the mobile terminal 200 so that the icon of FIG.
[0031]
In this way, by sending a command to the second user to image the video at the meeting place in the imaging direction based on the traveling direction, the video viewed from the same direction as the direction in which the first user looks at the meeting place is sent to the second user. An image can be taken.
[0032]
Next, an imaging command including an imaging position based on the viewpoint position of the second user will be described.
The information specifying the viewpoint position is at least two-dimensional height information along the direction of gravity. The line-of-sight position included in the imaging command may be calculated based on the height of the vehicle on which the second user is boarded and the height of the second user. Of course, the eyes of the second user may be detected by a camera installed in the vehicle, and the detected eye position may be set as the line of sight.
[0033]
The imaging command generation means 5 processes the imaging position based on the calculated viewpoint position into information that can be recognized by the second user, and includes it in the imaging command. The processing method of the imaging position is not particularly limited, and the imaging position may be indicated to the second user as the height, or the imaging position may be indicated to the second user by representing the position with an icon capable of specifying the position. .
[0034]
FIG. 4 shows an example of an “imaging command for capturing an image of a meeting place at a predetermined imaging position” shown to the second user. In this imaging command, the “imaging direction” is instructed to the second user by an icon that can specify the direction.
[0035]
The portable terminal 200 shown in FIGS. 4 (a) and 4 (b) is the same as the portable terminal 200 shown in FIGS. 3 (a) and 3 (b). FIG. 4C shows icon display when the imaging position, that is, the camera position is not correct. As shown in FIGS. 4C and 4D, when the position of the camera unit 202 of the mobile terminal 200 directed to take an image is not correct, the circles indicated on the icons do not overlap. When the position of the camera, that is, the imaging position becomes a position according to the imaging command by the adjustment of the second user, two circles displayed on the icon overlap as shown in FIG. In this way, the second user adjusts the position of the mobile terminal 200 so that the icon of FIG.
[0036]
In this manner, by sending a command to the second user to image the video at the meeting place at the imaging position based on the viewpoint position of the first user, the video viewed from the same place where the first user sees the meeting place is viewed. The second user can take an image.
[0037]
In addition, the operation of adjusting the imaging position based on the viewpoint position is performed after the above-described imaging direction is determined. That is, the second user (waiting person) maintains the state where the icon “•” is displayed on the monitor of the mobile terminal 200 (the imaging direction in accordance with the imaging command), while the two circles of the icons overlap (imaging command) To capture the meeting place).
[0038]
In this way, by sending a command to the second user to capture an image of the meeting place at the image pickup direction based on the traveling direction and the image pickup position based on the first user's viewpoint position, the direction in which the first user views the meeting place and A video image viewed from the same direction and location as the location can be captured by the second user.
[0039]
As described above, the first user can cause the second user to pick up an image having the same direction and / or position as the image viewed by the first user and refer to the image that has been picked up. It can be easily found.
[0040]
Thus, the image | video image | photographed by the meeting other party is transmitted to the vehicle side. When this video is received on the vehicle side, it is displayed on the monitor of the in-vehicle information terminal. By referring to the displayed video, the vehicle driver can search for a meeting partner and smoothly perform the meeting.
[0041]
The “transmission / reception means 6” has an information transmission / reception function, and transmits / receives information to / from the portable terminal 200 at least. The information to be transmitted / received includes at least an imaging command and a video of a meeting place taken by the mobile terminal 200 on the second user side.
[0042]
The transmission / reception means is not particularly limited. For example, a general telephone, a mobile phone, a PHS phone, an in-vehicle phone using a public line network, a mobile communication device using a public communication network such as a module with a built-in communication function, an MCA (Multi Channel Access System) wireless system, Bluetooth, IEEE 802.11 system It may be a wireless communication function (DSRC (Dedicated Short Range Communications)) according to other wireless LAN standards (802.11a, 802.11b, 802.11g, etc.). In the present embodiment, a wireless LAN or DSRC (Dedicated Short Range Communications) is adopted from the viewpoint of reducing communication charges.
[0043]
Note that the transmission / reception means 6 is an information transmission / reception device 100 such as Bluetooth or infrared (IrDA), or wired such as RS-232C (serial interface), USB (Universal Serial Bus), or UART (Universal Asynchronous Receiver Transmitter). Connected with each configuration.
[0044]
Next, a control procedure of the information transmitting / receiving apparatus 100 according to the present embodiment will be described based on the flowchart of FIG.
The transmission / reception means 6 confirms that a link is established between the information transmission device 100 mounted on the vehicle and the communication terminal existing in the vehicle (S111). The first user performs a connection operation until the link is established, and waits until the link is established. When it is confirmed that the link is established, the process proceeds to S112.
[0045]
In S112, the navigation device 400 is initialized. Specifically, the contents of the DVD-ROM and the hard disk are read and the current position detecting means 410 mounted on the vehicle is activated.
[0046]
The current position acquisition means 1 acquires the current position of the vehicle on which the first user is boarded via the current position detection means 410 of the navigation device 400 (S113).
[0047]
The meeting place acquisition unit 2 acquires the meeting place through the meeting information input unit 310 or the destination acquisition unit 422 of the navigation device 400 (S114). The method for inputting the meeting place is not limited and can be input by the same method as the destination input in a general navigation apparatus. For example, a method of selecting and inputting a genre from a menu or the like, a method of inputting a telephone number, a method of directly inputting an address, or the like can be used.
[0048]
The route calculation unit 31 of the traveling direction predicting means 3 calculates a guide route from the current position to the meeting place from the positional relationship between the current position and the meeting place (S115). This guidance route calculation process may be performed by the route calculation means 420 of the navigation device 400. The road shape reference unit 32 accesses the storage device 600 and reads the road shape (S116).
[0049]
The traveling direction predicting means 3 predicts the traveling direction of the first user arriving at the meeting place from the positional relationship between the current position and the meeting place. In the present embodiment, in addition to the positional relationship between the current position and the meeting place, the traveling direction is predicted with reference to the road shape (S117).
[0050]
The imaging command generation unit 5 determines the imaging direction based on the traveling direction predicted by the traveling direction prediction unit 3 (S118). The viewpoint position calculation unit 4 calculates the viewpoint position of the first user (S119). The imaging command generation unit 5 determines the imaging position based on the viewpoint position calculated by the viewpoint position calculation unit 4 (S120). That is, the imaging command generation unit 5 determines an imaging direction based on the traveling direction and an imaging position based on the viewpoint position.
[0051]
The imaging command generation means 5 specifies at least the imaging direction and generates an imaging command for capturing an image of the meeting place in the specified imaging direction. The imaging command may include an imaging position based on the viewpoint position (S121).
[0052]
The imaging command generation unit 5 sends the imaging command to the mobile terminal 200 on the second user side via the transmission / reception unit 6 (S122). The imaging command transmission process can be performed using a general information transmission / reception application such as an electronic mail or an instant messenger.
[0053]
The imaging command includes an imaging direction and an imaging position, and the imaging direction (camera direction (horizontal direction)) and imaging position (driver viewpoint direction (vertical direction)) are displayed as icons on the mobile terminal 200 on the second user side. (S123).
[0054]
The information transmitting apparatus 100 waits for reception of the image of the waiting place imaged by the second user from the mobile terminal 200 (S124). The video received via the transmission / reception means 6 is displayed on the monitor of the presentation device 500 (S125, S126).
[0055]
The information transmitting / receiving apparatus 100 configured and functioning as described above has the following effects.
The first user who picks up the second user (waiting person) predicts the traveling direction when arriving at the meeting place, and issues an imaging command for capturing an image of the meeting place in the imaging direction based on the predicted traveling direction. Since it is transmitted to the two users, the first user can acquire the video imaged along the direction of his / her own line of sight, so the second user can be easily found with reference to this video image.
[0056]
Depending on the position identification accuracy of the in-vehicle navigation device 400, it may be difficult to identify even the place where the person is standing, but the place where the person came for the first time if looking at the video of the place where the waiting person is standing in advance Even so, the location can be easily identified. That is, the first user can search for a meeting partner while watching the video, and can smoothly search for a waiting person even in a complicated place or an incomprehensible place. Moreover, since the captured image is captured from the direction that the second user will see at the destination, the image is meaningful as a clue to search for the waiting person.
[0057]
Since the road shape is referred to in predicting the traveling direction of the first user, the traveling direction of the first user heading to the meeting place can be appropriately predicted even in a place where the road shape is complicated, such as a rotary station.
[0058]
The viewpoint position of the first user who picks up the second user (waiting person) is calculated, and an imaging command for capturing an image of the meeting place at the imaging direction based on the traveling direction and the imaging position based on the viewpoint position is transmitted to the second user. Thus, the first user can acquire a video that matches the viewpoint position of the first user. That is, it is possible to capture an image in which the difference in the appearance of the scenery due to the difference in vehicle height and height is corrected. The first user can easily find the second user with reference to the video captured from the viewpoint common to the first user's viewpoint.
[0059]
[Second Embodiment]
Next, the information transmission / reception apparatus 100 of 2nd Embodiment is demonstrated.
The information transmitting / receiving apparatus 100 according to the second embodiment causes the second user to capture an image corresponding to the visual field range of the first user. That is, the present embodiment calculates the first user's visual field range, generates an imaging command for capturing an image of the meeting place at a predetermined imaging magnification or imaging distance based on the visual field range, and outputs the imaging command to the second user. Send to the side. The configuration of the second embodiment is shown in FIG. As shown in FIG. 6, the configuration of the information transmitting / receiving apparatus 100 of the second embodiment is basically the same as the configuration of the first embodiment shown in FIG. The difference is that the information transmitting / receiving apparatus 100 according to the second embodiment has a visual field range calculating means 7. Moreover, the imaging command generation means 5 of 2nd Embodiment has an imaging magnification calculation function and an imaging distance calculation function. Here, different points will be mainly described.
[0060]
The “view range calculation means 7” calculates the range of the viewpoint of the first user. A method for calculating the range of the visual field is not particularly limited. FIG. 7 shows two calculation examples for calculating the visual field range of the first user boarding the vehicle.
[0061]
The example shown in FIG. 7A is a method of taking a scene using a camera installed in a vehicle and specifying the visual field range of the first user from the four-dimensional three-dimensional coordinates of the image. In FIG. 7A, the range that the first user can see through the windshield is associated with the visual field range, and the visual field range is specified by four points of coordinate values r1 to r4. The video corresponding to the visual field range preferably corresponds to the size of the monitor 500 that displays the captured video.
[0062]
Since the first user searches for the second user while comparing the scene actually viewed with the video captured by the second user, the scene actually viewed by the first user and the video captured by the second user are in the same range. A video is preferred. In the present embodiment, by generating the imaging command based on the visual field range of the first user, the video according to the imaging command can be displayed as the same scene as the video that the first user actually sees at the meeting place. . Incidentally, when the video imaged by the second user is a video with a small range of coordinate values r01 to r04 as shown in FIG. 7A, this video is actually viewed by the first user at the meeting place. The scene is different from the video, and it is difficult to find the second user based on the video.
[0063]
The example shown in FIG. 7B is an example in which the visual field range of the first user is measured using the eye tracking function. As shown in FIG. 7B, the field-of-view range calculation means 7 stores a viewpoint movement history using a camera that detects the movement of the viewpoint of the first user, and coordinates values r11 to r1 from the movement history distribution. The coordinate value r14 is calculated as the visual field range.
[0064]
The imaging magnification calculation function of the imaging command generation unit 5 determines the imaging magnification based on the visual field range surrounded by the coordinate values r1 to r4. The imaging distance calculation function determines the imaging distance based on the visual field range surrounded by the coordinate values r1 to r4. The imaging magnification and the imaging distance are preferably determined so as to substantially match at least the visual field range of the first user, and more preferably determined so as to substantially match the visual field range of the first user and the display range of the monitor 600. . When information (imaging magnification, imaging distance, etc.) of the camera means 202 of the mobile terminal 200 is necessary for determining the imaging magnification and imaging distance, a request command is transmitted to the mobile terminal 200 of the second user, and transmission / reception is performed. Necessary information is acquired through the means 6. Of course, information related to the mobile terminal 200 may be stored or acquired in advance, or model information may be acquired from the mobile terminal 200 and information corresponding to the model may be read from the stored information.
[0065]
The calculated imaging magnification and / or imaging distance is included in the imaging command in addition to the imaging direction and the like. That is, the imaging command of this embodiment may include an imaging direction, imaging magnification, and / or imaging distance, and may include an imaging direction, imaging position, imaging magnification, and / or imaging distance.
[0066]
The imaging command generation means 5 processes the imaging magnification and the imaging distance based on the calculated visual field range into information that can be recognized by the second user, and includes the information in the imaging command. The processing method of the imaging magnification and the imaging distance is not particularly limited, and the imaging magnification and the imaging distance may be shown as numerical values to the second user, or the imaging magnification and the imaging distance may be expressed by an icon that can be specified. It may be shown to the user.
[0067]
FIG. 8 shows an example of an “imaging command for capturing an image of a meeting place at a predetermined imaging magnification and / or imaging distance” shown to the second user. In this imaging command, an “imaging magnification” and “imaging distance” are instructed to the second user by an icon that can specify an imaging magnification and an imaging distance.
[0068]
FIG. 8A shows the front of the mobile terminal 200 possessed by the second user, and FIG. 8B shows the back of the mobile terminal 200. On the front and back of the portable terminal 200, a monitor M.M. M ′ is provided. On the monitors M and M ′, icons capable of specifying the direction are displayed.
[0069]
FIG. 8C shows the display of the icon M21 when the imaging magnification and / or imaging distance is not correct. As shown in FIG. 8C, when the imaging magnification is large and the imaging distance is short, a comparative circle (dotted line) that is smaller than the reference circle (solid line) is shown. The relative difference between the size of the reference circle and the comparison circle corresponds to the difference between the imaging magnification and imaging distance of the imaging command, and the imaging magnification and imaging distance that are actually imaged.
[0070]
When the comparison circle (dotted line) is smaller or larger than the reference circle (solid line), the imaging magnification and the imaging distance need to be adjusted. As with the icon shown in FIG. 8C, the imaging magnification and the imaging distance of the icon shown in FIG. 8D are not appropriate. Further, the imaging magnification and imaging distance are adjusted, and when the state shown in FIG. 8E, that is, when the sizes of the reference circle (solid line) and the comparison circle (dotted line) substantially match, the imaging magnification and imaging of the mobile terminal 200 are obtained. The distance is an imaging magnification and an imaging distance according to the imaging command.
[0071]
The imaging command may include an imaging magnification and an imaging distance, or may include one of the imaging magnification and the imaging distance. Since there is a limit to the imaging magnification, it is preferable to include the imaging distance together with the imaging magnification in the imaging command so as to capture the landscape according to the field of view range.
[0072]
An imaging command including the calculated imaging magnification and imaging distance is transmitted from the information transmitting / receiving device 100 to the mobile terminal 200 on the second user side. The second user captures an image of the meeting place according to the instruction based on the imaging command.
[0073]
In this way, by sending an imaging command including an imaging magnification based on the first user's visual field range and an image of capturing an image of the meeting place at the imaging distance to the second user, the same as the first user's visual field. The image of the range of can be made to image a 2nd user.
[0074]
As described above, the first user can easily search for the second user because the second user can take an image whose visual field range coincides with the image seen by the first user and can refer to the taken image. be able to.
[0075]
Next, the processing procedure of 2nd Embodiment is demonstrated based on the flowchart of FIG.
[0076]
The processing from S111 to S118 shown in FIG. 9 is common to the control processing of the first embodiment shown in FIG. In the present embodiment, the imaging command includes the imaging direction, the imaging magnification, and / or the imaging distance. Of course, the processing from S119 to S121 of the first embodiment may be included, and the imaging position may be included in the imaging command.
[0077]
Here, the process after S201 different from 1st Embodiment is demonstrated.
[0078]
First, the visual field range of the first user who gets on the vehicle is calculated (S201). The visual field range is calculated using the above-described on-vehicle camera and eye tracking function. The imaging magnification determination function determines the imaging magnification, and the imaging distance determination function determines the imaging distance. A magnification and a distance are calculated such that the visual field range of the first user matches the video range displayed on the monitor 500.
[0079]
The imaging command generation unit 5 generates an imaging command including the imaging direction, the imaging magnification, and / or the imaging distance (S203). The generated imaging command is transmitted to the portable terminal 200 via the transmission / reception means 6 (S204). An icon for setting / changing the imaging direction, the imaging magnification and / or the imaging distance is displayed on the mobile terminal 200 of the second user (S205). In this embodiment, the second user has set / changed the imaging magnification and the imaging distance by the icon, but the imaging instruction may be changed directly on the application installed in the camera unit 202 of the mobile terminal 200. Good. The change of the imaging magnification may be instructed directly to the camera means 202 or may be instructed to the second user.
[0080]
The information transmitting / receiving apparatus 100 waits for reception of the image captured by the second user (S206). When the captured video is received (S207), it is displayed on the monitor 500 (S208).
[0081]
According to the present embodiment, in addition to the effects of the first embodiment, since the range of the scenery that can be actually seen from the first user matches the range of the image captured by the second user, The actual scenery can be directly compared with the video imaged by the second user, and the second user can be easily found.
[0082]
[Third Embodiment]
Next, a third embodiment will be described.
The information transmitting / receiving apparatus 100 according to the third embodiment converts the video received from the second user into video according to the imaging command. Even if an imaging direction, an imaging position, an imaging magnification, and an imaging distance are specified by an imaging command, an image that does not comply with the command may be captured. In this embodiment, the video imaged in such a case is corrected to a video image according to the imaging command.
The configuration of the third embodiment is shown in FIG. As shown in FIG. 10, the configuration of the information transmitting / receiving apparatus 100 of the third embodiment is basically the same as the configuration of the second embodiment shown in FIG. The difference is that the information transmitting / receiving apparatus 100 of the third embodiment has a video converting means 8. Here, different points will be mainly described.
[0083]
The information transmitting / receiving apparatus 100 according to the present embodiment includes a video conversion unit 8. The video conversion means 8 acquires the captured video of the meeting place and the imaging direction of the video from the second user side, compares the acquired video imaging direction with the imaging direction included in the imaging command, and acquires the video The video is converted into a video according to the imaging direction of the imaging command.
[0084]
The “video converting means 8” converts the video captured by the second user into a video according to the imaging command. Specifically, a three-dimensional coordinate conversion process is performed from a video imaged in the imaging direction B (projection surface B) to a video imaged in the imaging direction A (imaging command) (projection surface B). A general method can be used for the coordinate conversion processing performed here, and an example thereof will be described with reference to FIGS. 11 and 12.
[0085]
First, the conversion process regarding the imaging direction will be described with reference to FIG. FIG. 11 is a view of the imaging point and the video screen as viewed from above. The projection plane (video plane) of the video imaged by the second user is the B plane, and the projection plane (video plane) of the video imaged in the video direction according to the imaging command is the A plane. The imaging direction of the actually captured video is detected using the electronic compass 204 of the mobile terminal 200 on the second user side, and is acquired from the second user together with the captured video. The imaging direction of the actually captured image is compared with the imaging direction included in the imaging command. In the example shown in FIG. 11, there is a difference in angle θ between the A plane and the B plane. Based on the angle θ, the image projected on the B plane is converted to the A plane. That is, the captured landmark P on the B plane is mapped to the landmark P ′ on the A plane. This makes it possible to convert a video that was not shot from the correct angle into a video that was shot from an almost arbitrary angle, and convert a video whose imaging direction does not follow the imaging command to a video that follows the imaging command. Can do.
[0086]
Based on FIG. 12, the conversion process regarding an imaging distance is demonstrated. FIG. 12 is a view of the imaging point and the video screen as viewed from above. The projection plane (video plane) of the video imaged by the second user is the B plane, and the projection plane (video plane) of the video imaged in the video direction according to the imaging command is the A plane. The imaging distance of the actually captured image is detected using the camera means 202 of the mobile terminal 200 on the second user side, and is acquired from the second user together with the captured image. The imaging distance of the actually captured image is compared with the imaging distance included in the imaging command. In the example shown in FIG. 12, there is a difference of Δd = d2−d1 between the A surface and the B surface. Based on the distance difference Δd, the image projected on the B plane is converted to the A plane. That is, the captured landmark R on the B plane is mapped to the landmark R ′ on the A plane. This makes it possible to convert video that was not shot at the correct imaging distance into video that was shot from almost any imaging distance, and convert video that does not follow the imaging command to video that follows the imaging command. can do.
[0087]
Here, the processing of the video conversion unit 8 has been described by taking the imaging direction and the imaging distance as an example, but the video conversion unit 8 uses the coordinate conversion processing for the imaging position and the imaging magnification to obtain the video according to the imaging command. be able to.
[0088]
The processing from S111 to S118 shown in FIG. 13 is the same as the control processing of the first embodiment shown in FIG. 5 as in the second embodiment. In the present embodiment, the imaging command includes the imaging direction, the imaging magnification, and / or the imaging distance. Of course, the processing from S119 to S121 of the first embodiment may be included, and the imaging position may be included in the imaging command.
[0089]
Here, the processing after S301 different from the first embodiment will be described.
[0090]
An image captured by the second user is acquired. In this step, along with the video, the imaging direction, imaging position, imaging magnification, and imaging distance of the video are acquired as necessary (S207). The video conversion means 8 detects the difference between the B plane that is the actually captured image plane and the A plane that is the image plane according to the imaging command. Specifically, from the feature points on both planes (4 points on the screen corner),
[0091]
[Expression 1]
Plane equation
A plane: a A x + b A y + c A z + d A = 0
B plane: a B x + b B y + c B z + d B = 0
Is calculated, and the vertical vectors of both planes and the angle formed by the vertical vectors are calculated therefrom.
[0092]
In S312, a conversion (mapping) is performed from the actually shot image plane (B plane) to the video year (A plane) actually viewed by the first user. For the video conversion (mapping), the process shown in FIG. 11 is performed using the angle formed by both planes calculated in S311.
[0093]
According to the present embodiment, when the second user cannot capture images according to the correct imaging direction, imaging position, imaging magnification, and imaging distance, an image captured with the imaging direction, imaging position, imaging magnification, and imaging distance according to the imaging command is displayed. It can be provided to the first user.
[0094]
That is, the first user can obtain an image corresponding to the traveling direction at the meeting place, and can easily find the second user. The first user can obtain an image corresponding to the viewpoint position, and can easily find the second user. The first user can obtain an image corresponding to the visual field area, and can easily find the second user.
[0095]
When the second user's mobile terminal 200 does not have a function for displaying an imaging command as an icon as shown in FIGS. 3, 4, and 8, it is difficult to capture an image that accurately follows the imaging command. . According to the present embodiment, even a video captured by the mobile terminal 200 that does not have a function of displaying an imaging command with an icon can be converted into a video according to the imaging command, and the first user is the second user The second user can be easily searched with reference to the video obtained from the above.
[0096]
Although the information transmission / reception apparatus 100 has been described in the present embodiment, a computer that operates according to the information transmission / reception program of the present invention operates in the same manner as the information transmission / reception apparatus 100 and has the same effects.
[0097]
The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
[Brief description of the drawings]
FIG. 1 is a block diagram of an information transmitting / receiving apparatus 100 according to a first embodiment.
FIG. 2 is a diagram for explaining processing of a traveling direction predicting unit 3;
FIGS. 3A to 3E are diagrams for explaining a first example of a display mode of an imaging command.
FIGS. 4A to 4E are diagrams for explaining a second example of a display mode of an imaging command.
FIG. 5 is a flowchart showing a control procedure of the information transmitting / receiving apparatus 100 of the first embodiment.
FIG. 6 is a block diagram of an information transmitting / receiving apparatus 100 according to the second embodiment.
FIG. 7 is a diagram for explaining processing of a visual field range calculation unit 7;
FIGS. 8A to 8E are diagrams for explaining a third example of a display mode of an imaging command.
FIG. 9 is a flowchart showing a control procedure of the information transmitting / receiving apparatus 100 of the second embodiment.
FIG. 10 is a block diagram of an information transmitting / receiving apparatus 100 according to a third embodiment.
FIG. 11 is a first diagram for explaining the processing of the video conversion means 8;
FIG. 12 is a second diagram for explaining the processing of the video conversion means 8;
FIG. 13 is a flowchart showing a control procedure of the information transmitting / receiving apparatus 100 of the third embodiment.
[Explanation of symbols]
100: Transmission / reception device
1 ... Current position acquisition means
2 ... Meeting place acquisition means
3 ... Travel direction prediction means
31: Route calculation unit
32 ... Road shape reference part
4. Viewpoint position calculation means
5 ... Imaging command generation means
6 ... Transmission / reception means
7: Field of view range calculation means
8 ... Video conversion means
200 ... mobile terminal
300 ... Information input device
400 ... navigation device
500 ... presentation device
600 ... Storage device

Claims (8)

所定の待ち合わせ場所で他のユーザと待ち合わせをする一のユーザ側に設けられ、前記他のユーザ側と相互に情報の送受信を行う情報送受信装置であって、
前記一のユーザの現在位置を取得する現在位置取得手段と、
前記一のユーザと他のユーザとの待ち合わせ場所を取得する待ち合わせ場所取得手段と、
前記一のユーザの現在位置と前記待ち合わせ場所との位置関係に基づいて、前記待ち合わせ場所に到着する前記一のユーザの進行方向を予測する進行方向予測手段と、
前記進行方向予測手段により予測された前記進行方向に基づく所定の撮像方向で、前記待ち合わせ場所の映像を撮像させる撮像命令を生成する撮像命令生成手段と、
前記撮像命令生成手段により生成された撮像命令を、前記他のユーザに向けて送出する送受信手段とを有する情報送受信装置。
An information transmitting / receiving apparatus provided on one user side for meeting with another user at a predetermined meeting place, and for transmitting / receiving information to / from the other user side,
Current position acquisition means for acquiring the current position of the one user;
A meeting place acquisition means for acquiring a meeting place between the one user and another user;
A traveling direction predicting means for predicting a traveling direction of the one user arriving at the meeting place based on a positional relationship between the current position of the one user and the meeting place;
An imaging command generating unit that generates an imaging command for capturing an image of the meeting place in a predetermined imaging direction based on the traveling direction predicted by the traveling direction predicting unit;
An information transmission / reception apparatus comprising: a transmission / reception unit that transmits the imaging command generated by the imaging command generation unit to the other user.
前記進行方向予測手段は、前記待ち合わせ場所の道路形状を予め取得し、前記一のユーザの現在位置と前記待ち合わせ場所との位置関係に基づいて、前記取得した道路形状を参照して、前記待ち合わせ場所に到着する前記一のユーザの進行方向を予測する請求項1に記載の情報送受信装置。The advancing direction prediction means acquires the road shape of the meeting place in advance, and refers to the acquired road shape based on the positional relationship between the current position of the one user and the meeting place, and the meeting place The information transmission / reception apparatus according to claim 1, wherein the traveling direction of the one user arriving at the terminal is predicted. 前記一のユーザの視点位置を算出する視点位置算出手段を有し、
前記撮像命令生成手段は、前記進行方向予測手段により予測された前記進行方向に基づく所定の撮像方向と、前記視点位置算出手段により算出された前記一のユーザの視点位置に基づく所定の撮像位置で、前記待ち合わせ場所の映像を撮像させる撮像命令を生成する請求項1または2に記載の情報送受信装置。
Viewpoint position calculating means for calculating the viewpoint position of the one user,
The imaging command generation unit includes a predetermined imaging direction based on the traveling direction predicted by the traveling direction prediction unit, and a predetermined imaging position based on the viewpoint position of the one user calculated by the viewpoint position calculating unit. The information transmission / reception apparatus according to claim 1, wherein an imaging command for capturing an image of the meeting place is generated.
前記一のユーザの視野範囲を算出する視野範囲算出手段を有し、
前記撮像命令生成手段は、前記視野範囲算出手段により算出された視野範囲に基づく撮像倍率又は撮像距離で前記待ち合わせ場所の映像を撮像させる命令を、前記撮像命令にさらに含ませる請求項1〜3のいずれかに記載の情報送受信装置。
Visual field range calculating means for calculating the visual field range of the one user,
The imaging command generation unit further includes a command for capturing an image of the waiting place at an imaging magnification or an imaging distance based on the visual field range calculated by the visual field range calculation unit. The information transmitting / receiving apparatus according to any one of the above.
前記撮像された待ち合わせ場所の映像と、当該映像が撮像された撮像方向を前記他のユーザ側から取得し、前記取得した映像の撮像方向と前記撮像命令に含まれる撮像方向とを比較し、前記取得した映像を前記撮像命令の撮像方向に従う映像に変換する映像変換手段を有する請求項1〜4のいずれかに記載の情報送受信装置。The captured video of the meeting place and the imaging direction in which the video is captured are acquired from the other user side, the imaging direction of the acquired video is compared with the imaging direction included in the imaging command, The information transmitting / receiving apparatus according to claim 1, further comprising: a video conversion unit that converts the acquired video into a video according to an imaging direction of the imaging command. 前記映像変換手段は、前記撮像された待ち合わせ場所の映像と、当該映像の撮像位置を前記他のユーザ側から取得し、前記取得した映像の撮像位置と前記撮像命令に含まれる撮像位置とを比較し、前記取得した映像を前記撮像命令の撮像位置に従う映像に変換する機能をさらに有する請求項5記載の情報送受信装置。The video conversion means acquires the captured video of the meeting place and the imaging position of the video from the other user side, and compares the acquired imaging position of the video with the imaging position included in the imaging command. The information transmitting / receiving apparatus according to claim 5, further comprising a function of converting the acquired video into a video according to an imaging position of the imaging command. 前記映像変換手段は、前記撮像された待ち合わせ場所の映像と、当該映像の撮像倍率および/または撮像距離を前記他のユーザ側から取得し、前記取得した映像の撮像倍率および/または撮像距離と前記撮像命令に含まれる撮像倍率および/または撮像距離とを比較し、前記取得した映像を前記撮像命令の撮像倍率および/または撮像距離に従う映像に変換する機能をさらに有する請求項5または6記載の情報送受信装置。The video conversion means acquires the captured video of the meeting place and the imaging magnification and / or imaging distance of the video from the other user side, and acquires the imaging magnification and / or imaging distance of the acquired video and the imaging distance. The information according to claim 5 or 6, further comprising a function of comparing an imaging magnification and / or an imaging distance included in an imaging command and converting the acquired video into an image according to the imaging magnification and / or imaging distance of the imaging command. Transmitter / receiver. 所定の待ち合わせ場所で他のユーザと待ち合わせをする一のユーザ側のコンピュータに、
前記一のユーザの現在位置を取得する機能と、
前記一のユーザと他のユーザとの待ち合わせ場所を取得する機能と、
前記一のユーザの現在位置と前記待ち合わせ場所との位置関係に基づいて、前記待ち合わせ場所に到着する前記一のユーザの進行方向を予測する機能と、
前記予測された前記進行方向に基づく所定の撮像方向で、前記待ち合わせ場所の映像を撮像させる撮像命令を生成する機能と、
前記生成された撮像命令を、前記他のユーザに向けて送出する機能とを実現させるための情報送受信用プログラム。
To the computer on the one user's side who meets with other users at a predetermined meeting place,
A function of acquiring a current position of the one user;
A function of obtaining a meeting place between the one user and another user;
A function of predicting a traveling direction of the one user arriving at the meeting place based on a positional relationship between the current position of the one user and the meeting place;
A function of generating an imaging command for capturing an image of the meeting place in a predetermined imaging direction based on the predicted traveling direction;
An information transmission / reception program for realizing a function of transmitting the generated imaging command to the other user.
JP2003181093A 2003-06-25 2003-06-25 Information transmission / reception device, information transmission / reception program Expired - Fee Related JP4059154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003181093A JP4059154B2 (en) 2003-06-25 2003-06-25 Information transmission / reception device, information transmission / reception program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003181093A JP4059154B2 (en) 2003-06-25 2003-06-25 Information transmission / reception device, information transmission / reception program

Publications (3)

Publication Number Publication Date
JP2005017074A true JP2005017074A (en) 2005-01-20
JP2005017074A5 JP2005017074A5 (en) 2005-09-15
JP4059154B2 JP4059154B2 (en) 2008-03-12

Family

ID=34181887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003181093A Expired - Fee Related JP4059154B2 (en) 2003-06-25 2003-06-25 Information transmission / reception device, information transmission / reception program

Country Status (1)

Country Link
JP (1) JP4059154B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006250874A (en) * 2005-03-14 2006-09-21 Alpine Electronics Inc Navigation device and guidance method for own vehicle relative position
WO2010150323A1 (en) * 2009-06-26 2010-12-29 富士通株式会社 Mobile communication device, position information acquisition method, and program
CN102168982A (en) * 2010-02-26 2011-08-31 富士通天株式会社 Navigation system, vehicle-mounted machine, program and navigation method
WO2014013610A1 (en) * 2012-07-20 2014-01-23 三菱電機株式会社 Information device and communication control method
JP2019203762A (en) * 2018-05-22 2019-11-28 本田技研工業株式会社 Display controller and program
JP2020038071A (en) * 2018-09-03 2020-03-12 Zホールディングス株式会社 Information processing device, information processing method, and program
JP2020135113A (en) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 Travel controller and travel control method
JP2021043763A (en) * 2019-09-12 2021-03-18 日産自動車株式会社 Meeting place presentation system, meeting place presentation method, and ride-hailing server
US20220075380A1 (en) 2016-03-24 2022-03-10 Waymo Llc Arranging passenger pickups for autonomous vehicles

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4489619B2 (en) * 2005-03-14 2010-06-23 アルパイン株式会社 Navigation device and method for guiding relative position of own vehicle
JP2006250874A (en) * 2005-03-14 2006-09-21 Alpine Electronics Inc Navigation device and guidance method for own vehicle relative position
US8838133B2 (en) 2009-06-26 2014-09-16 Fujitsu Limited Mobile communication apparatus, position information acquiring method, and computer-readable storage medium
WO2010150323A1 (en) * 2009-06-26 2010-12-29 富士通株式会社 Mobile communication device, position information acquisition method, and program
JP5146600B2 (en) * 2009-06-26 2013-02-20 富士通株式会社 Mobile communication device, position information acquisition method, and program
CN102168982A (en) * 2010-02-26 2011-08-31 富士通天株式会社 Navigation system, vehicle-mounted machine, program and navigation method
JPWO2014013610A1 (en) * 2012-07-20 2016-06-30 三菱電機株式会社 Information device and communication control method
JP5837200B2 (en) * 2012-07-20 2015-12-24 三菱電機株式会社 Information device and communication control method
WO2014013610A1 (en) * 2012-07-20 2014-01-23 三菱電機株式会社 Information device and communication control method
US20220075380A1 (en) 2016-03-24 2022-03-10 Waymo Llc Arranging passenger pickups for autonomous vehicles
JP2022091888A (en) * 2016-03-24 2022-06-21 ウェイモ エルエルシー Distribution of passenger pickup for autonomous travel vehicle
US11853067B2 (en) 2016-03-24 2023-12-26 Waymo Llc Arranging passenger pickups for autonomous vehicles
JP2019203762A (en) * 2018-05-22 2019-11-28 本田技研工業株式会社 Display controller and program
JP7063723B2 (en) 2018-05-22 2022-05-09 本田技研工業株式会社 Display control device and program
JP2020038071A (en) * 2018-09-03 2020-03-12 Zホールディングス株式会社 Information processing device, information processing method, and program
JP7184569B2 (en) 2018-09-03 2022-12-06 ヤフー株式会社 Information processing device, information processing method, and program
JP2020135113A (en) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 Travel controller and travel control method
JP2021043763A (en) * 2019-09-12 2021-03-18 日産自動車株式会社 Meeting place presentation system, meeting place presentation method, and ride-hailing server
JP7369571B2 (en) 2019-09-12 2023-10-26 日産自動車株式会社 Meeting place presentation system, meeting place presentation method, and dispatch server

Also Published As

Publication number Publication date
JP4059154B2 (en) 2008-03-12

Similar Documents

Publication Publication Date Title
US10578452B2 (en) Method and apparatus for providing service using a sensor and image recognition in a portable terminal
US7925434B2 (en) Image-related information displaying system
US8538688B2 (en) User generated pedestrian and indoor shortcut routes for navigation systems
JP4977339B2 (en) Geographic data collection device
KR101436223B1 (en) Image identification using trajectory-based location determination
JP6025433B2 (en) Portable navigation device
WO2017155740A1 (en) System and method for automated recognition of a transportation customer
KR100968837B1 (en) Portable camera system provides information about captured objects
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
KR102622585B1 (en) Indoor navigation apparatus and method
JP4059154B2 (en) Information transmission / reception device, information transmission / reception program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
JP2011113245A (en) Position recognition device
KR20150077607A (en) Dinosaur Heritage Experience Service System Using Augmented Reality and Method therefor
US9715628B2 (en) Method for estimating a distance from a first communication device to a second communication device, and corresponding communication devices, server and system
KR101601726B1 (en) Method and system for determining position and attitude of mobile terminal including multiple image acquisition devices
JP3706907B2 (en) Method for estimating the current position and orientation of a user
JP2010171664A (en) Personal digital assistant, information display control method, and information display control program
JP4556096B2 (en) Information processing apparatus and method, recording medium, and program
JP2014021802A (en) Search system, search server and program for portable terminal
JP7265269B2 (en) Map data correction method and correction program
WO2022208628A1 (en) Mobile information terminal and display method for same
JP6523362B2 (en) Server device, terminal device and program
JP2004294283A (en) Device, system, and method for navigation and navigation program
JP2020106919A (en) Geographical coordinate estimation device, geographical coordinate estimation system, geographical coordinate estimation method and computer program for flying body

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111228

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees