JP3729161B2 - Target position search apparatus, target position search method and program - Google Patents

Target position search apparatus, target position search method and program Download PDF

Info

Publication number
JP3729161B2
JP3729161B2 JP2002197272A JP2002197272A JP3729161B2 JP 3729161 B2 JP3729161 B2 JP 3729161B2 JP 2002197272 A JP2002197272 A JP 2002197272A JP 2002197272 A JP2002197272 A JP 2002197272A JP 3729161 B2 JP3729161 B2 JP 3729161B2
Authority
JP
Japan
Prior art keywords
information
target
shooting
camera
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002197272A
Other languages
Japanese (ja)
Other versions
JP2003121195A (en
Inventor
伸 三国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002197272A priority Critical patent/JP3729161B2/en
Priority to US10/210,235 priority patent/US7027823B2/en
Publication of JP2003121195A publication Critical patent/JP2003121195A/en
Application granted granted Critical
Publication of JP3729161B2 publication Critical patent/JP3729161B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0284Relative positioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/02Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
    • H04W8/08Mobility data transfer
    • H04W8/14Mobility data transfer between corresponding nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/04Interfaces between hierarchically different network devices
    • H04W92/08Interfaces between hierarchically different network devices between user and terminal device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば携帯電話システムに用いて好適な目標位置探索装置、目標位置探索方法及びプログラムに関する。
【0002】
【従来の技術】
従来より、待ち合わせの相手を見つける際に、例えば携帯電話機を用い、通話しながら目標物を教え合ったり、待ち合わせ場所の地名や施設名を教えてもらい地図本を見るなどといった方法を採ることが考えられる。
【0003】
【発明が解決しようとする課題】
しかしながら、なかなか相手に意図が伝わらなかったり、待ち合わせ相手が面識のない人であったり、地図本を見るのが不慣れであったりすると、相手を見つけ出すことができないことも多々あり得る。
【0004】
特に、人混みの中で待ち合わせを行なう場合は、より一層、相手を見つけ出すことが困難になる。
【0005】
また、目標物が携帯電話機を所持している人間ではなく会社や店などの施設である場合、目標とする施設を見つけ出すためには、自動車に搭載されたナビゲーションシステムや地図本を用いることが考えられる。
【0006】
しかしながら、この場合も、目標とする施設の看板が目立たないものであったり、地図を見るのが不慣れであったりすると、目標とする施設をなかなか見つけ出すことができないことになる。
【0007】
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、携帯電話機等のように日常的に気軽に所持できる機器を用いて、目標とする位置まで容易にナビゲートすることが可能な目標位置探索装置、目標位置探索方法及びプログラムを提供することにある。
【0008】
【課題を解決するための手段】
請求項1記載の発明は、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、この情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラにより得られる撮影画像上における上記目標物の位置を算出する演算手段と、この演算手段により算出された上記撮影画像中の目標物の位置を表す情報を表示する表示手段と、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する判断手段とを具備し、上記表示手段は、この判断手段により上記カメラの撮影画角内に上記目標物が収まっていないと判断された場合、上記目標物のある方向を示す情報を表示することを特徴とする。
【0009】
請求項2記載の発明は、上記請求項1記載の発明において、上記情報取得手段は、さらに上記カメラの撮影角度情報を取得し、上記演算手段は、この情報取得手段により得られた目標物の位置情報、カメラの、撮影位置情報、撮影方位情報、撮影画角情報及び撮影角度情報に基づいて、上記カメラにより得られる撮影画像上における上記撮影画像中の目標物の位置を算出することを特徴とする。
【0016】
請求項3記載の発明は、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、上記目標物とカメラとが接近状態にあるか否かを判断する判断手段と、この判断手段により接近状態にあると判断された場合に、上記情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラにより得られる撮影画像上における上記目標物の位置を算出する演算手段と、この演算手段により算出された上記撮影画像中の目標物の位置を表す情報を出力する出力手段とを具備することを特徴とする。
【0018】
請求項4記載の発明は、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、この情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する判断手段と、この判断手段による判断結果に応じて所定の処理を実行する制御手段とを具備したことを特徴とする。
【0019】
請求項5記載の発明は、上記請求項4記載の発明において、上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、報知処理を実行することを特徴とする。
【0020】
請求項6記載の発明は、上記請求項4記載の発明において、上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、上記カメラにより得られる撮影画像の記録処理を実行することを特徴とする。
【0021】
請求項7記載の発明は、上記請求項4記載の発明において、上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、上記カメラにより得られる撮影画像の外部送信処理を実行することを特徴とする。
【0022】
請求項8記載の発明は、上記請求項4記載の発明において、上記制御手段は、上記判断手段による判断結果に応じた情報を、上記カメラを備える外部機器に対して送信出力することを特徴とする。
【0023】
請求項9記載の発明は、撮影画像を取得する撮像手段と、この撮像手段により取得された撮影画像を表示する表示手段と、上記撮像手段の撮影位置情報及び撮影方位情報を取得する情報取得手段と、この情報取得手段により取得された撮影位置情報及び撮影方位情報を外部装置に送信する送信手段と、上記外部装置が、上記送信手段により送信された撮影位置情報及び撮影方位情報と、目標物の位置情報及び上記撮像手段の撮影画角情報とに基づき、上記撮像手段の撮影画角内に上記目標物が収まっているか否かを判断した際の判断結果を示す情報を受信する受信手段と、この受信手段で受信した判断結果を示す情報に応じて所定の処理を実行する制御手段とを具備したことを特徴とする。
請求項10記載の発明は、上記情報取得手段は、上記目標物である外部機器から送信されてくる目標物の位置情報を受信することにより該情報を取得することを特徴とする。
請求項11記載の発明は、任意の目標物を指定する指定手段をさらに具備し、上記情報取得手段は、この指定手段により指定された目標物の位置情報を取得することを特徴とする。
請求項12記載の発明は、上記指定手段により任意に指定された目標物に関する情報を、該目標物に関する情報に対応して位置情報を記憶する外部のデータベースに対して送信出力する送信手段をさらに具備し、上記情報取得手段は、この送信手段により送信された目標物に関する情報に対応して上記データベースに記憶されている位置情報を受信することにより該情報を取得することを特徴とする。
【0025】
請求項13記載の発明は、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する第1の工程と、この第1の工程により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する第2の工程と、この第2の工程による判断結果に応じて所定の処理を実行する第3の工程とを有したことを特徴とする。
【0027】
請求項14記載の発明は、目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する第1のステップと、この第1のステップにより得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する第2のステップと、この第2のステップによる判断結果に応じて所定の処理を実行する第3のステップとを目標位置探索装置に内蔵されたコンピュータに実行させることを特徴とする。
【0028】
【発明の実施の形態】
(第1の実施の形態)
以下本発明を、携帯電話機の一種である、GPS(Global Positioning System:全地球測位システム)機能を搭載したCDMA(Code Division Multiple Access:符号分割多元接続)方式の携帯端末機(以下「CDMA端末機」と称する)を用いるナビゲートサービスシステムに適用した場合の第1の実施の形態について図面を参照して説明する。
【0029】
図1は、ユーザが所持する折りたたみ式のCDMA端末機(目標位置探索装置)10を開いた状態での特徴的な概略構成のみを抜粋したものである。同図中、ボディ上部10aの内面に、バックライト付きのTFTカラー液晶パネルでなる表示部11が設けられ、またボディ上部10aの上端部には矢印Aで示すように撮像方向が回動自在なカメラ部12が配設される。
【0030】
一方、ボディ下部10bには、ここでは図示しないキー入力部等の他に、GPSユニット13と、地磁気を検知することによりカメラ部12が向いている撮影方位(パン角度)の情報を得る磁気(方位)センサ14と、カメラ部12が向いている高さ方向の撮影角度(チルト角度)の情報を得る角度センサ15が内蔵されるものとする。
【0031】
上記のようにCDMA端末機10を折りたたみ式とし、且つカメラ部12も回動自在としたことにより、ボディ下部10b側に内蔵された磁気センサ14の水平を維持しながらも、そのときの使用状態、撮影環境等に応じてカメラ部12を回動させて撮影しやすい角度に調節したり、表示部11を見易い角度に調節することができる。
【0032】
このようにカメラ部12とボディ上部10aとを回動可能に構成した場合、撮影方位を得るための磁気センサ14及び撮影角度を得るための角度センサ15がボディ上部10a(カメラ部12)ではなくボディ下部10bに内蔵されていることから、回動状態によっては実際の撮影方位と磁気センサ14により得られる撮影方位とが合わなくなってしまったり、実際の撮影角度と角度センサ15により得られる撮影角度とが合わなくなってしまうという問題が発生する。
【0033】
よって、常に正確な撮影方位及び撮影角度を得るためには、カメラ部12とボディ上部10aそれぞれの回動状態を検出し、この検出結果に応じて磁気センサ14により得られる撮影方位の情報、あるいは角度センサ15により得られる撮影角度の情報を補正する必要がある。
【0034】
ただし、撮影方位や撮影角度を得る際には、必ずカメラ部12とボディ上部10aを所定の回動状態にセットするものとすれば、前述した撮影方位や撮影角度の情報の補正を行なわなくて済むようになる。
【0035】
図2は、上記CDMA端末機10の回路構成を示すものである。同図で、21は最寄りの基地局とCDMA方式の通信を行なうためのアンテナであり、このアンテナ21にRF部22を接続している。
【0036】
このRF部22は、受信時にはアンテナ21から入力された信号をデュプレクサで周波数軸上から分離し、PLLシンセサイザから出力される所定周波数の局部発振信号と混合することによりIF信号に周波数変換し、さらに広帯域BPFで受信周波数チャネルのみを抽出し、AGC増幅器で希望受信波の信号レベルを一定にしてから次段の変復調部23へ出力する。
【0037】
一方、RF部22は送信時に、変復調部23から送られてくるOQPSK(Offset Quadri−Phase Shift Keying)の変調信号を、後述する制御部30からの制御に基づいてAGC増幅器で送信電力制御した後にPLLシンセサイザから出力される所定周波数の局部発振信号と混合してRF帯に周波数変換し、PA(Power Amplifier)で大電力に増幅して、上記デュプレクサを介してアンテナ21より輻射送信させる。
【0038】
変復調部23は、受信時にRF部22からのIF信号を直交検波器でベースバンドI・Q(In−phase・Quadrature−phase)信号に分離し、約10[MHz]のサンプルレートでデジタル化してCDMA部24に出力する。
【0039】
一方、変復調部23は送信時に、CDMA部24から送られてくるデジタル値のI・Q信号を約5[MHz]のサンプルレートでアナログ化した後に直交変調器でOQPSK変調してRF部22に送出する。
【0040】
CDMA部24は、受信時に変復調部23からのデジタル信号をPN(Pseudo Noise:擬似雑音)符号のタイミング抽出回路及びそのタイミング回路の指示に従って逆拡散・復調を行なう複数の復調回路に入力し、そこから出力される複数の復調シンボルの同期をとって合成器で合成して音声処理部25に出力する。
【0041】
一方、CDMA部24は送信時に、音声処理部25からの出力シンボルを拡散処理した後にデジタルフィルタで帯域制限をかけてI・Q信号とし、変復調部23に送出する。
【0042】
音声処理部25は、受信時にCDMA部24からの出力シンボルをデインタリーブし、それからビタビ復調器で誤り訂正処理を施した後に、音声処理DSP(Digital Signal Proccessor)で圧縮されたデジタル信号から通常のデジタル音声信号へと伸長し、これをアナログ化してスピーカ(SP)26を拡声駆動させる。
【0043】
一方、音声処理部25は送信時に、マイクロホン(MIC)27から入力されるアナログの音声信号をデジタル化した後に音声処理DSPで1/8以下に圧縮し、それから畳込み符号器で誤り訂正符号化してからインタリーブし、その出力シンボルをCDMA部24へ送出する。
【0044】
また、28はGPS用のアンテナであり、このアンテナ28にGPS受信部29が接続される。
【0045】
GPS受信部29は、上記アンテナ28と一体にして上記GPSユニット13を構成するものであり、アンテナ28で受信された少なくとも3個、望ましくは4個以上のGPS衛星からの中心周波数1.57542[GHz]のGPS電波に対し、それぞれスペクトラム拡散された内容をC/Aコードと呼称されるPN(擬似雑音)符号により逆拡散することで復調し、それらの信号により3次元空間上の現在位置(緯度/経度/高度)と現在時刻とを算出するもので、算出された結果を制御部30に送出する。
【0046】
しかして、上記RF部22、変復調部23、CDMA部24、音声処理部25、及びGPS受信部29に対して制御部30を接続し、この制御部30に上記表示部11、キー入力部31、上記磁気センサ14、角度センサ15、メモリ32、及び撮像部33を接続している。
【0047】
ここで制御部30は、CPUとROM、RAM等で構成され、該ROMに記憶される所定の動作プログラムに基づいてこの端末機全体を制御するもので、ROMが通信時の制御や通信データの送受信制御、表示部11での表示制御、後述するナビゲーションプログラムその他、CDMA端末機10を動作させるための各種制御を含む制御部30での動作プログラム等を固定的に記憶している。
【0048】
なお、上記プログラムを記憶する記録媒体は、上述したROMに限定されず、磁気的、光学的記録媒体、ROM以外の半導体メモリ、ハードディスク、CD−ROMやメモリカード等の可搬型の記録媒体等でもよい。
【0049】
また、この記録媒体に格納するプログラムは、その一部若しくは全部をネットワークを介して受信する構成にしてもよい。さらに、上記記録媒体はネットワーク上に構築されたサーバの記録媒体であってもよい。
【0050】
また制御部30に設けられるRAMは、制御部30での制御により取扱われる各種データを一時的に記憶するワークエリアと、通話先の名前と電話番号を組にして登録する電話帳エリアを有しており、電話帳エリアは電源バックアップによりこのCDMA端末機10の電源投入状態に関係なく記憶内容が保持される。
【0051】
キー入力部31は、文字入力キーを兼ねたダイヤルキー、「通話」キー、「切」キー、リダイヤルキー、モード選択キー、カーソルキー、シャッタキー等を有するもので、その操作信号は直接制御部30へ入力される。
【0052】
メモリ32は、電話回線網(通信ネットワーク)を介してダウンロードした各種データやアプリケーションプログラム、カメラ部12により得られた撮影画像等を記録しておくためのものである。
【0053】
撮像部33は、光学レンズ系34と、例えばCCD(Charge Coupled Divice:電荷結合素子)等の固体撮像素子35と共に上記カメラ部12を構成するものであり、光学レンズ系34により固体撮像素子35の撮像面上に結像された被写体の光像がアナログ信号の形で撮像部33に読出されると、撮像部33はこれをデジタル化した後に所定のカラープロセス処理を施し、その後に制御部30へ送出する。
【0054】
以下本実施の形態の動作について説明する。
まず、図3によりナビゲートサービスシステムの運用環境について説明する。同図では、ビルの屋上に設置されたCDMA基地局41を介して、友人関係にある二人のユーザ42,43が共に所持しているCDMA端末機10(図示せず)がここでは図示しないCDMA通信網及びこのCDMA通信網を統括管理する通信事業者が運営するサービスセンタ装置と接続されている状態を示すものであり、同時にユーザ42,43の所持しているCDMA端末機10は、GPS衛星44からの到来電波を受信することにより、現在位置を測定することができるものとする。
【0055】
いま、ユーザ42とユーザ43が共に雑踏の中にあって相互を直接視認することができず、ユーザ42は自分のCDMA端末機10でユーザ43のCDMA端末機10を呼出して通信状態を確保した上でユーザ43に向けて矢印Cに示すように移動するものとする。
【0056】
図4は、このとき発呼する側であるユーザ42の所持するCDMA端末機10上で実行されるナビゲートサービスの処理内容を示すもので、主として制御部30により制御される動作プログラムに基づいている。
【0057】
その当初には、ユーザ42がキー入力部31のモード選択キーの操作によりナビゲートモードを設定すると、表示部11に表示される入力画面の内容に従って、対象となる発呼先のユーザ43のCDMA端末機10の電話番号を入力する(ステップA01)。
【0058】
そして、入力の完了がキー入力部31の「通話」キーの操作により指示されると、入力された電話番号による発呼処理を実行し、その電話番号をサービスセンタ装置に送信することによりナビゲートサービスを受けられる状況にあるか否かを問い合わせる(ステップA02)。
【0059】
ここで、発呼先の電話番号を受信したサービスセンタ装置は、その電話番号のCDMA端末機10のその時点での位置登録状態を問合せて、その応答によりユーザ43がユーザ42と同じCDMA基地局41の通信圏内にいるか否か、換言すればユーザ42がユーザ43を捕らえるための画像表示を行なうことが可能か否かを判断し、判断結果が「通信圏内」である場合、ユーザ42のCDMA端末機10とユーザ43のCDMA端末機10との間の通信回線を接続し、これを維持する動作を行なう。
【0060】
そして、ユーザ42のCDMA端末機10は、ステップA03で、ユーザ42のCDMA端末機10との通信回線が接続されていないと判断すると、相手が通信圏外(他のCDMA基地局41の通信圏内を含む)であるものとして表示部11でエラーメッセージを表示して(ステップA15)、以上でこの処理を終了する。
【0061】
なお、サービスセンタ装置が、判断結果が「通信圏外」である場合に、相手端末との通信回線を接続しない(切断する)という処理を実行するだけでなく、エラーメッセージをユーザ42のCDMA端末機10に送信するようにして、ユーザ42のCDMA端末機10は、受信したエラーメッセージを単に表示する構成にしてもよい。
【0062】
一方、上記ステップA03でユーザ42のCDMA端末機10との通信回線が接続されていると判断した場合には、適宜、各種のコマンドを相手端末に送信することにより、通信相手側であるユーザ43の所持しているCDMA端末機10のGPS受信部29の起動状態を確保すると同時に(ステップA04)、それにより得られるユーザ43(CDMA端末機10)の所在している位置(緯度・経度・高度)情報を自機宛てに転送させ、それを受信してRAMのワークエリアに記憶する(ステップA05)。
【0063】
次に自機内のGPS受信部29の起動状態を確保し、その時点で自分が現在いる位置(緯度・経度・高度)の情報を取得してRAMのワークエリアに記憶すると同時に(ステップA06)、磁気センサ14の起動状態を確保して、その時点でカメラ部12が向いている方位(パン角度)の情報を取得してRAMのワークエリアに記憶する(ステップA07)。
【0064】
さらに、角度センサ15の起動状態を確保して、その時点でカメラ部12が向いている高さ方向の角度(チルト角度)の情報を取得してRAMのワークエリアに記憶する(ステップA08)。
【0065】
こうして、RAMのワークエリアに記憶された、ユーザ43の所在する位置情報と、ユーザ42自身の位置情報及びその時点でカメラ部12が向いている方位情報及び角度情報により、カメラ部12で撮像する画像中でユーザ43の所在を示す表示をすべき位置を計算する(ステップA09)。
【0066】
図5(1)は、このときユーザ42のCDMA端末機10のカメラ部12で得られる写界とユーザ43の位置の関係を例示するものである。この場合、ユーザ42の位置情報(X:緯度,Y:経度,Z:高度)を(X1,Y1,Z1)とし、ユーザ43の位置情報を(X2,Y2,Z2)とする。
【0067】
以下、表示画像中のユーザ43の水平方向に対する位置を算出する方法について説明する。
【0068】
なお、説明を簡略化させるために、表示画像中のユーザ43の高さ(垂直)方向に対する位置を算出する方法に関しては、水平方向の場合とほぼ同様の方法で算出することができるので説明を省略することにする。
【0069】
まず、ユーザ42,43相互の位置座標(緯度・経度)からユーザ42,43間の距離Dを求めることができるので、ユーザ42からユーザ43への距離Dを半径とする円弧を考え、その円弧上で固体撮像素子35(光学レンズ系34)の水平画角2θの中心位置を通る接線Tの該画角内での長さをWrとして算出することができる。
【0070】
ここで、上記水平画角情報は、予めメモリ32に記憶しておくものとする。なお、光学レンズ系34にズーム機能を有している場合は、各ズーム量に対応付けて水平画角情報をメモリ32に記憶しておき、現在のズーム量に対応した水平角度情報を読出して取得するようにする必要がある。
【0071】
また、磁気センサ14により水平画角の中心方向の方位がわかり、ユーザ42,43相互の位置座標からユーザ43の方位がわかるので、この2つの方位により上記中心方向からユーザ43の位置に至る水平誤差角度αが算出できる。
【0072】
該誤差角度α及びこのカメラ部12での水平画角2θの関係と、上記長さWrとから、該接線T上でユーザ43に該当する位置が、その中心位置からずれている水平距離xrを算出することができる。
【0073】
したがって、上記長さWrと図5(2)に示す表示部11の画面の横幅Wdとの比率と、上記距離xrとにより、表示部11における中心位置からユーザ43までの水平距離xdを算出することができることになる。
【0074】
なお、前述した水平誤差角度α、水平距離xr、水平距離xdは、撮影方向(画面)中心から右にユーザ43がいる場合はプラスの値を持ち、中心から左にユーザ43がいる場合はマイナスの値を持つものとする。
【0075】
ここで、垂直方向に関しては、垂直画角2θ′、画面の縦幅Weとし、水平方向の場合と同様の計算を行なった結果、垂直画角内での長さWs、垂直誤差角度β、接線上の中心位置からずれている垂直距離xs、表示部11における中心位置からユーザ43までの垂直距離xeが得られたものとする。ここで、上記垂直画角情報は、予めメモリ32に記憶しておくものとする。なお、ズーム機能を有している場合は、各ズーム量に対応付けて垂直画角情報をメモリ32に記憶しておき、現在のズーム量に対応した垂直角度情報を読み出して取得するようにする必要がある。
【0076】
なお、垂直方向の場合も同様に、垂直誤差角度β、垂直距離xs、垂直距離xeは、撮影方向(画面)中心より上にユーザ43がいる場合はプラスの値を持ち、中心より下にユーザ43がいる場合はマイナスの値を持つものとする。
【0077】
ステップA09で楕円部の表示位置を算出した後、カメラ部12を構成する固体撮像素子35を駆動して画像信号を得、これを撮像部33でカラープロセス処理してデジタル値の画像信号を取得してRAMのワークエリアに記憶する(ステップA10)。
【0078】
こうして画像信号を得た後、併せてユーザ43(CDMA端末10)がカメラ部12で撮影している画角の範囲内にあり、表示部11の画面上で表示することができるか否かを、画像中心からユーザ43の位置までの水平誤差角度αが半水平画角θを越えているか否か、または画像中心からユーザ43の位置までの垂直誤差角度βが半垂直画角θ′を超えているか否かの演算により判断する(ステップA11)。
【0079】
なお、上記ずれた距離xr(または距離xd)が上記距離Wr(横幅Wd)の半分を超えているか否か、または上記ずれた距離xs(または距離xe)が上記距離Ws(縦幅We)の半分を超えているか否かの演算により画角内にユーザ43が収まっているか否かを判断するようにしてもよい。
【0080】
該演算の結果、ユーザ43の位置を表示部11の画面で表示することができると判断した場合には、図5(2)に示すようにユーザ43の位置を表す楕円EをステップA09で計算した表示位置に表示させると同時に、ユーザ43までの距離D、及びユーザ43の位置が画面を外れた場合にその方向を表す矢印を併せて撮影画像に重畳した状態で表示部11で表示させ(ステップA13)、次いでRAMのワークエリアに記憶されている現時点の撮影画像をメモリ32に保存記録した後(ステップA14)、上記ステップA03からの処理に戻って、同様の処理を繰返す。なお、上記ステップA14において、撮影画像を記録するのではなく、通信ネットワークを介して予め指定しておいた外部の画像記録装置に送信(転送)するようにしてもよい。
【0081】
上記図5(2)は、ユーザ43の位置が表示部11の画面内に収まっている状態を例示するものであり、ユーザ43の位置を表す楕円Eと、ユーザ43までの距離「50M」、及びユーザ43が画面に収まっているためにあえて特別な点滅や彩色等を行わない上下左右4つの矢印とをカメラ部12で撮影した画像に重畳して表示している状態を示している。
【0082】
また、上記ステップA11での演算の結果、ユーザ43の位置が表示部11の画面から外れていて表示することができないと判断した場合には、ユーザ43までの距離D、及びユーザ43の位置が画面を外れている方向を表す矢印を併せて撮影画像に重畳した状態で表示部11で表示させ(ステップA12)、次いで上記ステップA03からの処理に戻って、同様の処理を繰返す。
【0083】
すなわち、ユーザ43の位置が表示部11の画面から外れている場合には、上記ユーザ43の位置を表す楕円Eを表示しない代わりに、ユーザ43までの距離と、特にユーザ43の位置している方向の矢印のみを特別な点滅や彩色等の処理を施した上下左右4つの矢印とをカメラ部12で撮影した画像に重畳して表示するものとする。
【0084】
このように、ステップA03からの処理を繰返し実行することにより、カメラ部12で撮影した画像の範囲内にユーザ43が位置していればその位置に楕円Eが重ねて表示され、また外れていれば該楕円Eが表示されずにその外れている方向の矢印のみが例えば点滅するなどして表示されるようになるので、ユーザ43の所在位置をより視覚的な手段でリアルタイムに撮影画像から判断することができるようになる。
【0085】
図6(1)〜図6(3)は、上記図5(2)で示した状態を含む、カメラ部12の撮影方向の変化に対応した表示部11での表示画面の遷移状態を例示するものである。
【0086】
図6(1)の表示部11の画面では、ユーザ43が画面範囲から外れてしまっているために、ユーザ43の所在を示す楕円Eが表示されず、代わってユーザ43が画面より右方向に位置していることを右矢印のみを彩色し、且つ点滅して表示させることで表現している。
【0087】
そこで、表示どおりにCDMA端末機10のカメラ部12を右方向にパン(移動)させると、図6(2)に示す如く、上記図5(2)で示した場合と同様の表示状態を得ることができるようになる。
【0088】
この場合、上下左右いずれか特定の方向を指示するような矢印の表示は行なわず、ユーザ43の所在位置を示す楕円Eを画面中に併せて表示している。
【0089】
しかるに、この図6(2)の表示状態からさらにカメラ部12を右方向にパンさせると、図6(3)に示す如く、ユーザ43の所在位置を示す楕円Eが画面中の左端に移動しながらも表示されている状態となる。
【0090】
この場合も、楕円Eが表示されているためにユーザ43はぎりぎりではあるがユーザ43が画面の表示範囲内に位置していることがわかるもので、左右いずれか特定の方向を指示するような矢印の表示は行なわれない。
【0091】
なお、図6(2)の表示状態でカメラ部12を上方向に移動させると、ユーザ43の所在位置を示す楕円Eが画面中の下端に移動し、さらに上方向に移動させると楕円Eの表示が消え、代わってユーザ43が画面より下方向に位置していることを知らせるために下矢印のみを彩色し、且つ点滅して表示させる。
【0092】
したがって、表示部11の画面に楕円Eが表示されない状態であれば矢印の方向にしたがってカメラ部12の撮影方向を移動させ、楕円Eが表示された時点でその楕円Eと背景の画像内容及び距離表示により目標とするユーザ43の位置を認識しながらユーザ43に近づくべく移動すればよいから、同様のCDMA端末機10を所持するもの同士できわめて視覚的に容易に相手の所在を知ることができる。
【0093】
なお、上記実施の形態では、発呼側のユーザ42のCDMA端末機10からの指示に従って相手側のユーザ43のCDMA端末機10でもGPSユニット13を構成するGPS受信部29が測位動作を行ない、得た位置情報をユーザ42のCDMA端末機10側へ転送するものとして説明したが、この種のCDMA端末機10はいずれも最寄の基地局に位置登録を行なうのと同時に所定周期で常時現在位置を基地局に登録しておくものとすれば、相手のCDMA端末機10の位置をより迅速に把握できることとなり、上記図6で示したようなリアルタイムのナビゲート画面をより早く表示させることができるようになる。
【0094】
また、上記実施の形態では、図4のステップA04において、自機が相手端末のGPS受信部29を起動させ、位置情報を転送させる制御を行なうようにしたが、ステップA04の処理を省き、自機はステップA05で単に相手端末から送信されてくる位置情報を受信する処理のみ実行するように構成してもよい。
【0095】
この場合、相手端末自身が、GPS受信部29を起動し、位置情報を自機に送信する制御を行なうようにするか、あるいは、サービスセンタ装置が、相手端末に対してGPS受信部29を起動させて位置情報を転送させ、その後、受信した位置情報を自機に送信する制御を行なうようにする。
【0096】
また、上記実施の形態では、サービスセンタ装置がユーザ42とユーザ43とが同じCDMA基地局41の通信圏内にいるか否かを判断し、通信圏内にいると判断した場合のみナビゲートサービスの利用(ナビゲートモードへの移行)を許可するシステム構成としたが、サービスセンタ装置を介することなく、通常の発呼動作により相手端末との通信回線を接続させた後、相手端末から位置情報を送ってもらうことによりナビゲートモードを実行できるように構成してもよい。
【0097】
また、上記実施の形態では、ユーザ42のCDMA端末機10は、相手側のユーザ43のCDMA端末機10の測位動作により得られた位置情報をCDMA基地局41、図示せぬサービスセンタ装置やCDMA通信網等を介して受信(取得)するものとして説明したが、本発明によれば表示部11に相手ユーザ42を表示可能な程度にお互いが接近していることを想定しているので、相手側のユーザ43のCDMA端末機10から位置情報をネットワークを介することなく無線通信等により直接受信するようにしてもよい。
【0098】
その場合、ネットワークを介する必要がなくなるので、通信事業者側の負担を軽くすることができる一方で、データ通信料金が発生しないためにCDMA端末機10のユーザの負担も軽くすることができる。
【0099】
また、上記実施の形態では、ステップA08で計算された画面内の表示位置(すなわち、表示画像中の目標物の表示位置)にユーザ43の位置を表す楕円Eを重畳表示させるようにしたが、ユーザ43の位置を表す表示は楕円に限定されず、また画像表示エリア外にユーザ43の位置を示す表示を行なうようにしてもよく、ユーザ43の位置がわかるような表示方法であればよい。
【0100】
さらに、表示画像中におけるユーザ43の位置がわかるような表示を行なわずに、撮影画角内にユーザ43が収まっているか否かを判断し、収まっていると判断した場合、単にユーザ43が画角内に収まっている旨を知らせる音響報知、または振動報知、または視覚報知のみを行なう構成にしてもよい。
【0101】
また、上記実施の形態では、ステップA11で撮影画角内にユーザ43が収まっていないと判断されている間、ステップA12で図6(1)に示すような表示を行なうようにしたが、カメラ部12による画像取得処理(ステップA10)あるいは表示部11による画像表示処理(ステップA12)を実行しないようにしてもよい。
【0102】
また、上記実施の形態では、ステップA14で撮影画像を保存記録(または送信)するようにしたが、保存記録(または送信)せずにステップA13による表示処理のみを実行するようにしてもよい。
【0103】
また、上記実施の形態では、ステップA13で撮影画像の表示処理を実行するようにしたが、撮影画像の表示処理を行なわずにステップA14による撮影画像の記録処理または送信処理(報知処理でもよい)のみを実行するようにしてもよい。つまり、撮影画角内にユーザ43が収まっていると判断した場合に、撮影画像を記録または送信する処理のみを実行するようにしてもよい。
【0104】
この場合、ステップA11で撮影画角内にユーザ43が収まっていないと判断されている間、カメラ部12による画像取得処理(ステップA10)を実行しないようにし、ステップA11で撮影画角内にユーザ43が収まっていると判断されている間のみ、ステップA10による画像取得処理を実行して、撮影画像の記録処理または送信処理を実行するようにしてもよい。
【0105】
また、上記実施の形態では、ステップA09で楕円部の表示位置を計算し、得られた表示位置情報に基づきユーザ43が撮影画角(表示範囲)内に収まっているか否かを判断するようにしたが、例えば、ユーザ43が撮影画角内に収まっている場合に、表示部11にユーザ43の位置がわかるような表示を行なわず、撮影画像の記録処理、または送信処理、または報知処理のみを実行するのであれば、ステップA09によるユーザ43の表示位置計算処理は行なわずに、ユーザ43の位置情報と、ユーザ42の位置情報、方位情報、角度情報、及び撮影画角情報とに基づきユーザ43が撮影画角内に収まっているか否かを判断するようにしてもよい。
【0106】
また、上記実施の形態では、ステップA09で楕円部の表示位置を計算し、得られた表示位置情報に基づきユーザ43が撮影画角(撮影範囲)内に収まっているか否かを判断するようにしたが、まず、ユーザ43の位置情報と、ユーザ42の位置情報、方位情報、角度情報、及び撮影画角情報とに基づきユーザ43が撮影画角内に収まっているか否かを判断し、ユーザ43が撮影画角内に収まっていると判断された場合のみステップA09による楕円部の表示位置の計算処理を実行するようにしてもよい。
【0107】
このように構成すれば、ユーザ43が撮影画角内に収まっていない時は楕円部の表示位置の計算処理を行なわなくて済むのでCDMA端末10の処理負担を軽減させることができる。
【0108】
また、上記実施の形態では、ユーザ42が所有するCDMA端末10においてのみ図4に示す処理を実行するものとして説明したが、ユーザ43が所有するCDMA端末10においても同様に図4に示す処理を実行するようにしてもよい。このように構成すれば、お互いが図6(1)〜図6(3)に示すような表示状態の表示部11を視認しながら相手を探索することになるのでより一層相手を見つけ出すことが容易になる。
【0109】
また、上記実施の形態では、ナビゲートサービスシステム(ナビゲートモード)を待ち合わせの相手を見つけ出す用途に使用するものとして説明したが、用途はこれに限定されず、家出人や迷子等の行方不明者、指名手配されている犯罪者を見つけ出すために本発明のナビゲートサービスシステムを使用するようにしてもよい。
【0110】
また、上記実施の形態では、自機、相手端末が共に移動可能な携帯端末機である場合について説明したが、自機のみを、ある場所に固定設置された監視カメラとしてもよい。この場合、自機の現在位置(カメラの向きが固定の場合は方位も)は変化しないので予め固定記憶されているものを使用して監視対象である相手の携帯端末機の画面上の表示位置を計算し、モニタールームのモニター上に図6(1)〜図6(3)に示すような表示を行なうことになる。
【0111】
また、上記実施の形態では、表示画像中におけるユーザ43の水平方向及び垂直方向に対する位置を算出して画像上に表示するようにしたが、実用上、垂直方向に対する位置を要求されるケースは少ないと思われるため、構成を簡略化するために、表示画像中におけるユーザ43の水平方向に対する位置のみを算出して画像上に表示するようにしてもよい。
【0112】
ただし、垂直方向に対する位置を考慮しない場合、カメラ部12の向きを水平に保たずに高さ方向に変化させてしまうと、写界が変化するにもかかわらず、ユーザ43の所在を示す表示の位置は全く変化しないという問題を生じてしまうことになる。
【0113】
また、上記実施の形態では、CDMA端末10自身が、GPS受信部29でGPS情報を受信し、受信したGPS情報に基づき現在位置を算出することにより自己位置の情報を取得するようにしたが、CDMA端末10がGPS受信部29で受信したGPS情報をサービスセンタ装置に送信し、サービスセンタ装置が受信したGPS情報に基づきCDMA端末10の現在位置を算出するようにしてもよい。
【0114】
具体的には、相手端末が内蔵のGPS受信部29で受信したGPS情報をサービスセンタ装置に送信すると、サービスセンタ装置は受信したGPS情報に基づき相手端末の自己位置を算出し、算出した位置情報を自機に送信する。
【0115】
また、自機は、内蔵のGPS受信部29で受信したGPS情報をサービスセンタ装置に送信すると、サービスセンタ装置が受信したGPS情報に基づき自機の自己位置を算出し、算出した位置情報を自機に返信する。
【0116】
そして、自機は、受信した相手端末の位置情報、受信した自機の位置情報、内蔵の方位センサ14で得た方位情報、及び内蔵の角度センサ15で得た角度情報に基づき撮影画角内における相手端末の位置を算出することになる。
【0117】
また、上記実施の形態では、CDMA端末10のGPS受信部29で受信したGPS情報に基づき算出された高度データを用いるようにしたが、CDMA端末10に気圧(高度)センサを設け、この気圧センサにより得られた高度データを用いるようにしてもよい。
【0118】
(第2の実施の形態)
以下本発明を、携帯電話機の一種である、GPS機能を搭載したCDMA方式の携帯端末機(以下「CDMA端末機」と称する)を用いるナビゲーションサービスシステムに適用した場合の第2の実施の形態について図面を参照して説明する。
【0119】
なお、ユーザが所持する折りたたみ式のCDMA端末機10を開いた状態での特徴的な概略構成については上記図1に、CDMA端末機10の回路構成については上記図2にそれぞれ示したものと基本的に同様であるものとして、同一部分には同一符号を付してその図示及び説明は省略するものとする。
【0120】
しかして、図7により、上記CDMA端末機10を除くシステム全体の構成を説明する。同図で、複数のCDMA基地局41,41,…が上記図3でも示した如くビルの屋上や鉄塔等に設置され、相互に接続されてCDMA通信網51を形成するものであり、このCDMA通信網51に対して、通信事業者が運営するサービスセンタ装置52が接続される。
【0121】
このサービスセンタ装置52は、施設名に対応した正確な位置情報を多数記憶した施設位置データベース(DB)53を有するもので、ここでは図示しないCDMA端末機10から施設名データが送られてくると、施設位置データベース53の記憶内容を参照して、一致した施設名データと対応して記憶されている位置情報をCDMA端末機10に返信する。
【0122】
次に上記実施の形態の動作について説明する。
図8は、CDMA端末機10上でユーザの操作に対応して実行される施設案内サービスの処理内容を示すもので、主として制御部30により制御される動作プログラムに基づいている。
【0123】
その当初には、ユーザ42がキー入力部31のモード選択キーの操作によりナビゲートモードを設定すると、表示部11に表示される入力画面の内容に従って、目標物となる施設の名称をキー入力部31を操作して入力する(ステップB01)。
【0124】
図9(1)は、このときCDMA端末機10の表示部11で表示される入力画面を例示するものであり、サービス名「施設案内サービス」と施設名の入力を促すガイドメッセージに続いて、実際に施設名を入力するための入力ウィンドウを表示している。
【0125】
しかして、施設名の入力の完了がキー入力部31の「通話」キーの操作により指示されると、サービスセンタ装置52への発呼処理を実行し、その入力された施設名データをサービスセンタ装置52に送信することによりナビゲートサービスを受けられるか否かを問い合わせる(ステップB02)。
【0126】
ここで、CDMA端末機10からの問い合わせを受けたサービスセンタ装置52は、施設位置データベース53の記憶内容を検索して、受信した施設名が登録されているか否かを判断し、登録されていると判断した場合は、その施設名と対応付けて施設位置データベース53に記憶されている位置情報をCDMA端末機10に返信する。
【0127】
CDMA端末機10は、サービスセンタ装置52から送信される位置情報を所定時間内に受信したか否かを判断することにより、問い合わせた施設名が登録されていたか否かを判断する(ステップB03)。
【0128】
ここで、該当する施設名が施設位置データベース53に登録されておらず、結果として対応する位置情報を得ることができないと判断した場合には、検索対象の施設に関する情報が施設位置データベース53に未登録である旨のエラーメッセージを表示部11で表示して(ステップB14)、以上でこの処理を終了する。
【0129】
なお、サービスセンタ装置52が、受信した施設名が施設位置データベース53に登録されていないと判断した場合に、エラーメッセージをCDMA端末機10に送信するようにして、CDMA端末機10は、受信したエラーメッセージを単に表示する構成にしてもよい。
【0130】
一方、上記ステップB03で位置情報を受信したと判断した場合には、直ちにその受信した位置(緯度・経度・高度)情報をRAMのワークエリアに記憶する(ステップB04)。
【0131】
次に自機内のGPS受信部29の起動状態を確保して自分が現在いる位置(緯度・経度・高度)の情報を取得しRAMのワークエリアに記憶し(ステップB05)、続けて磁気センサ14の起動状態を確保して、その時点でカメラ部12が向いている方位の情報を合わせて取得してRAMのワークエリアに記憶する(ステップB06)。
【0132】
さらに、角度センサ15の起動状態を確保して、その時点でカメラ部12が向いている高さ方向の角度(チルト角度)の情報を取得してRAMのワークエリアに記憶する(ステップB07)。
【0133】
こうして、RAMのワークエリアに記憶された、ステップB04で取得した施設の位置情報、その時点でCDMA端末機10のユーザがいる場所の位置情報及びその時点でカメラ部12が向いている方位情報及び角度情報により、カメラ部12で撮像する画像中で目標物の施設の所在を示す表示をすべき位置を計算する(ステップB08)。
【0134】
なお、この撮影画像に対する目標物の位置表示に関する計算に関しては、上記図5で示した内容と同等であるため、その詳細な説明については省略するものとする。
【0135】
このステップB08で楕円部の表示位置を算出した後、カメラ部12を構成する固体撮像素子35を駆動して画像信号を得、これを撮像部33でカラープロセス処理してデジタル値の画像信号を取得してRAMのワークエリアに記憶する(ステップB09)。
【0136】
こうして画像信号を得た後、併せて目標物の施設がカメラ部12で撮影している画角の範囲内にあり、表示部11の画面で表示することができるか否かを、画像の中心から施設の位置までの水平誤差角度αが半水平画角θを越えているか否か、または画像中心から施設の位置までの垂直誤差角度βが半垂直画角θ′を超えているか否かの演算により判断する(ステップB10)。
【0137】
なお、上記ずれた距離xr(または距離xd)が上記距離Wr(横幅Wd)の半分を超えているか否か、または上記ずれた距離xs(または距離xe)が上記距離Ws(縦幅We)の半分を超えているか否かの演算により画角内に目標施設の位置が収まっているか否かを判断するようにしてもよい。
【0138】
該演算の結果、目標物の施設の位置を表示部11の画面で表示することができると判断した場合には、図9(2)に示すように施設の位置を表す楕円EをステップB08で計算した表示位置に表示させると同時に、目標施設までの距離、及び目標施設の位置が画面を外れた場合にその方向を表す矢印を併せて撮影画像に重畳した状態で表示部11で表示させ(ステップB12)、次いでRAMのワークエリアに記憶されている現時点の撮影画像をメモリ32に保存記録した後(ステップB13)、上記ステップB05からの処理に戻って、同様の処理を繰返す。
【0139】
なお、上記ステップB13において、撮影画像を記録するのではなく、通信ネットワークを介して予め指定しておいた外部の画像記録装置に送信(転送)するようにしてもよい。
【0140】
上記図9(2)は、施設の位置が表示部11の画面内に収まっている状態を例示するものであり、施設の位置を表す楕円Eと、施設までの距離「250M」、及び施設が画面に収まっているためにあえて特別な点滅や彩色等を行わない上下左右4つの矢印とをカメラ部12で撮影した画像に重畳して表示している状態を示している。
【0141】
また、上記ステップB08での演算の結果、施設の位置が表示部11の画面から外れていて表示することができないと判断した場合には、施設までの距離、及び施設の位置が画面を外れている方向を表す矢印を併せて撮影画像に重畳した状態で表示部11で表示させ(ステップB11)、次いで上記ステップB05からの処理に戻って、同様の処理を繰返す。
【0142】
すなわち、施設の位置が表示部11の画面から外れている場合には、上記施設の位置を表す楕円Eを表示しない代わりに、施設までの距離と、特に施設の位置している方向の矢印のみを特別な点滅や彩色等の処理を施した上下左右4つの矢印とをカメラ部12で撮影した画像に重畳して表示するものとする。
【0143】
このように、ステップB05からの処理を繰返し実行することにより、カメラ部12で撮影した画像の範囲内に目標物の施設が位置していればその位置に楕円Eが重ねて表示され、また外れていれば該楕円Eが表示されずにその外れている方向の矢印のみが例えば点滅するなどして表示されるようになるので、施設の所在位置をより視覚的な手段でリアルタイムに撮影画像から判断することができ、全く土地勘のない場所であっても目標物としての施設に容易に見つけ出すことができるようになる。
【0144】
なお、上記第1及び第2の実施の形態では、撮影画像中の目標物の位置のみならず、目標物への距離と方位及び角度を示す情報を併せて表示するようにしたため、CDMA端末機10のユーザにより多くの指標を与えて、効率的に目標物を見つけ出させることができる。
【0145】
また、上記第2の実施の形態では、施設名に対応した位置情報を複数記憶した施設位置データベース53をサービスセンタ装置52が有するものとし、CDMA端末機10からその都度施設名を入力することで、CDMA通信網51を介してサービスセンタ装置52が対応する位置情報を施設位置データベース53から検索して送信するものとして説明したが、本発明はこれに限ることなく、記憶容量は限られるものの、CDMA端末機10内のメモリ32に施設名とそれに対応する位置情報とを複数予め記憶しておき、必要に応じてCDMA端末機10内部の処理により施設案内サービス動作を行なうものとしても良い。
【0146】
その場合、すべてCDMA端末機10内部の処理により該動作を実行できるため、サービスセンタ装置52側が施設位置データベース53等のシステム構築を行なう必要がなく、通信事業者側の負担を軽くすることができる一方で、データ通信料金が発生しないためにCDMA端末機10のユーザの負担も軽くすることができる。
【0147】
この場合、CDMA端末機10内のメモリ32の容量に応じて、位置情報を検索することのできる施設名に制限があることとなるが、このメモリ32をCDMA端末機10に対して着脱自在に設けるメモリカード等の媒体とすれば、例えば地域や対象となる施設の内容に対応して媒体を選択して着脱することにより、該媒体個々の容量に制限がある場合でも、より詳細なナビゲート動作を実現できる。
【0148】
また、上記第2の実施の形態では、サービスセンタ装置52から目標施設の位置情報を取得するようにしたが、他の携帯端末やパソコン等から通信ネットワークを介して、あるいは通信ネットワークを介さずに直接、目標施設の位置情報を取得するようにしたり、目標施設の位置(緯度・経度・高度)をキー入力部31を操作して直接入力するようにしてもよい。
【0149】
また、上記第2の実施の形態では、ステップB08で計算された画面内の表示位置(すなわち、表示画像中の目標物の表示位置)に目標施設の位置を表す楕円Eを重畳表示させるようにしたが、目標施設の位置を表す表示は楕円に限定されず、また画像表示エリア外に目標施設の位置を示す表示を行なうようにしてもよく、目標施設の位置がわかるような表示方法であればよい。
【0150】
さらに、表示画像中における目標施設の位置がわかるような表示を行なわずに、撮影画角内に目標施設が収まっているか否かを判断し、収まっていると判断した場合、単に目標施設が画角内に収まっている旨を知らせる音響報知、または振動報知、または視覚報知のみを行なう構成にしてもよい。
【0151】
また、上記第2の実施の形態では、ステップB10で撮影画角内に目標施設が収まっていないと判断されている間、ステップB11による表示処理を実行するようにしたが、カメラ部12による画像取得処理(ステップB09)あるいは表示部11による画像表示処理(ステップB11)を実行しないようにしてもよい。
【0152】
また、上記第2の実施の形態では、ステップB13で撮影画像を保存記録するようにしたが、保存記録せずにステップB12による表示処理のみを実行するようにしてもよい。
【0153】
また、上記第2の実施の形態では、ステップB12で撮影画像の表示処理を実行するようにしたが、撮影画像の表示処理を行なわずにステップB13による撮影画像の記録処理または送信処理(報知処理でもよい)のみを実行するようにしてもよい。つまり、撮影画角内に目標施設が収まっていると判断した場合に、撮影画像を記録または送信する処理のみを実行するようにしてもよい。
【0154】
この場合、ステップB10で撮影画角内に目標施設が収まっていないと判断されている間、カメラ部12による画像取得処理(ステップB09)を実行しないようにし、ステップB10で撮影画角内に目標施設が収まっていると判断されている間のみ、ステップB09による画像取得処理を実行して、撮影画像の記録処理または送信処理を実行するようにしてもよい。
【0155】
また、上記第2の実施の形態では、ステップB08で楕円部の表示位置を計算し、得られた表示位置情報に基づき目標施設が撮影画角内に収まっているか否かを判断するようにしたが、例えば、目標施設が撮影画角内に収まっている場合に、表示部11に目標施設の位置がわかるような表示を行なわず、撮影画像の記録処理、または送信処理、または報知処理のみを実行するのであれば、ステップB08による目標施設の表示位置計算処理は行なわずに、目標施設の位置情報と、CDMA端末10の位置情報、方位情報、角度情報、及び撮影画角情報とに基づき目標施設が撮影画角内に収まっているか否かを判断するようにしてもよい。
【0156】
また、上記第2の実施の形態では、ステップB08で楕円部の表示位置を計算し、得られた表示位置情報に基づき目標施設が撮影画角(撮影範囲)内に収まっているか否かを判断するようにしたが、まず、目標施設の位置情報と、CDMA端末10の位置情報、方位情報、角度情報、及び撮影画角情報とに基づき目標施設が撮影画角内に収まっているか否かを判断し、目標施設が撮影画角内に収まっていると判断された場合のみステップB08による楕円部の表示位置の計算処理を実行するようにしてもよい。
【0157】
このように構成すれば、目標施設が撮影画角内に収まっていない時は楕円部の表示位置の計算処理を行なわなくて済むのでCDMA端末10の処理負担を軽減させることができる。
【0158】
また、上記第2の実施の形態では、表示画像中における目標施設の水平方向及び垂直方向に対する位置を算出して画像上に表示するようにしたが、実用上、垂直方向に対する位置を要求されるケースは少ないと思われるため、構成を簡略化するために、表示画像中における目標施設の水平方向に対する位置のみを算出して画像上に表示するようにしてもよい。
【0159】
ただし、垂直方向に対する位置を考慮しない場合、カメラ部12の向きを水平に保たずに高さ方向に変化させてしまうと、写界が変化するにもかかわらず、目標施設の所在を示す表示の位置は全く変化しないので、例えば高層ビルの23階にある店や会社が目標施設である場合に問題を生じてしまうことになる。
【0160】
また、上記第2の実施の形態では、CDMA端末10自身が、GPS受信部29でGPS情報を受信し、受信したGPS情報に基づき現在位置を算出することにより自己位置の情報を取得するようにしたが、CDMA端末10がGPS受信部29で受信したGPS情報をサービスセンタ装置52に送信し、サービスセンタ装置52が受信したGPS情報に基づきCDMA端末10の現在位置を算出してCDMA端末10に返信することにより自己位置の情報を取得するようにしてもよい。
【0161】
また、上記第2の実施の形態では、CDMA端末10のGPS受信部29で受信したGPS情報に基づき算出された高度データを用いるようにしたが、CDMA端末10に気圧(高度)センサを設け、この気圧センサにより得られた高度データを用いるようにしてもよい。
【0162】
(第3の実施の形態)
以下本発明を、携帯電話機の一種である、GPS機能を搭載したCDMA方式の携帯端末機(以下「CDMA端末機」と称する)を用いるナビゲーションサービスシステムに適用した場合の第3の実施の形態について図面を参照して説明する。
【0163】
なお、本実施例は、上記第2の実施の形態と同様の目標施設の位置を画面上に表示させるナビゲートサービスにおいて、表示位置計算をCDMA端末機10ではなくサービスセンタ装置52で行なうようにしたものであり、それ以外の構成については上記第2の実施の形態で説明したことと同様のことがこの第3の実施の形態にも当てはまる。
【0164】
また、ユーザが所持する折りたたみ式のCDMA端末機10を開いた状態での特徴的な概略構成については上記図1に、CDMA端末機10の回路構成については上記図2に、システム全体の構成については上記図7にそれぞれ示したものと基本的に同様であるものとして、同一部分には同一符号を付してその図示及び説明は省略するものとする。
【0165】
図10は、図7に示したサービスセンタ装置(目標位置探索装置)52の具体的な構成を示したものである。
【0166】
通信部55は、CDMA基地局41及びCDMA通信網51を介して、CDMA端末機10との間で情報の授受を行なう。
【0167】
制御部54は、CPUで構成され、後述するメモリ56に記憶される所定の動作プログラムに基づいてこのサービスセンタ装置全体を制御する。
【0168】
メモリ56は、通信時の制御や通信データの送受信制御、後述する表示位置計算プログラムその他、サービスセンタ装置52を動作させるための各種制御を含む制御部54での動作プログラム等を固定的に記憶している。なお、メモリ56の一部はワークメモリ領域として割り当てられている。
【0169】
次に上記実施の形態の動作について説明する。
図11は、CDMA端末機(目標位置探索装置)10上でユーザの操作に対応して実行される施設案内サービスの処理内容を示すもので、主として制御部30により制御される動作プログラムに基づいている。
【0170】
その当初には、ユーザ42がキー入力部31のモード選択キーの操作によりナビゲートモードを設定すると、表示部11に表示される入力画面(図9(1))の内容に従って、目標物となる施設の名称をキー入力部31を操作して入力する(ステップC01)。
【0171】
ここで、施設名の入力の完了がキー入力部31の「通話」キーの操作により指示されると、サービスセンタ装置52への発呼処理を実行し、その入力された施設名データをサービスセンタ装置52に送信することによりナビゲートサービスを受けられるか否かを問い合わせる(ステップC02)。
【0172】
続いて、この問い合わせにより、ナビゲートサービスを利用できる旨の情報、すなわちGPS情報、方位情報及び角度情報の送信を要求する送信要求コマンドを受信したか否か(ステップC03)、ナビゲートサービスを利用できない旨の情報(エラーメッセージを含む)を受信したか否か(ステップC04)を判断する。
【0173】
ステップC04でエラーメッセージを受信したと判断した場合は、受信した、検索対象の施設に関する情報が施設位置データベース53に未登録である旨のエラーメッセージを表示部11で表示した後(ステップC05)、サービスセンタ装置52との間の通信回線を切断して(ステップC06)、以上でこの処理を終了する。
【0174】
一方、上記ステップC03で送信要求コマンドを受信したと判断した場合には、カメラ部12を構成する固体撮像素子35を駆動して画像信号を得、これを撮像部33でカラープロセス処理してデジタル値の画像信号を取得してメモリ56のワークメモリ領域に記憶する(ステップC07)。
【0175】
このステップC07で画像信号を得るのと同時に、自機内のGPS受信部29、磁気センサ14、及び角度センサ15により自機のGPS情報、方位情報、及び角度情報を取得し、これらの自機情報をサービスセンタ装置52に送信する(ステップC08)。
【0176】
続いて、このステップC05による自機情報の送信に応答して、この自機情報と目標施設の位置情報とに基づきサービスセンタ装置52により計算された、撮影画像上における目標施設の位置を示す表示位置情報(具体的には、撮影画像の中心から目標施設までの距離情報xd、xe)と自機から目標施設までの距離情報を受信したか否かを判断する(ステップC09)。
【0177】
ここで表示位置情報を受信したと判断した場合は、目標物の施設がカメラ部12で撮影している画角の範囲内にあり、表示部11の画面で表示することができるか否かを、上記受信した距離情報xdが表示画面の横幅Wdの半分を超えているか否か、または上記受信した距離xeが表示画面の縦幅Weの半分を超えているか否かの演算により画角内に目標施設の位置が収まっているか否かを判断する(ステップC10)。
【0178】
ここで、目標物の施設の位置を表示部11の画面で表示することができると判断した場合には、上記図9(2)に示したように施設の位置を表す楕円EをステップC09で受信した距離情報xd、xeに基づく表示位置に表示させると同時に、受信した目標施設までの距離情報、及び目標施設の位置が画面を外れた場合にその方向を表す矢印を併せて、ステップC07で取得した撮影画像に重畳した状態で表示部11で表示させ(ステップC11)、次いでメモリ56のワークメモリ領域に記憶されている現時点の撮影画像をメモリ56の保存記録領域に保存記録した後(ステップC12)、上記ステップC07からの処理に戻って、同様の処理を繰返す。
【0179】
なお、上記ステップC12において、撮影画像を記録するのではなく、通信ネットワークを介して予め指定しておいた外部の画像記録装置に送信(転送)するようにしてもよい。
【0180】
また、上記ステップC10で、施設の位置が表示部11の画面から外れていて表示することができないと判断した場合には、受信した施設までの距離情報、及び施設の位置が画面を外れている方向を表す矢印の差別表示を併せて撮影画像に重畳した状態で表示部11で表示させ(ステップC13)、次いで上記ステップC07からの処理に戻って、同様の処理を繰返す。
【0181】
なお、ステップC07〜C13の処理を繰返し実行している最中において、ステップC14でキー入力部31の「切」キーの操作が検出された場合は、サービスセンタ装置52との間の通信回線を切断して(ステップC06)、以上でこの処理を終了する。
【0182】
図12は、サービスセンタ装置52上で実行される施設案内サービスの処理内容を示すもので、主として制御部54により制御される動作プログラムに基づいている。
【0183】
その当初には、通信部55で、CDMA端末機10からのナビゲートサービスの問い合わせのための着信があり、施設名データを受信したか否かを判断する(ステップC21)。
【0184】
ここで、施設名データを受信したと判断すると、受信したし施設名データに基づき、施設位置データベース53の記憶内容を検索して(ステップC22)、受信した施設名が登録されているか否かを判断し(ステップC23)、登録されていると判断した場合は、その施設名と対応付けて施設位置データベース53に記憶されている位置情報を施設位置データベース53から取得してメモリ56の沸くメモリ領域に記憶する(ステップC24)。
【0185】
続いて、目標施設の表示位置を計算するために必要となる、GPS情報、方位情報、及び角度情報の送信を要求するコマンドを通信部55からCDMA端末機10に対して送信する(ステップC25)。
【0186】
なお、上記ステップC23で、受信した施設名が登録されていないと判断した場合は、検索対象の施設に関する情報が施設位置データベース53に未登録であり、ナビゲートサービスを利用できない旨の情報(エラーメッセージを含む)をCDMA端末10に送信した後(ステップC31)、CDMA端末10との間の通信回線を切断して(ステップC32)、以上でこの処理を終了する。
【0187】
しかして、ステップC26で、ステップC25での送信要求に応答してCDMA端末10から送信されたGPS情報、方位情報、及び角度情報を受信したか否かを判断する。
【0188】
ここで、GPS情報、方位情報、及び角度情報を受信すると、これらの情報を一旦メモリ56のワークメモリ領域に記憶した後、GPS情報に基づきCDMA端末10の現在位置(緯度・経度・高度)を計算し、得られた位置情報をメモリ56のワークメモリ領域に記憶する(ステップC27)。
【0189】
続いて、メモリ56のワークメモリ領域に記憶されている、目標施設の位置情報、CDMA端末10の位置情報、方位情報、及び角度情報により、CDMA端末10のカメラ部12で撮像する画像中で目標物の施設の所在を示す表示をすべき位置を計算する(ステップC28)。
【0190】
なお、この撮影画像に対する目標物の位置表示に関する計算に関しては、上記図5で示した内容と同等であるため、その詳細な説明については省略するものとする。
【0191】
ただし、CDMA端末10の固体撮像素子35(光学レンズ系34)の水平画角2θ及び垂直画角2θ′と、表示部11の画面の横幅Wd及び縦幅Weは、全てのCDMA端末10において共通とし、メモリ56の所定エリアに予め記憶しておくものとする。
【0192】
なお、カメラ付きCDMA端末10の種類により画角や画面サイズが異なる場合は、表示位置を計算する前にCDMA端末10から画角情報や画面サイズ情報を送ってもらう必要がある。
【0193】
さらに、ズームカメラ付きCDMA端末10の場合は、ユーザによりズーム量が変化される毎にCDMA端末10から画角情報を送ってもらう必要がある。
【0194】
このステップC28で楕円部の表示位置(画面中心からの水平距離xd、垂直距離xe)を算出した後、算出した表示位置情報を及び距離情報を通信部55によりCDMA端末10へ送信する(ステップC29)。
【0195】
そして、CDMA端末10のキー入力部31の「切」キーが操作されることによりCDMA端末10との通信回線が切断されたか否かを確認して(ステップC30)、回線が切断されなければ、上記ステップC26からの処理に戻って、以下、通信回線が切断されるまでステップC26〜C30の処理を繰返す。
【0196】
このように、表示位置計算をCDMA端末機10ではなくサービスセンタ装置52で行なうようにしたため、CDMA端末機10の処理負担を軽減させることができ、計算処理能力の高いCPUをCDMA端末機10に搭載する必要が無くなるので、ナビゲートサービスを実現するためのコストを大幅に軽減させることができる。
【0197】
なお、上記第3の実施の形態では、CDMA端末機10のGPS受信部29で受信したGPS情報をサービスセンタ装置52に送信し、サービスセンタ装置52が受信したGPS情報に基づき位置を計算するように構成したが、CDMA端末機10がGPS受信部29で受信したGPS情報に基づき位置を計算し、得られた位置情報をサービスセンタ装置52に送信するようにしてもよい。
【0198】
また、上記第3の実施の形態では、CDMA端末機10は、サービスセンタ装置52が送信した表示位置情報を受信し、この表示位置情報に基づいて図11のステップC10〜C13の処理を実行するようにしたが、ステップC10の判断をサービスセンタ装置52側で行い、この判別結果に基づき、必要に応じて、任意の矢印を点滅させるためのコマンド、画像の記録または送信を指示するためのコマンド、楕円の表示を指示するためのコマンド、報知を指示するためのコマンド等をCDMA端末機10に対して送信し、CDMA端末機10は単に受信したコマンドに応じた処理を実行するようにしてもよい。
【0199】
さらに、上記ステップC10の判断をサービスセンタ装置52側で行なうようにした場合、この判別結果に基づき、図6(1)〜図6(3)に示した表示から撮影画像を除いた状態の画像、つまり矢印、距離、楕円のみから成る画像を作成し、作成した画像をCDMA端末機10に対して送信し、CDMA端末機10は単に撮影画像上に受信した画像を重畳表示させる処理を実行するようにしてもよい。
【0200】
さらに、上記ステップC10の判断をサービスセンタ装置52側で行なうようにした場合、判別結果をCDMA端末機10に対して送信し、CDMA端末機10は受信した判別結果に応じて図11のステップC11〜C13の処理を実行するようにしてもよい。
【0201】
さらに、上記ステップC10の判断をサービスセンタ装置52側で行なうようにした場合、例えば、目標施設が撮影画角内に収まっている時に、表示部11に目標施設の位置がわかるような表示を行なわず、撮影画像の記録処理、または送信処理、または報知処理のみを実行するのであれば、ステップC28による目標施設の表示位置計算処理は行なわずに、目標施設の位置情報と、CDMA端末10の位置情報、方位情報、角度情報、及び撮影画角情報とに基づき目標施設が撮影画角内に収まっているか否かを判断するようにしてもよい。
【0202】
また、上記第3の実施の形態では、上記第2の実施の形態と同様の目標施設の位置を画面上に表示させるナビゲートサービスにおいて、表示位置計算をCDMA端末機10ではなくサービスセンタ装置52で行なうようにした場合について説明したが、上記第1の実施の形態と同様のユーザ43の位置を画面上に表示させるナビゲートサービスにおいて、表示位置計算をCDMA端末機10ではなくサービスセンタ装置52で行なうようにしてもよい。
【0203】
すなわち、サービスセンタ装置52は、ユーザ43の所持するCDMA端末機10から送信されてくる位置情報(またはGPS情報)と、ユーザ42の所持するCDMA端末機10から送信されてくる、位置情報(またはGPS情報)、方位情報及び角度情報とを逐次受信し、これらの受信情報に基づいて表示画面上におけるユーザ43の位置を逐次計算し、得られた表示位置情報をユーザ42の所持するCDMA端末機10に逐次送信するようにしてもよい。
【0204】
(第4の実施の形態)
以下本発明を、携帯電話機の一種である、PHS(Personal Handyphone System:第2世代コードレス電話システム)に対応した携帯端末機(以下「PHS端末機」と称する)を用いるナビゲーションサービスシステムに適用した場合の第4の実施の形態について図面を参照して説明する。
【0205】
なお、PHSでは、個々の基地局(CS)の担当するエリアが最小半径で約100[m]程度と非常に小さいミクロセルシステムを採用しており、それによりPHS端末機が最寄りの基地局に位置登録することで、センタ側がそのPHS端末機の所在位置を、位置登録している基地局の識別コードにより認識できるようになっている。
【0206】
本実施の形態では、PHS端末機の機能構成については上記図1に示したCDMA端末機10とほぼ同様であるものとし、同一部分には同一符号を付してその図示及び説明は省略する。
【0207】
また、回路構成についても、PHS方式とCDMA方式の違いにより通信系の回路が異なるが、その他は上記図2で示したものと同様であるものとし、同一部分には同一符号を付してその図示及び説明は省略する。
【0208】
以下本実施の形態の動作について説明する。
図14は、本システムの運用環境を例示するものであり、ビルの屋上や電話ボックス等に設置されたPHS基地局61,61,…による小規模な各通信エリア62,62,…が密に隣接するミクロセルシステムにおいて、共にPHS端末機を所持している友人関係にある二人のユーザ63,64がここでは図示しないPHS通信網及びこのPHS通信網を統括管理する通信事業者が運営するサービスセンタ装置と接続されており、ユーザ64がユーザ63の方向に移動している途中にあって、ユーザ63からユーザ64を発呼した上で、ユーザ64の所在位置をPHS端末機により探索するものとする。
【0209】
図13は、このとき発呼する側であるユーザ63の所持するPHS端末機と、その時点でユーザ63の所持するPHS端末機が位置登録しているPHS基地局61との間で実行される位置探索サービスの処理内容を示すものである。
【0210】
PHS端末機では、所定の位置探索モードを指定操作し、表示部11で表示される画面の内容に従って、対象となる発呼先のユーザ64のPHS端末機の電話番号を入力し(ステップA21)、最寄の位置登録しているPHS基地局61に対して発呼を行なう(ステップA22)。
【0211】
その後、当該PHS基地局61から発呼先の端末機の位置登録を検出したとの報告が来るのを待機する(ステップA23)。
【0212】
PHS基地局61では、位置登録しているPHS端末機からの位置探索サービスの通知を待機しており(ステップD01)、通知があったと判断した時点で、その通知により位置探索をすべき発呼先のユーザ64のPHSの電話番号を登録する(ステップD02)。
【0213】
その後、その登録した電話番号のPHS端末機がその時点で自局の担当する通信エリア62内にあって既に位置登録されているか否かにより、該PHS端末機を検出することができるかどうかを判断し(ステップD03)、まだ位置登録されていないと判断した際には、新規にPHS端末機の位置登録があるのを待機する(ステップD05)。
【0214】
しかして、このステップD05で新規のPHS端末機の位置登録があったと判断すると、次いで上記ステップD03に戻って、そのPHS端末機が上記登録した電話番号であるか否かを判断する。
【0215】
こうして新規に位置登録するPHS端末機がある毎に、そのPHS端末機がユーザ64の所持するものであるか否かを判断する、という処理を繰返すことにより、ユーザ63とユーザ64が共に同じPHS基地局61の通信エリア62内に存在するのを待機する。
【0216】
そして、ユーザ64が移動によりユーザ63と同じ通信エリア62に入った時点で、上記ステップD03により対象の電話番号を検出したと判断され、検出報告をユーザ63の所持するPHS端末機へ送信し(ステップD04)、以後新たな同サービスの利用に備えて再び上記ステップD01からの待機処理に戻る。
【0217】
PHS基地局61からの検出報告を受信したユーザ63のPHS端末機は、ステップA23でこれを判断した後に、上記図4のステップA04以下と同様の処理を実行して、ユーザ64の所持するPHS端末機の所在を自機の表示部11にカメラ部12で得た撮影画像に重ねて表示する。
【0218】
このように、ユーザ63とユーザ64が同じ通信エリア62にあると判断するまでは位置探索のための表示を開始しないように制御するため、発呼先のユーザ64がある程度視認できる程度に位置するまでは位置探索動作を開始しない。
【0219】
したがって、PHS端末機においては、無駄な電力消費を抑え、且つ通話料金を低く抑えて経済的に位置探索サービスを利用できる一方、基地局やシステムの側においても、通信トラフィックを減少させることができる。
【0220】
なお、上記第4の実施の形態においては、上記第1の実施の形態と同様のユーザ43の位置を画面上に表示させるナビゲートサービスに本発明を適用した場合について説明したが、上記第2及び第3の実施の形態と同様の目標施設の位置を画面上に表示させるナビゲートサービスに本発明を適用してもよい。
【0221】
また、上記第4の実施の形態においては、ユーザ63とユーザ64が同じ通信エリア62内にいるか否かによりユーザ63とユーザ64が接近しているか否かを判断するようにしたが、ユーザ63の位置情報とユーザ64(目標施設でもよい)の位置情報とからユーザ63とユーザ64との間の距離を算出し、得られた距離が所定距離以上であるか否かを判断することによりユーザ63とユーザ64が接近しているか否かを判断するようにしてもよい。
【0222】
また、上記第4の実施の形態においては、PHS端末機にGPSユニット13による測位手段を有しているものとして説明したが、あえてGPSユニット13のような測位手段を有さず、相手の位置を撮影画像中に重ねて表示するような処理を行わないものとしても、発呼先のPHS端末機が同じ通信エリア62に入ったタイミングを知ることはできるので、発呼先が近くに存在することは認識することができる。
【0223】
その他、本発明は上記実施の形態に限らず、その要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。
【0224】
さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
【0225】
【発明の効果】
請求項1記載の発明によれば、カメラで撮像した画像中の目標物の位置を表わす情報を表示するため、どの方向のどの位置に目標物があるのかを容易に理解することができ、目標とする位置まで容易にナビゲートすることが可能となる。また、当該装置で実際に得た撮影画像中に目標物の位置を表す情報を表示するため、装置単体でより視覚的に目標物の位置を指し示すことができる。また、目標物がカメラの撮影画角に入っていない場合であってもその指標を表示することで、速やかに目標物のある方向に撮影画角を移動させることができる。
【0226】
請求項2記載の発明によれば、上記請求項1記載の発明の効果に加えて、目標物の左右方位のみならず上下の角度位置も算出して出力するため、撮影画像中の目標物の位置をより正確に指し示すことができる。
【0230】
請求項10記載の発明によれば、更に、目標物が移動する外部機器であってもその位置情報に基づいて正確にその目標物の位置までナビゲートすることが可能となる。
【0231】
請求項11記載の発明によれば、更に、例えば予め記憶されている複数の目標物の位置から1つを選択して指定することにより、直ちにその目標物の位置までナビゲートすることが可能となる。
【0232】
請求項12記載の発明によれば、更に、外部のデータベースに記憶されている目標物の位置情報を指定することによりナビゲート動作に移行することができ、当該装置で目標物の位置情報を記憶しておく必要がないため、装置側の負担を軽減できると共に、より詳細な目標物に関するデータベースを外部に構築することで、多様な目標物に対応できるようになる。
【0233】
請求項3記載の発明によれば、カメラで撮像した画像中の目標物の位置を表わす情報を表示するため、どの方向のどの位置に目標物があるのかを容易に理解することができ、目標とする位置まで容易にナビゲートすることが可能となる。また、目標物とカメラが接近状態にあり、カメラで撮影する画像中に目標物が位置すると判断した場合にのみ位置の算出処理に移行するため、容量に制限のある電源を有効に活用し、無駄な電力消費を回避できる。
【0235】
請求項4記載の発明によれば、カメラの撮影画角内に目標物が入るまでは所定の処理の実行を待機し、目標物が撮影画角に入った時点でこれを判断して、速やかに所定の処理の実行に移行することができるので、必要時以外の処理の実行にかかる無駄な電力の消費等を避けながら、確実に目標物の撮影画像に対する処理を実行することができる。
【0236】
請求項5記載の発明によれば、上記請求項4記載の発明の効果に加えて、カメラの撮影画角内に目標物が入った時点で速やかに報知することができ、常時カメラの撮影画像を監視していなくても目標物を発見することができる。
【0237】
請求項6記載の発明によれば、上記請求項4記載の発明の効果に加えて、カメラの撮影画角内に目標物が入った時点で速やかにその撮影画像の記録に移行することができ、目標物がカメラの撮影画角に入っていない状態では記録を行なわないので、媒体を無駄に消費することなく目標物を記録することができる。
【0238】
請求項7記載の発明によれば、上記請求項4記載の発明の効果に加えて、カメラの撮影画角内に目標物が入った時点で速やかにその撮影画像の外部送信に移行することができ、目標物がカメラの撮影画角に入っていない状態では送信を行なわないので、無駄に電力を消費することなく目標物の撮影画像を送信することができる。
【0239】
請求項8記載の発明によれば、上記請求項4記載の発明の効果に加えて、カメラを備える外部機器に対して目標物がその撮影画角に入った時点でその旨を示す情報を送信するようになるため、当該外部機器で目標物が撮影画角に入るまでの外部機器での負担を軽減させることができる。
【0240】
請求項9記載の発明によれば、撮影画角内に目標物が入るまでは所定の処理の実行を待機し、目標物が撮影画角に入った時点でその旨の情報を受信することにより速やかに所定の処理の実行に移行することができるので、目標物が撮影画角に入ることの判断と必要時以外の所定の処理の実行にかかる無駄な電力の消費等を避け、負担を充分軽減しながら、確実に目標物の撮影画像に対する処理を実行することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る携帯端末機の特徴的な概略構成のみを抜出して示す斜視図。
【図2】同実施の形態に係る携帯端末機の回路構成を示すブロック図。
【図3】同実施の形態に係るシステム全体の運用環境を例示する図。
【図4】同実施の形態に係る携帯端末機での動作処理内容を示すフローチャート。
【図5】同実施の形態に係る表示画像上における目標物の位置を特定する方法を説明するための図。
【図6】同実施の形態に係る表示画像上における目標物の位置を案内する方法を例示する図。
【図7】本発明の第2の実施の形態に係るシステム全体の概略構成を示す図。
【図8】同実施の形態に係る携帯端末機での動作処理内容を示すフローチャート。
【図9】同実施の形態に係る携帯端末機での表示例を示す図。
【図10】本発明の第3の実施の形態に係るサービスセンタ装置の回路構成を示すブロック図。
【図11】同実施の形態に係る携帯端末機での動作処理内容を示すフローチャート。
【図12】同実施の形態に係るサービスセンタ装置での動作処理内容を示すフローチャート。
【図13】本発明の第4の実施の形態に係る携帯端末機と最寄の基地局での動作処理内容を示すフローチャート。
【図14】同実施の形態に係る動作の概略イメージを例示する図。
【符号の説明】
10…CDMA端末機
10a…ボディ上部
10b…ボディ下部
11…表示部
12…カメラ部
13…GPSユニット
14…磁気センサ
15…角度センサ
21…(CDMA用)アンテナ
22…RF部
23…変復調部
24…CDMA部
25…音声処理部
26…スピーカ(SP)
27…マイクロホン(MIC)
28…(GPS用)アンテナ
29…GPS受信部
30…制御部
31…キー入力部
32…メモリ
33…撮像部
34…光学レンズ系
35…固体撮像素子
41…CDMA基地局
42,43…ユーザ
44…GPS衛星
51…CDMA通信網
52…サービスセンタ装置
53…施設位置データベース
61…PHS基地局
62…通信エリア
63,64…ユーザ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a target position search apparatus, a target position search method, and a program suitable for use in, for example, a mobile phone system.
[0002]
[Prior art]
Conventionally, when finding a meeting partner, for example, using a mobile phone, it is possible to tell the target while talking, or tell the name of the meeting place or the name of the facility and look at the map book. It is done.
[0003]
[Problems to be solved by the invention]
However, it is often impossible to find an opponent if the intent is not communicated to the other party, the meeting partner is an unacquainted person, or the map book is unfamiliar.
[0004]
In particular, when meeting in a crowd, it becomes even more difficult to find an opponent.
[0005]
In addition, if the target is a facility such as a company or a store rather than a person carrying a mobile phone, it may be possible to use a navigation system or map book installed in the car to find the target facility. It is done.
[0006]
However, in this case as well, if the signboard of the target facility is inconspicuous or the user is unfamiliar with looking at the map, it is difficult to find the target facility.
[0007]
The present invention has been made in view of the above circumstances, and its object is to easily navigate to a target position using a device that can be easily held on a daily basis, such as a mobile phone. It is an object of the present invention to provide a target position search apparatus, a target position search method, and a program that can be used.
[0008]
[Means for Solving the Problems]
  According to the first aspect of the present invention, there is provided information acquisition means for acquiring position information of a target, and shooting position information, shooting direction information, and shooting angle of view of the camera, and information on the target obtained by the information acquisition means. Calculation means for calculating the position of the target on the photographed image obtained by the camera on the basis of the position information and the photographing position information, photographing orientation information, and photographing angle of view information of the camera; Information indicating the position of the target in the captured imageDisplay means to displayWhen,Determining means for determining whether or not the target is within the shooting angle of view of the camera, and the display means is configured to determine whether or not the target is within the shooting angle of view of the camera. If it is determined that there is not, information indicating the direction of the target is displayed.It is characterized by that.
[0009]
According to a second aspect of the present invention, in the first aspect of the invention, the information acquisition unit further acquires shooting angle information of the camera, and the calculation unit calculates the target obtained by the information acquisition unit. Calculating the position of the target in the photographed image on the photographed image obtained by the camera based on the position information, the photographing position information of the camera, the photographing orientation information, the photographing field angle information, and the photographing angle information. And
[0016]
  According to a third aspect of the present invention, information acquisition means for acquiring position information of a target, shooting position information, shooting direction information, and shooting angle of view of the camera, and the target and the camera are in an approaching state. The position information of the target obtained by the information acquisition means, the shooting position information, and the shooting direction information of the camera when the determination means determines that the vehicle is in the approaching state. And calculation means for calculating the position of the target on the captured image obtained by the camera based on the shooting angle of view information, and information indicating the position of the target in the captured image calculated by the calculation means Output means for outputting.
[0018]
  Claim 4The described invention includes position information of a target, information acquisition means for acquiring shooting position information, shooting direction information, and shooting angle of view information of the camera, and position information of the target obtained by the information acquisition means. Determining means for determining whether or not the target is within the shooting angle of view of the camera based on the shooting position information, shooting direction information and shooting angle of view information of the camera; And control means for executing a predetermined process according to the result.
[0019]
  Claim 5The invention described is the aboveClaim 4In the described invention, the control unit performs a notification process when the determination unit determines that the target is within the shooting angle of view of the camera.
[0020]
  Claim 6The invention described is the aboveClaim 4In the described invention, the control means executes a recording process of a photographed image obtained by the camera when the judgment means judges that the target is within the photographing field angle of the camera. Features.
[0021]
  Claim 7The invention described is the aboveClaim 4In the described invention, the control means executes external transmission processing of a photographed image obtained by the camera when the judgment means judges that the target is within the photographing field angle of the camera. It is characterized by.
[0022]
  Claim 8The invention described is the aboveClaim 4In the described invention, the control unit transmits and outputs information corresponding to a determination result by the determination unit to an external device including the camera.
[0023]
  Claim 9The described invention includes an imaging unit that acquires a captured image, a display unit that displays a captured image acquired by the imaging unit, an information acquisition unit that acquires shooting position information and shooting direction information of the imaging unit, Transmission means for transmitting the shooting position information and shooting direction information acquired by the information acquisition means to the external device, shooting position information and shooting direction information transmitted by the external device by the transmission means, and position information of the target And receiving means for receiving information indicating a determination result when determining whether or not the target is within the shooting angle of view of the imaging means based on the shooting angle of view information of the imaging means and the reception And control means for executing a predetermined process in accordance with information indicating the determination result received by the means.
  The invention according to claim 10 is characterized in that the information acquisition means acquires the information by receiving position information of the target transmitted from the external device as the target.
  The invention described in claim 11 further includes a specifying means for specifying an arbitrary target, and the information acquiring means acquires position information of the target specified by the specifying means.
  The invention according to claim 12 further includes transmission means for transmitting and outputting information relating to the target arbitrarily designated by the designation means to an external database that stores position information corresponding to the information relating to the target. And the information acquisition means acquires the information by receiving the position information stored in the database corresponding to the information about the target transmitted by the transmission means.
[0025]
  Claim 13The described invention includes a first step of acquiring target position information and shooting position information, shooting direction information, and shooting angle of view information of the camera, and the position of the target obtained by the first step. A second step of determining whether or not the target is within the shooting angle of view of the camera based on the information and the shooting position information, shooting direction information and shooting angle of view information of the camera; And a third step of executing a predetermined process in accordance with the determination result of the second step.
[0027]
  Claim 14The described invention includes a first step of acquiring position information of a target, and shooting position information, shooting direction information, and shooting angle of view information of the camera, and the position of the target obtained by the first step. A second step of determining whether or not the target is within the shooting angle of view of the camera based on the information and the shooting position information, shooting direction information and shooting angle of view information of the camera; and A third step of executing a predetermined process according to the determination result of the second step is executed by a computer built in the target position search apparatus.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
Hereinafter, the present invention is a mobile terminal (hereinafter referred to as “CDMA terminal unit”) of a CDMA (Code Division Multiple Access) system equipped with a GPS (Global Positioning System) function, which is a kind of mobile phone. A first embodiment when applied to a navigating service system using the above will be described with reference to the drawings.
[0029]
FIG. 1 is an excerpt of only a characteristic schematic configuration in a state where a foldable CDMA terminal (target position search device) 10 possessed by a user is opened. In the figure, a display unit 11 made of a TFT color liquid crystal panel with a backlight is provided on the inner surface of the upper body 10a, and the imaging direction is freely rotatable at the upper end of the upper body 10a as shown by an arrow A. A camera unit 12 is provided.
[0030]
On the other hand, on the lower body portion 10b, in addition to a key input unit (not shown) and the like, the GPS unit 13 and magnetism (pan angle) for obtaining information on the shooting direction (pan angle) that the camera unit 12 faces by detecting geomagnetism. It is assumed that an orientation sensor 14 and an angle sensor 15 that obtains information on a shooting angle (tilt angle) in the height direction in which the camera unit 12 faces are incorporated.
[0031]
As described above, the CDMA terminal 10 is foldable and the camera unit 12 is also rotatable, so that the magnetic sensor 14 built in the body lower part 10b side is maintained in a horizontal state, but the use state at that time is maintained. Depending on the shooting environment, the camera unit 12 can be rotated to adjust the angle so that it is easy to shoot, or the display unit 11 can be adjusted to an easy-to-view angle.
[0032]
When the camera unit 12 and the body upper part 10a are configured to be rotatable as described above, the magnetic sensor 14 for obtaining the photographing direction and the angle sensor 15 for obtaining the photographing angle are not the upper body 10a (camera part 12). Since it is built in the lower body portion 10b, the actual shooting direction and the shooting direction obtained by the magnetic sensor 14 may not match depending on the rotation state, or the actual shooting angle and the shooting angle obtained by the angle sensor 15 may be different. This causes a problem that it will not match.
[0033]
Therefore, in order to always obtain an accurate shooting direction and shooting angle, the rotation states of the camera unit 12 and the body upper part 10a are detected, and the shooting direction information obtained by the magnetic sensor 14 according to the detection result, or It is necessary to correct the shooting angle information obtained by the angle sensor 15.
[0034]
However, when obtaining the shooting direction and the shooting angle, if the camera unit 12 and the upper body part 10a are always set in a predetermined rotation state, the information on the shooting direction and the shooting angle described above need not be corrected. It will be over.
[0035]
FIG. 2 shows a circuit configuration of the CDMA terminal 10. In the figure, reference numeral 21 denotes an antenna for performing CDMA communication with the nearest base station, and an RF unit 22 is connected to the antenna 21.
[0036]
This RF unit 22 separates the signal input from the antenna 21 at the time of reception from the frequency axis by a duplexer, mixes it with a local oscillation signal of a predetermined frequency output from the PLL synthesizer, and converts the frequency to an IF signal. Only the reception frequency channel is extracted by the broadband BPF, and the signal level of the desired reception wave is made constant by the AGC amplifier, and then output to the modulation / demodulation unit 23 in the next stage.
[0037]
On the other hand, the RF unit 22 performs transmission power control on an OQPSK (Offset Quadri-Phase Shift Keying) modulation signal sent from the modulation / demodulation unit 23 by an AGC amplifier based on control from the control unit 30 described later during transmission. The signal is mixed with a local oscillation signal of a predetermined frequency output from the PLL synthesizer, frequency-converted to an RF band, amplified to a large power by a PA (Power Amplifier), and radiated and transmitted from the antenna 21 through the duplexer.
[0038]
The modulation / demodulation unit 23 separates the IF signal from the RF unit 22 at the time of reception into a baseband IQ (In-phase / Quadrature-phase) signal by a quadrature detector, and digitizes it at a sample rate of about 10 [MHz]. The data is output to the CDMA unit 24.
[0039]
On the other hand, the modulation / demodulation unit 23 analogizes the digital I / Q signal transmitted from the CDMA unit 24 at a sample rate of about 5 [MHz] and then performs OQPSK modulation with a quadrature modulator to the RF unit 22. Send it out.
[0040]
The CDMA unit 24 inputs the digital signal from the modem unit 23 at the time of reception to a PN (Pseudo Noise) timing extraction circuit and a plurality of demodulation circuits that perform despreading / demodulation according to instructions of the timing circuit. A plurality of demodulated symbols output from the above are synchronized, synthesized by a synthesizer, and output to the audio processing unit 25.
[0041]
On the other hand, at the time of transmission, the CDMA unit 24 spreads the output symbol from the voice processing unit 25, limits the band with a digital filter, generates an I / Q signal, and sends it to the modem unit 23.
[0042]
The voice processing unit 25 deinterleaves the output symbols from the CDMA unit 24 at the time of reception, and after performing error correction processing by a Viterbi demodulator, from a digital signal compressed by a voice processing DSP (Digital Signal Processor) This is expanded into a digital audio signal, converted into an analog signal, and the speaker (SP) 26 is driven to speak out.
[0043]
On the other hand, at the time of transmission, the audio processing unit 25 digitizes an analog audio signal input from the microphone (MIC) 27, compresses it to 1/8 or less by an audio processing DSP, and then performs error correction encoding by a convolutional encoder. Are then interleaved and the output symbols are sent to the CDMA unit 24.
[0044]
Reference numeral 28 denotes a GPS antenna, and a GPS receiver 29 is connected to the antenna 28.
[0045]
The GPS receiving unit 29 constitutes the GPS unit 13 integrally with the antenna 28, and has a center frequency of 1.57542 [at least three, preferably four or more GPS satellites received by the antenna 28. [GHz] GPS radio waves are demodulated by despreading the spectrum-spread contents using a PN (pseudo-noise) code called a C / A code, and the current position in the three-dimensional space (with these signals) Latitude / longitude / altitude) and the current time, and the calculated result is sent to the control unit 30.
[0046]
Thus, the control unit 30 is connected to the RF unit 22, the modem unit 23, the CDMA unit 24, the voice processing unit 25, and the GPS receiving unit 29, and the display unit 11 and the key input unit 31 are connected to the control unit 30. The magnetic sensor 14, the angle sensor 15, the memory 32, and the imaging unit 33 are connected.
[0047]
Here, the control unit 30 includes a CPU, a ROM, a RAM, and the like, and controls the entire terminal based on a predetermined operation program stored in the ROM. Transmission / reception control, display control on the display unit 11, a navigation program to be described later, and other operation programs in the control unit 30 including various controls for operating the CDMA terminal 10 are fixedly stored.
[0048]
The recording medium for storing the program is not limited to the above-described ROM, but may be a magnetic or optical recording medium, a semiconductor memory other than the ROM, a hard disk, a portable recording medium such as a CD-ROM or a memory card, or the like. Good.
[0049]
Moreover, you may make it the structure which receives the one part or all part of the program stored in this recording medium via a network. Further, the recording medium may be a recording medium of a server constructed on a network.
[0050]
The RAM provided in the control unit 30 has a work area for temporarily storing various data handled by the control of the control unit 30, and a telephone directory area for registering a callee name and a telephone number as a set. In the telephone directory area, the stored contents are retained by power backup regardless of the power-on state of the CDMA terminal 10.
[0051]
The key input unit 31 includes a dial key that also serves as a character input key, a “call” key, a “off” key, a redial key, a mode selection key, a cursor key, a shutter key, and the like. 30.
[0052]
The memory 32 is used to record various data downloaded via a telephone network (communication network), application programs, captured images obtained by the camera unit 12, and the like.
[0053]
The imaging unit 33 constitutes the camera unit 12 together with an optical lens system 34 and a solid-state imaging device 35 such as a CCD (Charge Coupled Device), and the optical lens system 34 includes the solid-state imaging device 35. When the optical image of the subject imaged on the imaging surface is read out in the form of an analog signal to the imaging unit 33, the imaging unit 33 digitizes this and then performs a predetermined color process, and then the control unit 30 To send.
[0054]
The operation of this embodiment will be described below.
First, the operation environment of the navigation service system will be described with reference to FIG. In the figure, a CDMA terminal 10 (not shown) owned by two users 42 and 43 having a friendship relationship via a CDMA base station 41 installed on the roof of a building is not shown here. The CDMA terminal 10 is connected to a CDMA communication network and a service center device operated by a communication carrier that manages the CDMA communication network. It is assumed that the current position can be measured by receiving incoming radio waves from the satellite 44.
[0055]
Now, both the user 42 and the user 43 are in a hustle and cannot see each other directly, and the user 42 calls the CDMA terminal 10 of the user 43 with his / her CDMA terminal 10 to secure the communication state. It is assumed that the user moves toward the user 43 as indicated by an arrow C.
[0056]
FIG. 4 shows the processing contents of the navigation service executed on the CDMA terminal 10 possessed by the user 42 that is the calling party at this time, and is mainly based on the operation program controlled by the control unit 30. Yes.
[0057]
Initially, when the user 42 sets the navigation mode by operating the mode selection key of the key input unit 31, the CDMA of the target call destination user 43 according to the content of the input screen displayed on the display unit 11. The telephone number of the terminal 10 is input (step A01).
[0058]
Then, when completion of input is instructed by operating the “call” key of the key input unit 31, call processing is executed with the input telephone number, and navigation is performed by transmitting the telephone number to the service center device. An inquiry is made as to whether or not the service can be received (step A02).
[0059]
Here, the service center apparatus that has received the telephone number of the call destination inquires about the location registration status of the CDMA terminal 10 of the telephone number at that time, and according to the response, the user 43 is the same CDMA base station as the user 42. It is determined whether the user 42 is in the communication range of 41, in other words, whether the user 42 can display an image for capturing the user 43. If the determination result is “communication range”, the CDMA of the user 42 The communication line between the terminal 10 and the CDMA terminal 10 of the user 43 is connected and an operation for maintaining this is performed.
[0060]
When the CDMA terminal 10 of the user 42 determines in step A03 that the communication line with the CDMA terminal 10 of the user 42 is not connected, the other party is out of the communication range (in the communication range of the other CDMA base station 41). An error message is displayed on the display unit 11 (step A15), and the process is terminated.
[0061]
In addition, when the determination result is “out of communication range”, the service center apparatus not only executes a process of not connecting (disconnecting) the communication line with the partner terminal, but also sends an error message to the CDMA terminal of the user 42. The CDMA terminal 10 of the user 42 may be configured to simply display the received error message.
[0062]
On the other hand, when it is determined in step A03 that the communication line with the CDMA terminal 10 of the user 42 is connected, various commands are transmitted to the partner terminal as appropriate, so that the user 43 on the communication partner side. As well as ensuring the activation state of the GPS receiver 29 of the CDMA terminal 10 possessed by (step A04), the location (latitude / longitude / altitude) of the user 43 (CDMA terminal 10) obtained thereby ) The information is transferred to its own device, received and stored in the work area of the RAM (step A05).
[0063]
Next, the activation state of the GPS receiving unit 29 in the own aircraft is secured, and information on the position (latitude / longitude / altitude) at which the user is present at that time is acquired and stored in the work area of the RAM (step A06). The activation state of the magnetic sensor 14 is secured, and information on the direction (pan angle) that the camera unit 12 is facing at that time is acquired and stored in the work area of the RAM (step A07).
[0064]
Further, the activation state of the angle sensor 15 is secured, and information on the angle (tilt angle) in the height direction that the camera unit 12 faces at that time is acquired and stored in the work area of the RAM (step A08).
[0065]
Thus, the camera unit 12 captures an image based on the position information of the user 43 stored in the work area of the RAM, the position information of the user 42 itself, and the azimuth information and angle information that the camera unit 12 faces at that time. A position to be displayed indicating the location of the user 43 in the image is calculated (step A09).
[0066]
FIG. 5A illustrates the relationship between the field of view obtained by the camera unit 12 of the CDMA terminal 10 of the user 42 and the position of the user 43 at this time. In this case, the position information (X: latitude, Y: longitude, Z: altitude) of the user 42 is (X1, Y1, Z1), and the position information of the user 43 is (X2, Y2, Z2).
[0067]
Hereinafter, a method for calculating the position of the user 43 in the display image in the horizontal direction will be described.
[0068]
In order to simplify the description, the method for calculating the position of the user 43 in the display image in the height (vertical) direction can be calculated in substantially the same manner as in the horizontal direction. I will omit it.
[0069]
First, since the distance D between the users 42 and 43 can be obtained from the position coordinates (latitude / longitude) between the users 42 and 43, an arc whose radius is the distance D from the user 42 to the user 43 is considered. The length of the tangent line T passing through the center position of the horizontal field angle 2θ of the solid-state imaging device 35 (optical lens system 34) within the field angle can be calculated as Wr.
[0070]
Here, the horizontal angle of view information is stored in the memory 32 in advance. If the optical lens system 34 has a zoom function, horizontal angle of view information is stored in the memory 32 in association with each zoom amount, and the horizontal angle information corresponding to the current zoom amount is read out. Need to get.
[0071]
In addition, since the azimuth in the central direction of the horizontal angle of view is known by the magnetic sensor 14 and the azimuth of the user 43 is known from the position coordinates of the users 42 and 43, the horizontal direction from the central direction to the position of the user 43 is determined by these two azimuths. The error angle α can be calculated.
[0072]
From the relationship between the error angle α and the horizontal angle of view 2θ at the camera unit 12 and the length Wr, the horizontal distance xr at which the position corresponding to the user 43 on the tangent line T deviates from the center position. Can be calculated.
[0073]
Accordingly, the horizontal distance xd from the center position on the display unit 11 to the user 43 is calculated from the ratio of the length Wr to the horizontal width Wd of the screen of the display unit 11 shown in FIG. 5B and the distance xr. Will be able to.
[0074]
The horizontal error angle α, the horizontal distance xr, and the horizontal distance xd described above have positive values when the user 43 is on the right from the center of the shooting direction (screen), and are negative when the user 43 is on the left from the center. It shall have the value of
[0075]
Here, with respect to the vertical direction, the vertical field angle 2θ ′ and the vertical width We of the screen are calculated. As a result of performing the same calculation as in the horizontal direction, the length Ws, the vertical error angle β, the contact angle within the vertical field angle are obtained. It is assumed that the vertical distance xs shifted from the center position on the line and the vertical distance xe from the center position on the display unit 11 to the user 43 are obtained. Here, the vertical angle of view information is stored in the memory 32 in advance. If the zoom function is provided, the vertical field angle information is stored in the memory 32 in association with each zoom amount, and the vertical angle information corresponding to the current zoom amount is read and acquired. There is a need.
[0076]
Similarly, in the case of the vertical direction, the vertical error angle β, the vertical distance xs, and the vertical distance xe have positive values when the user 43 is above the center of the shooting direction (screen), and the user is below the center. When 43 is present, it is assumed to have a negative value.
[0077]
After calculating the display position of the ellipse in step A09, the solid-state imaging device 35 constituting the camera unit 12 is driven to obtain an image signal, and this is image-processed by the imaging unit 33 to obtain a digital value image signal. And stored in the work area of the RAM (step A10).
[0078]
After the image signal is obtained in this manner, whether or not the user 43 (CDMA terminal 10) is within the range of the angle of view captured by the camera unit 12 and can be displayed on the screen of the display unit 11 is determined. Whether the horizontal error angle α from the center of the image to the position of the user 43 exceeds the semi-horizontal angle of view θ, or the vertical error angle β from the center of the image to the position of the user 43 exceeds the half-vertical angle of view θ ′. (Step A11).
[0079]
Note that whether or not the shifted distance xr (or distance xd) exceeds half of the distance Wr (horizontal width Wd), or the shifted distance xs (or distance xe) is equal to the distance Ws (vertical width We). You may make it determine whether the user 43 is settled in the angle of view by the calculation of whether it exceeds half.
[0080]
If it is determined as a result of the calculation that the position of the user 43 can be displayed on the screen of the display unit 11, an ellipse E representing the position of the user 43 is calculated in step A09 as shown in FIG. At the same time, the display unit 11 displays the distance D to the user 43 and the arrow indicating the direction when the position of the user 43 is off the screen together with the captured image in a superimposed state ( Step A13) Next, the current photographed image stored in the work area of the RAM is saved and recorded in the memory 32 (Step A14), and then the processing returns to Step A03 and the same processing is repeated. In step A14, the captured image may be transmitted (transferred) to an external image recording apparatus designated in advance via a communication network instead of recording the captured image.
[0081]
FIG. 5B illustrates the state where the position of the user 43 is within the screen of the display unit 11. The ellipse E representing the position of the user 43 and the distance “50M” to the user 43, In addition, since the user 43 is on the screen, four arrows, which are not vertically blinking or coloring, are displayed superimposed on the image captured by the camera unit 12.
[0082]
When it is determined that the position of the user 43 is out of the screen of the display unit 11 and cannot be displayed as a result of the calculation in step A11, the distance D to the user 43 and the position of the user 43 are An arrow indicating the direction away from the screen is also superimposed on the captured image and displayed on the display unit 11 (step A12), then the process returns to step A03 and the same process is repeated.
[0083]
That is, when the position of the user 43 is off the screen of the display unit 11, the distance to the user 43, particularly the position of the user 43, is displayed instead of displaying the ellipse E representing the position of the user 43. It is assumed that four arrows, top, bottom, left, and right, which have been subjected to special blinking, coloring, and the like only for the direction arrow, are superimposed on the image captured by the camera unit 12 and displayed.
[0084]
In this way, by repeatedly executing the processing from step A03, if the user 43 is positioned within the range of the image captured by the camera unit 12, the ellipse E is superimposed and displayed at that position. For example, since the ellipse E is not displayed and only the arrow in the direction away from the ellipse is displayed, for example, by flashing, the location of the user 43 is determined from the captured image in real time by a more visual means. Will be able to.
[0085]
6 (1) to 6 (3) illustrate the transition state of the display screen on the display unit 11 corresponding to the change in the shooting direction of the camera unit 12, including the state shown in FIG. 5 (2). Is.
[0086]
On the screen of the display unit 11 in FIG. 6 (1), the user 43 is out of the screen range, so the ellipse E indicating the location of the user 43 is not displayed, and instead, the user 43 moves to the right from the screen. The position is expressed by coloring only the right arrow and blinking.
[0087]
Therefore, when the camera unit 12 of the CDMA terminal 10 is panned (moved) in the right direction as shown, a display state similar to that shown in FIG. 5 (2) is obtained as shown in FIG. 6 (2). Will be able to.
[0088]
In this case, an arrow indicating the specific direction of up, down, left, or right is not displayed, and an ellipse E indicating the location of the user 43 is also displayed on the screen.
[0089]
However, when the camera unit 12 is further panned to the right from the display state of FIG. 6 (2), an ellipse E indicating the location of the user 43 moves to the left end of the screen as shown in FIG. 6 (3). However, it is displayed.
[0090]
Also in this case, since the ellipse E is displayed, the user 43 is marginal, but it can be seen that the user 43 is located within the display range of the screen, so that either a right or left specific direction is indicated. The arrow is not displayed.
[0091]
When the camera unit 12 is moved upward in the display state of FIG. 6B, the ellipse E indicating the location of the user 43 is moved to the lower end of the screen, and further moved upward, The display disappears, and instead, only the down arrow is colored in order to inform the user 43 that the user 43 is positioned below the screen, and the display blinks.
[0092]
Therefore, if the ellipse E is not displayed on the screen of the display unit 11, the shooting direction of the camera unit 12 is moved according to the direction of the arrow, and when the ellipse E is displayed, the image content and distance between the ellipse E and the background are displayed. Since it is only necessary to move so as to approach the user 43 while recognizing the position of the target user 43 by the display, it is possible to know the location of the other party very visually between those having the same CDMA terminal 10. .
[0093]
In the above embodiment, the GPS receiving unit 29 constituting the GPS unit 13 performs the positioning operation also in the CDMA terminal 10 of the partner user 43 in accordance with the instruction from the CDMA terminal 10 of the calling user 42. Although it has been described that the obtained location information is transferred to the CDMA terminal 10 side of the user 42, all of the CDMA terminals 10 of this type always register the location with the nearest base station at the same time at a predetermined cycle. If the location is registered in the base station, the location of the partner CDMA terminal 10 can be grasped more quickly, and the real-time navigation screen as shown in FIG. 6 can be displayed earlier. become able to.
[0094]
In the above embodiment, in Step A04 in FIG. 4, the own device activates the GPS receiving unit 29 of the counterpart terminal and performs control to transfer the position information, but omits the processing in Step A04. The machine may be configured to execute only the process of receiving the position information transmitted from the counterpart terminal in step A05.
[0095]
In this case, the counterpart terminal itself activates the GPS receiver 29 and performs control to transmit position information to the own device, or the service center apparatus activates the GPS receiver 29 for the counterpart terminal. The position information is transferred, and then the received position information is controlled to be transmitted to the own device.
[0096]
In the above embodiment, the service center apparatus determines whether or not the user 42 and the user 43 are in the communication area of the same CDMA base station 41. Only when the service center apparatus determines that the user is in the communication area, the use of the navigation service ( The system configuration permits the transition to the navigation mode), but after connecting the communication line with the partner terminal by a normal call operation without passing through the service center device, the location information is sent from the partner terminal. You may comprise so that navigation mode can be performed by receiving.
[0097]
In the above embodiment, the CDMA terminal 10 of the user 42 uses the CDMA base station 41, a service center device (not shown), and CDMA as the location information obtained by the positioning operation of the CDMA terminal 10 of the partner user 43. Although described as receiving (acquiring) via a communication network or the like, according to the present invention, it is assumed that the other users 42 are close enough to display the other user 42 on the display unit 11. The position information may be received directly from the CDMA terminal 10 of the user 43 on the side by wireless communication or the like without going through the network.
[0098]
In this case, since there is no need to go through the network, the burden on the telecommunications carrier can be reduced. On the other hand, since the data communication fee is not generated, the burden on the user of the CDMA terminal 10 can be reduced.
[0099]
In the above embodiment, the ellipse E representing the position of the user 43 is superimposed and displayed on the display position (that is, the display position of the target in the display image) calculated in step A08. The display indicating the position of the user 43 is not limited to an ellipse, and a display indicating the position of the user 43 may be performed outside the image display area.
[0100]
Further, it is determined whether or not the user 43 is within the shooting angle of view without displaying the user 43 so that the position of the user 43 in the display image is known. You may make it the structure which performs only the acoustic alerting | reporting to notify that it is settled in a corner, vibration alerting | reporting, or visual alerting | reporting.
[0101]
In the above embodiment, while it is determined in step A11 that the user 43 is not within the shooting angle of view, the display as shown in FIG. 6 (1) is performed in step A12. The image acquisition process (step A10) by the unit 12 or the image display process (step A12) by the display unit 11 may not be executed.
[0102]
In the above embodiment, the captured image is stored and recorded (or transmitted) in step A14. However, only the display process in step A13 may be executed without storing and recording (or transmitting).
[0103]
In the above embodiment, the captured image display process is executed in step A13. However, the captured image recording process or the transmission process (notifying process) in step A14 may be performed without performing the captured image display process. May be executed only. That is, when it is determined that the user 43 is within the shooting angle of view, only the process of recording or transmitting the shot image may be executed.
[0104]
In this case, while it is determined in step A11 that the user 43 is not within the shooting angle of view, the image acquisition process (step A10) by the camera unit 12 is not executed, and in step A11, the user is within the shooting angle of view. Only while it is determined that 43 is within the range, the image acquisition process according to step A10 may be executed, and the captured image recording process or the transmission process may be executed.
[0105]
In the above embodiment, the display position of the ellipse is calculated in step A09, and it is determined whether or not the user 43 is within the shooting angle of view (display range) based on the obtained display position information. However, for example, when the user 43 is within the shooting angle of view, the display unit 11 does not display so that the position of the user 43 can be seen, and only the recording process, the transmission process, or the notification process of the captured image is performed. Is executed, the display position calculation process of the user 43 in step A09 is not performed, and the user 43 is based on the position information of the user 43, the position information, the azimuth information, the angle information, and the shooting angle-of-view information of the user 42. It may be determined whether or not 43 is within the shooting angle of view.
[0106]
In the above embodiment, the display position of the ellipse is calculated in step A09, and it is determined whether or not the user 43 is within the shooting angle of view (shooting range) based on the obtained display position information. However, first, based on the position information of the user 43 and the position information, orientation information, angle information, and shooting angle of view information of the user 42, it is determined whether or not the user 43 is within the shooting angle of view. Only when it is determined that 43 falls within the shooting angle of view, the calculation processing of the display position of the ellipse in step A09 may be executed.
[0107]
With this configuration, when the user 43 is not within the shooting angle of view, it is not necessary to perform the calculation processing of the display position of the ellipse, so that the processing load on the CDMA terminal 10 can be reduced.
[0108]
In the above embodiment, the process shown in FIG. 4 is executed only in the CDMA terminal 10 owned by the user 42. However, the process shown in FIG. 4 is similarly executed in the CDMA terminal 10 owned by the user 43. You may make it perform. If comprised in this way, since a partner will be searched while mutually viewing the display part 11 of a display state as shown to FIG. 6 (1)-FIG. 6 (3), it is easier to find a partner. become.
[0109]
In the above embodiment, the navigation service system (navigation mode) has been described as being used to find a meeting partner. However, the use is not limited to this, and a missing person such as a runaway or a lost child. The navigation service system of the present invention may be used to find a criminal who has been appointed.
[0110]
In the above embodiment, the case where both the own device and the partner terminal are mobile terminals has been described. However, only the own device may be a surveillance camera fixedly installed in a certain place. In this case, the current position of the device itself (or the orientation when the camera direction is fixed) does not change, so the display position on the screen of the other party's mobile terminal to be monitored using a fixedly stored one And the display as shown in FIGS. 6 (1) to 6 (3) is performed on the monitor in the monitor room.
[0111]
In the above embodiment, the position of the user 43 in the display image in the horizontal direction and the vertical direction is calculated and displayed on the image. However, in practice, there are few cases where the position in the vertical direction is required. Therefore, in order to simplify the configuration, only the position of the user 43 in the horizontal direction in the display image may be calculated and displayed on the image.
[0112]
However, if the position with respect to the vertical direction is not taken into consideration, if the orientation of the camera unit 12 is changed to the height direction without being kept horizontal, the display indicating the location of the user 43 is displayed even though the field of view changes. This will cause a problem that the position of is not changed at all.
[0113]
In the above embodiment, the CDMA terminal 10 itself receives the GPS information by the GPS receiving unit 29, and acquires the information of the self position by calculating the current position based on the received GPS information. The CDMA terminal 10 may transmit the GPS information received by the GPS receiving unit 29 to the service center apparatus, and calculate the current position of the CDMA terminal 10 based on the GPS information received by the service center apparatus.
[0114]
Specifically, when the counterpart terminal transmits GPS information received by the built-in GPS receiver 29 to the service center device, the service center device calculates the self-location of the counterpart terminal based on the received GPS information, and the calculated location information To your machine.
[0115]
Further, when the own device transmits the GPS information received by the built-in GPS receiving unit 29 to the service center device, the own device calculates its own location based on the GPS information received by the service center device, and the calculated position information is automatically calculated. Reply to the machine.
[0116]
Then, the own device receives the position information of the other terminal, the received position information of the own device, the direction information obtained by the built-in direction sensor 14, and the angle information obtained by the built-in angle sensor 15. The position of the partner terminal at is calculated.
[0117]
In the above embodiment, altitude data calculated based on the GPS information received by the GPS receiving unit 29 of the CDMA terminal 10 is used. However, the barometric pressure (altitude) sensor is provided in the CDMA terminal 10, and the barometric pressure sensor is provided. The altitude data obtained by the above may be used.
[0118]
(Second Embodiment)
Hereinafter, a second embodiment in the case where the present invention is applied to a navigation service system using a CDMA mobile terminal (hereinafter referred to as “CDMA terminal”) equipped with a GPS function, which is a kind of mobile phone. This will be described with reference to the drawings.
[0119]
The characteristic schematic configuration of the user with the folding CDMA terminal 10 opened is shown in FIG. 1, and the circuit configuration of the CDMA terminal 10 is the same as that shown in FIG. The same parts are denoted by the same reference numerals and the illustration and description thereof will be omitted.
[0120]
Accordingly, the configuration of the entire system excluding the CDMA terminal 10 will be described with reference to FIG. In this figure, a plurality of CDMA base stations 41, 41,... Are installed on the roof of a building, a steel tower, etc. as shown in FIG. 3, and are connected to each other to form a CDMA communication network 51. A service center device 52 operated by a telecommunications carrier is connected to the communication network 51.
[0121]
This service center device 52 has a facility location database (DB) 53 that stores a large number of accurate location information corresponding to the facility name. When facility name data is sent from a CDMA terminal 10 (not shown) here. Referring to the stored contents of the facility location database 53, the location information stored corresponding to the matched facility name data is returned to the CDMA terminal 10.
[0122]
Next, the operation of the above embodiment will be described.
FIG. 8 shows the processing content of the facility guidance service executed in response to the user's operation on the CDMA terminal 10, and is mainly based on the operation program controlled by the control unit 30.
[0123]
Initially, when the user 42 sets the navigation mode by operating the mode selection key of the key input unit 31, the name of the facility to be the target is entered according to the content of the input screen displayed on the display unit 11. 31 is input by operating (step B01).
[0124]
FIG. 9A illustrates an input screen displayed on the display unit 11 of the CDMA terminal 10 at this time. Following the service name “facility guidance service” and a guide message that prompts the facility name to be input, An input window for actually entering the facility name is displayed.
[0125]
Thus, when the completion of the facility name input is instructed by the operation of the “call” key of the key input unit 31, the call processing to the service center device 52 is executed, and the input facility name data is stored in the service center. An inquiry is made as to whether or not the navigation service can be received by transmitting to the device 52 (step B02).
[0126]
Here, the service center apparatus 52 that has received the inquiry from the CDMA terminal 10 searches the stored contents of the facility location database 53, determines whether or not the received facility name is registered, and is registered. If it is determined, the location information stored in the facility location database 53 in association with the facility name is returned to the CDMA terminal 10.
[0127]
The CDMA terminal 10 determines whether or not the inquired facility name has been registered by determining whether or not the location information transmitted from the service center device 52 has been received within a predetermined time (step B03). .
[0128]
If it is determined that the corresponding facility name is not registered in the facility location database 53 and the corresponding location information cannot be obtained as a result, information regarding the facility to be searched is not yet stored in the facility location database 53. An error message to the effect of registration is displayed on the display unit 11 (step B14), and this process is completed.
[0129]
When the service center apparatus 52 determines that the received facility name is not registered in the facility location database 53, the CDMA terminal 10 receives the error message so as to transmit it to the CDMA terminal 10. An error message may be simply displayed.
[0130]
On the other hand, if it is determined in step B03 that the position information has been received, the received position (latitude / longitude / altitude) information is immediately stored in the work area of the RAM (step B04).
[0131]
Next, the activation state of the GPS receiving unit 29 in the own aircraft is secured, information on the current position (latitude, longitude, altitude) is acquired and stored in the work area of the RAM (step B05), and then the magnetic sensor 14 is acquired. Is acquired, and information on the direction in which the camera unit 12 is facing is acquired and stored in the work area of the RAM (step B06).
[0132]
Further, the activation state of the angle sensor 15 is secured, and information on the angle (tilt angle) in the height direction that the camera unit 12 faces at that time is acquired and stored in the work area of the RAM (step B07).
[0133]
Thus, the location information of the facility acquired in step B04, the location information of the location where the user of the CDMA terminal 10 is at that time, and the orientation information that the camera unit 12 faces at that time are stored in the RAM work area. Based on the angle information, the position to be displayed indicating the location of the target facility in the image captured by the camera unit 12 is calculated (step B08).
[0134]
Note that the calculation related to the display of the position of the target with respect to the captured image is the same as the content shown in FIG. 5, and therefore detailed description thereof will be omitted.
[0135]
After calculating the display position of the ellipse in this step B08, the solid-state imaging device 35 constituting the camera unit 12 is driven to obtain an image signal, which is subjected to color process processing by the imaging unit 33 to obtain a digital image signal. It is acquired and stored in the work area of the RAM (step B09).
[0136]
After the image signal is obtained in this way, whether the target facility is within the range of the angle of view captured by the camera unit 12 and whether or not it can be displayed on the screen of the display unit 11 is determined. Whether the horizontal error angle α from the center to the facility position exceeds the semi-horizontal field angle θ, or whether the vertical error angle β from the image center to the facility position exceeds the half-vertical field angle θ ′ Judgment is made by calculation (step B10).
[0137]
Note that whether or not the shifted distance xr (or distance xd) exceeds half of the distance Wr (horizontal width Wd), or the shifted distance xs (or distance xe) is equal to the distance Ws (vertical width We). It may be determined whether or not the position of the target facility is within the angle of view by calculating whether or not it exceeds half.
[0138]
If it is determined that the location of the target facility can be displayed on the screen of the display unit 11 as a result of the calculation, an ellipse E representing the location of the facility is displayed in step B08 as shown in FIG. At the same time as displaying at the calculated display position, when the distance to the target facility and the position of the target facility deviate from the screen, an arrow indicating the direction is also displayed on the display unit 11 while being superimposed on the captured image ( Step B12) Next, the current photographed image stored in the work area of the RAM is saved and recorded in the memory 32 (Step B13), and then the processing returns to Step B05 and the same processing is repeated.
[0139]
In step B13, the captured image may be transmitted (transferred) to an external image recording apparatus designated in advance via a communication network instead of recording the captured image.
[0140]
FIG. 9 (2) illustrates the state where the location of the facility is within the screen of the display unit 11. The ellipse E representing the location of the facility, the distance “250M” to the facility, 4 shows a state in which four arrows, top, bottom, left, and right, which do not perform special blinking or coloring because they are within the screen, are superimposed on the image captured by the camera unit 12 and displayed.
[0141]
If it is determined that the location of the facility is out of the screen of the display unit 11 and cannot be displayed as a result of the calculation in step B08, the distance to the facility and the location of the facility are off the screen. An arrow indicating the current direction is superimposed on the captured image and displayed on the display unit 11 (step B11), and then the process returns to step B05 and the same process is repeated.
[0142]
That is, when the location of the facility deviates from the screen of the display unit 11, instead of displaying the ellipse E indicating the location of the facility, only the distance to the facility and particularly the arrow in the direction in which the facility is located. Are displayed by superimposing four arrows on the top, bottom, left, and right that have been subjected to special blinking, coloring, and the like on the image captured by the camera unit 12.
[0143]
In this way, by repeatedly executing the processing from step B05, if the target facility is located within the range of the image captured by the camera unit 12, an ellipse E is superimposed and displayed at that position. If so, the ellipse E is not displayed and only the arrow in the direction away from the ellipse is displayed, for example, by flashing, so that the location of the facility can be determined from the captured image in real time by more visual means. It is possible to judge, and it is possible to easily find a facility as a target even in a place where there is no intuition.
[0144]
In the first and second embodiments, not only the position of the target in the captured image but also information indicating the distance, direction and angle to the target is displayed together. More indexes can be given to 10 users, and the target can be found efficiently.
[0145]
In the second embodiment, the service center device 52 has the facility location database 53 storing a plurality of location information corresponding to the facility name, and the facility name is input from the CDMA terminal 10 each time. In the above description, the service center device 52 retrieves corresponding location information from the facility location database 53 via the CDMA communication network 51 and transmits it. However, the present invention is not limited to this, although the storage capacity is limited. A plurality of facility names and corresponding location information may be stored in advance in the memory 32 in the CDMA terminal 10, and the facility guidance service operation may be performed by processing inside the CDMA terminal 10 as necessary.
[0146]
In that case, since the operation can be executed by processing inside the CDMA terminal 10, it is not necessary for the service center device 52 side to construct a system such as the facility location database 53, and the burden on the communication carrier side can be reduced. On the other hand, since no data communication fee is generated, the burden on the user of the CDMA terminal 10 can be reduced.
[0147]
In this case, the name of the facility from which the location information can be searched is limited depending on the capacity of the memory 32 in the CDMA terminal 10, but the memory 32 can be attached to and detached from the CDMA terminal 10. If a medium such as a memory card is provided, it is possible to navigate in more detail even if the capacity of each medium is limited by selecting and removing the medium corresponding to the contents of the area or the target facility, for example. Operation can be realized.
[0148]
In the second embodiment, the location information of the target facility is acquired from the service center device 52. However, the communication information can be obtained from another portable terminal or a personal computer via a communication network or not via a communication network. The position information of the target facility may be directly acquired, or the position (latitude / longitude / altitude) of the target facility may be directly input by operating the key input unit 31.
[0149]
In the second embodiment, an ellipse E representing the position of the target facility is superimposed on the display position (that is, the display position of the target in the display image) calculated in step B08. However, the display indicating the position of the target facility is not limited to an ellipse, and the display indicating the position of the target facility may be performed outside the image display area. That's fine.
[0150]
Further, it is determined whether or not the target facility is within the shooting angle of view without displaying so that the position of the target facility in the display image can be understood. You may make it the structure which performs only the acoustic alerting | reporting to notify that it is settled in a corner, vibration alerting | reporting, or visual alerting | reporting.
[0151]
In the second embodiment, the display process in step B11 is executed while it is determined in step B10 that the target facility is not within the shooting angle of view. The acquisition process (step B09) or the image display process (step B11) by the display unit 11 may not be executed.
[0152]
In the second embodiment, the captured image is stored and recorded in step B13. However, only the display process in step B12 may be executed without storing and recording.
[0153]
In the second embodiment, the captured image display process is executed in step B12. However, the captured image recording process or the transmission process (notification process) in step B13 is performed without performing the captured image display process. May be executed). That is, when it is determined that the target facility is within the shooting angle of view, only the process of recording or transmitting the shot image may be executed.
[0154]
In this case, while it is determined in step B10 that the target facility is not within the shooting angle of view, the image acquisition process (step B09) by the camera unit 12 is not executed, and in step B10, the target is within the shooting angle of view. Only while it is determined that the facility is accommodated, the image acquisition process in step B09 may be executed, and the recording process or the transmission process of the captured image may be executed.
[0155]
In the second embodiment, the display position of the ellipse is calculated in step B08, and it is determined whether or not the target facility is within the shooting angle of view based on the obtained display position information. However, for example, when the target facility is within the shooting angle of view, the display unit 11 is not displayed so that the position of the target facility is known, and only the captured image recording process, transmission process, or notification process is performed. If it is to be executed, the target facility display position calculation processing in step B08 is not performed, and the target facility is based on the position information of the target facility, the position information, the azimuth information, the angle information, and the shooting angle-of-view information of the CDMA terminal 10. It may be determined whether or not the facility is within the shooting angle of view.
[0156]
In the second embodiment, the display position of the ellipse is calculated in step B08, and it is determined whether or not the target facility is within the shooting angle of view (shooting range) based on the obtained display position information. First, it is determined whether or not the target facility is within the shooting angle of view based on the position information of the target facility and the position information, azimuth information, angle information, and shooting angle of view information of the CDMA terminal 10. Only when it is determined that the target facility is within the shooting angle of view, the calculation processing of the display position of the ellipse in step B08 may be executed.
[0157]
With this configuration, when the target facility is not within the shooting angle of view, it is not necessary to calculate the display position of the ellipse, so the processing load on the CDMA terminal 10 can be reduced.
[0158]
In the second embodiment, the position of the target facility in the display image in the horizontal direction and the vertical direction is calculated and displayed on the image. However, in practice, the position in the vertical direction is required. Since there are few cases, in order to simplify the configuration, only the position of the target facility in the horizontal direction in the display image may be calculated and displayed on the image.
[0159]
However, if the position with respect to the vertical direction is not taken into account, if the orientation of the camera unit 12 is changed to the height direction without being kept horizontal, the display of the location of the target facility is displayed even though the field of view changes. Since the position of is not changed at all, for example, when a store or company on the 23rd floor of a high-rise building is the target facility, a problem occurs.
[0160]
Further, in the second embodiment, the CDMA terminal 10 itself receives GPS information by the GPS receiving unit 29, and obtains information on its own position by calculating the current position based on the received GPS information. However, the CDMA terminal 10 transmits the GPS information received by the GPS receiving unit 29 to the service center device 52, calculates the current position of the CDMA terminal 10 based on the GPS information received by the service center device 52, and sends it to the CDMA terminal 10. You may make it acquire the information of a self-position by replying.
[0161]
In the second embodiment, altitude data calculated based on GPS information received by the GPS receiving unit 29 of the CDMA terminal 10 is used. However, the CDMA terminal 10 is provided with an atmospheric pressure (altitude) sensor, Altitude data obtained by the barometric sensor may be used.
[0162]
(Third embodiment)
Hereinafter, a third embodiment in the case where the present invention is applied to a navigation service system using a CDMA mobile terminal (hereinafter referred to as “CDMA terminal”) equipped with a GPS function, which is a kind of mobile phone. This will be described with reference to the drawings.
[0163]
In the present embodiment, in the navigation service for displaying the position of the target facility on the screen as in the second embodiment, the display position is calculated not by the CDMA terminal 10 but by the service center apparatus 52. The other configurations are the same as those described in the second embodiment, and this third embodiment also applies.
[0164]
FIG. 1 shows the characteristic schematic configuration of the user when the foldable CDMA terminal 10 is opened, FIG. 2 shows the circuit configuration of the CDMA terminal 10, and FIG. Are basically the same as those shown in FIG. 7, and the same parts are denoted by the same reference numerals, and the illustration and description thereof will be omitted.
[0165]
FIG. 10 shows a specific configuration of the service center device (target position search device) 52 shown in FIG.
[0166]
The communication unit 55 exchanges information with the CDMA terminal 10 via the CDMA base station 41 and the CDMA communication network 51.
[0167]
The control unit 54 is constituted by a CPU, and controls the entire service center device based on a predetermined operation program stored in a memory 56 described later.
[0168]
The memory 56 fixedly stores an operation program in the control unit 54 including various controls for operating the service center device 52, such as control during communication, transmission / reception control of communication data, a display position calculation program to be described later, and the like. ing. A part of the memory 56 is allocated as a work memory area.
[0169]
Next, the operation of the above embodiment will be described.
FIG. 11 shows the processing contents of the facility guidance service executed in response to the user's operation on the CDMA terminal (target position search apparatus) 10, and is mainly based on the operation program controlled by the control unit 30. Yes.
[0170]
Initially, when the user 42 sets the navigation mode by operating the mode selection key of the key input unit 31, it becomes a target according to the content of the input screen (FIG. 9 (1)) displayed on the display unit 11. The name of the facility is input by operating the key input unit 31 (step C01).
[0171]
Here, when the completion of the facility name input is instructed by the operation of the “call” key of the key input unit 31, the call processing to the service center device 52 is executed, and the input facility name data is stored in the service center. An inquiry is made as to whether or not the navigation service can be received by transmitting to the device 52 (step C02).
[0172]
Subsequently, whether or not information indicating that the navigation service can be used, that is, a transmission request command for requesting transmission of GPS information, direction information, and angle information is received by this inquiry (step C03), the navigation service is used. It is determined whether or not information (including an error message) indicating that it cannot be received has been received (step C04).
[0173]
If it is determined in step C04 that an error message has been received, the display unit 11 displays an error message indicating that the received information regarding the facility to be searched is not registered in the facility location database 53 (step C05). The communication line with the service center apparatus 52 is disconnected (step C06), and the process is completed.
[0174]
On the other hand, if it is determined in step C03 that the transmission request command has been received, the solid-state imaging device 35 constituting the camera unit 12 is driven to obtain an image signal, which is subjected to color process processing by the imaging unit 33 and digitally processed. A value image signal is acquired and stored in the work memory area of the memory 56 (step C07).
[0175]
At the same time that the image signal is obtained in step C07, the GPS information, the direction information, and the angle information of the own device are acquired by the GPS receiving unit 29, the magnetic sensor 14, and the angle sensor 15 in the own device, and the own device information Is transmitted to the service center apparatus 52 (step C08).
[0176]
Subsequently, in response to the transmission of the own device information in step C05, a display indicating the position of the target facility on the photographed image calculated by the service center device 52 based on the own device information and the position information of the target facility. It is determined whether position information (specifically, distance information xd, xe from the center of the captured image to the target facility) and distance information from the own device to the target facility have been received (step C09).
[0177]
If it is determined that the display position information has been received, it is determined whether the target facility is within the range of the angle of view captured by the camera unit 12 and can be displayed on the screen of the display unit 11. The calculation of whether the received distance information xd exceeds half of the horizontal width Wd of the display screen or whether the received distance xe exceeds half of the vertical width We of the display screen is within the angle of view. It is determined whether or not the position of the target facility is settled (step C10).
[0178]
If it is determined that the facility location of the target can be displayed on the screen of the display unit 11, the ellipse E representing the location of the facility is displayed in step C09 as shown in FIG. 9 (2). In step C07, the information is displayed at the display position based on the received distance information xd and xe, and at the same time, the received distance information to the target facility and the arrow indicating the direction when the position of the target facility is off the screen are combined. After being displayed on the display unit 11 while being superimposed on the acquired captured image (step C11), the current captured image stored in the work memory area of the memory 56 is stored and recorded in the storage recording area of the memory 56 (step S11). C12) Returning to the process from step C07, the same process is repeated.
[0179]
In step C12, the captured image may be transmitted (transferred) to an external image recording apparatus designated in advance via a communication network instead of recording the captured image.
[0180]
If it is determined in step C10 that the location of the facility is off the screen of the display unit 11 and cannot be displayed, the received distance information to the facility and the location of the facility are off the screen. A discrimination display of an arrow indicating the direction is also displayed on the display unit 11 in a state of being superimposed on the photographed image (step C13), and then the process returns to step C07 and the same process is repeated.
[0181]
If the operation of the “OFF” key of the key input unit 31 is detected in step C14 while the processes of steps C07 to C13 are being repeatedly executed, a communication line with the service center device 52 is connected. Disconnect (step C06), and this process is completed.
[0182]
FIG. 12 shows the processing content of the facility guidance service executed on the service center device 52, and is mainly based on an operation program controlled by the control unit 54.
[0183]
Initially, the communication unit 55 determines whether there is an incoming call for a navigation service inquiry from the CDMA terminal 10 and the facility name data has been received (step C21).
[0184]
If it is determined that the facility name data has been received, the stored contents of the facility location database 53 are searched based on the received facility name data (step C22), and it is determined whether or not the received facility name is registered. If it is determined (step C23) and it is determined that it is registered, the location information stored in the facility location database 53 in association with the facility name is acquired from the facility location database 53, and the memory area in the memory 56 is heated. (Step C24).
[0185]
Subsequently, a command for requesting transmission of GPS information, azimuth information, and angle information necessary for calculating the display position of the target facility is transmitted from the communication unit 55 to the CDMA terminal 10 (step C25). .
[0186]
If it is determined in step C23 that the received facility name is not registered, information regarding the facility to be searched is not registered in the facility location database 53, and information indicating that the navigation service cannot be used (error (Including a message) is transmitted to the CDMA terminal 10 (step C31), the communication line with the CDMA terminal 10 is disconnected (step C32), and this processing is completed.
[0187]
In step C26, it is determined whether the GPS information, the azimuth information, and the angle information transmitted from the CDMA terminal 10 in response to the transmission request in step C25 are received.
[0188]
When GPS information, azimuth information, and angle information are received, the information is temporarily stored in the work memory area of the memory 56, and then the current position (latitude / longitude / altitude) of the CDMA terminal 10 is determined based on the GPS information. The calculated position information is stored in the work memory area of the memory 56 (step C27).
[0189]
Subsequently, the target in the image captured by the camera unit 12 of the CDMA terminal 10 based on the position information of the target facility, the position information of the CDMA terminal 10, the direction information, and the angle information stored in the work memory area of the memory 56. The position to be displayed indicating the location of the object facility is calculated (step C28).
[0190]
Note that the calculation related to the display of the position of the target with respect to the captured image is the same as the content shown in FIG. 5, and therefore detailed description thereof will be omitted.
[0191]
However, the horizontal field angle 2θ and the vertical field angle 2θ ′ of the solid-state imaging device 35 (optical lens system 34) of the CDMA terminal 10 and the horizontal width Wd and vertical width We of the screen of the display unit 11 are common to all CDMA terminals 10. And stored in a predetermined area of the memory 56 in advance.
[0192]
When the angle of view and the screen size differ depending on the type of the CDMA terminal with camera 10, it is necessary to have the angle of view information and the screen size information sent from the CDMA terminal 10 before calculating the display position.
[0193]
Further, in the case of the CDMA terminal 10 with a zoom camera, it is necessary to have the angle-of-view information sent from the CDMA terminal 10 every time the zoom amount is changed by the user.
[0194]
After calculating the display position (horizontal distance xd, vertical distance xe from the center of the screen) in this step C28, the calculated display position information and distance information are transmitted to the CDMA terminal 10 by the communication unit 55 (step C29). ).
[0195]
Then, it is confirmed whether or not the communication line with the CDMA terminal 10 is disconnected by operating the “OFF” key of the key input unit 31 of the CDMA terminal 10 (step C30). Returning to the process from step C26, the processes of steps C26 to C30 are repeated until the communication line is disconnected.
[0196]
As described above, since the display position calculation is performed not by the CDMA terminal 10 but by the service center apparatus 52, the processing load on the CDMA terminal 10 can be reduced, and a CPU having a high calculation processing capacity is assigned to the CDMA terminal 10. Since it is not necessary to install, the cost for realizing the navigation service can be greatly reduced.
[0197]
In the third embodiment, the GPS information received by the GPS receiver 29 of the CDMA terminal 10 is transmitted to the service center device 52, and the position is calculated based on the GPS information received by the service center device 52. However, the location may be calculated by the CDMA terminal 10 based on the GPS information received by the GPS receiver 29 and the obtained location information may be transmitted to the service center device 52.
[0198]
In the third embodiment, the CDMA terminal 10 receives the display position information transmitted from the service center apparatus 52, and executes the processes of steps C10 to C13 in FIG. 11 based on the display position information. However, the determination in step C10 is performed on the service center device 52 side, and based on the determination result, a command for blinking an arbitrary arrow and a command for instructing recording or transmission of an image as necessary. A command for instructing display of an ellipse, a command for instructing notification, and the like are transmitted to the CDMA terminal 10, and the CDMA terminal 10 simply executes processing according to the received command. Good.
[0199]
Further, when the determination in step C10 is performed on the service center device 52 side, based on the determination result, an image in a state where the photographed image is excluded from the display shown in FIGS. 6 (1) to 6 (3). That is, an image including only an arrow, a distance, and an ellipse is generated, and the generated image is transmitted to the CDMA terminal 10, and the CDMA terminal 10 simply executes a process of superimposing and displaying the received image on the captured image. You may do it.
[0200]
Further, when the determination in step C10 is performed on the service center apparatus 52 side, the determination result is transmitted to the CDMA terminal 10, and the CDMA terminal 10 performs step C11 in FIG. 11 according to the received determination result. Processes C13 to C13 may be executed.
[0201]
Further, when the determination in step C10 is made on the service center device 52 side, for example, when the target facility is within the shooting angle of view, a display is made so that the position of the target facility can be seen on the display unit 11. If only the captured image recording process, the transmission process, or the notification process is executed, the target facility display position calculation process and the position of the CDMA terminal 10 are not performed without performing the target facility display position calculation process in step C28. Based on the information, the direction information, the angle information, and the shooting field angle information, it may be determined whether or not the target facility is within the shooting field angle.
[0202]
Further, in the third embodiment, in the navigation service for displaying the position of the target facility on the screen as in the second embodiment, the display center is calculated not in the CDMA terminal 10 but in the service center device 52. In the navigation service for displaying the position of the user 43 on the screen as in the first embodiment, the display position is calculated not in the CDMA terminal 10 but in the service center device 52. You may make it carry out.
[0203]
That is, the service center device 52 receives the position information (or GPS information) transmitted from the CDMA terminal 10 possessed by the user 43 and the position information (or GPS information) transmitted from the CDMA terminal 10 possessed by the user 42. GPS information), azimuth information and angle information are sequentially received, the position of the user 43 on the display screen is sequentially calculated based on the received information, and the obtained display position information is possessed by the CDMA terminal 10 may be transmitted sequentially.
[0204]
(Fourth embodiment)
Hereinafter, the present invention is applied to a navigation service system using a portable terminal (hereinafter referred to as “PHS terminal”) compatible with PHS (Personal Handyphone System), which is a type of cellular phone. The fourth embodiment will be described with reference to the drawings.
[0205]
In PHS, a microcell system with a minimum radius of about 100 [m] is adopted for each base station (CS) and the PHS terminal is located at the nearest base station. By registering, the center side can recognize the location of the PHS terminal by the identification code of the base station that has registered the position.
[0206]
In the present embodiment, the functional configuration of the PHS terminal is assumed to be substantially the same as that of the CDMA terminal 10 shown in FIG. 1, and the same parts are denoted by the same reference numerals and their illustration and description are omitted.
[0207]
The circuit configuration is also different depending on the difference between the PHS method and the CDMA method, but the other circuits are the same as those shown in FIG. 2, and the same parts are denoted by the same reference numerals. Illustration and description are omitted.
[0208]
The operation of this embodiment will be described below.
FIG. 14 exemplifies the operating environment of this system, and small communication areas 62, 62,... By PHS base stations 61, 61,. In a neighboring microcell system, two users 63 and 64 who have a PHS terminal and are in a friend relationship operate a PHS communication network (not shown here) and a service operated by a telecommunications carrier that manages the PHS communication network. It is connected to the center device, and the user 64 is moving in the direction of the user 63, and after calling the user 64 from the user 63, the location of the user 64 is searched by the PHS terminal. And
[0209]
FIG. 13 is executed between the PHS terminal possessed by the user 63 who is the calling side at this time and the PHS base station 61 in which the PHS terminal possessed by the user 63 is currently registered. This shows the processing contents of the location search service.
[0210]
In the PHS terminal, a predetermined position search mode is designated and the telephone number of the PHS terminal of the user 64 as the target call destination is input according to the content of the screen displayed on the display unit 11 (step A21). Then, a call is made to the PHS base station 61 whose nearest location is registered (step A22).
[0211]
After that, the PHS base station 61 waits for a report that the location registration of the called terminal is detected (step A23).
[0212]
The PHS base station 61 waits for a location search service notification from the registered PHS terminal (step D01). When it is determined that there is a notification, the PHS base station 61 should make a location search based on the notification. The PHS telephone number of the previous user 64 is registered (step D02).
[0213]
Thereafter, whether or not the PHS terminal can be detected by checking whether or not the PHS terminal of the registered telephone number is in the communication area 62 in charge of the local station at that time and the location has already been registered. If it is determined (step D03) and it is determined that the location has not yet been registered, the system waits for a new location registration of the PHS terminal (step D05).
[0214]
If it is determined in step D05 that the location of the new PHS terminal has been registered, the process returns to step D03 to determine whether the PHS terminal is the registered telephone number.
[0215]
Thus, every time there is a PHS terminal whose location is newly registered, it is determined whether or not the PHS terminal is possessed by the user 64, so that both the user 63 and the user 64 have the same PHS. It waits to exist in the communication area 62 of the base station 61.
[0216]
Then, when the user 64 moves and enters the same communication area 62 as the user 63, it is determined in step D03 that the target telephone number has been detected, and a detection report is transmitted to the PHS terminal owned by the user 63 ( In step D04), the process returns to the standby process from step D01 again in preparation for the use of the new service.
[0217]
The PHS terminal of the user 63 that has received the detection report from the PHS base station 61 determines this in step A23, and then executes the same processing as in step A04 and subsequent steps in FIG. The location of the terminal is displayed on the display unit 11 of the own device so as to overlap the photographed image obtained by the camera unit 12.
[0218]
In this way, until the user 63 and the user 64 are determined to be in the same communication area 62, the display for position search is controlled so as not to start. Until the position search operation is not started.
[0219]
Therefore, in the PHS terminal, it is possible to use the location search service economically by suppressing wasteful power consumption and keeping the call charge low, while also reducing communication traffic on the base station and system side. .
[0220]
In the fourth embodiment, the case where the present invention is applied to the navigation service that displays the position of the user 43 on the screen similar to that in the first embodiment has been described. In addition, the present invention may be applied to a navigation service that displays on the screen the position of the target facility similar to that of the third embodiment.
[0221]
In the fourth embodiment, whether or not the user 63 and the user 64 are close to each other is determined based on whether or not the user 63 and the user 64 are in the same communication area 62. By calculating the distance between the user 63 and the user 64 from the position information of the user 64 and the position information of the user 64 (may be the target facility), and determining whether the obtained distance is a predetermined distance or more It may be determined whether 63 and the user 64 are close to each other.
[0222]
In the fourth embodiment, the PHS terminal has been described as having positioning means using the GPS unit 13, but it does not have positioning means such as the GPS unit 13, and the position of the opponent Even when the process of displaying the image in the captured image is not performed, the call destination can be found in the vicinity because the call destination PHS terminal can know the timing of entering the same communication area 62. That can be recognized.
[0223]
In addition, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention.
[0224]
Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, at least one of the issues described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. In a case where at least one of the obtained effects can be obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.
[0225]
【The invention's effect】
  According to the first aspect of the present invention, since the information indicating the position of the target in the image captured by the camera is displayed, it is possible to easily understand in which direction and at which position the target is located. It is possible to easily navigate to the position.In addition, since information representing the position of the target is displayed in a captured image actually obtained by the apparatus, the position of the target can be pointed more visually with the apparatus alone. Even if the target is not within the shooting angle of view of the camera, by displaying the index, the shooting angle of view can be quickly moved in the direction of the target.
[0226]
According to the invention described in claim 2, in addition to the effect of the invention described in claim 1, not only the horizontal direction of the target but also the vertical angle position is calculated and output. The position can be pointed more accurately.
[0230]
  Claim 10According to the described invention,Furthermore,Even if the target is an external device that moves, it is possible to accurately navigate to the position of the target based on the position information.
[0231]
  Claim 11According to the described invention,Furthermore,For example, by selecting and specifying one of the positions of a plurality of targets stored in advance, it is possible to immediately navigate to the position of the target.
[0232]
  Claim 12According to the described invention,Furthermore,By specifying the position information of the target stored in the external database, it is possible to shift to the navigation operation, and it is not necessary to store the position information of the target in the apparatus, so the burden on the apparatus side In addition, it is possible to deal with various targets by constructing a database on more detailed targets externally.
[0233]
  Claim 3According to the described invention,Since information indicating the position of the target in the image captured by the camera is displayed, it is possible to easily understand where the target is in which direction and to navigate easily to the target position. Is possible. Also,Only when it is determined that the target and the camera are in close proximity and the target is located in the image captured by the camera, the process proceeds to position calculation. Power consumption can be avoided.
[0235]
  Claim 4According to the described invention, the execution of the predetermined processing is waited until the target enters the shooting field angle of the camera, and when the target enters the shooting field angle, this is judged, and the predetermined process is promptly performed. Since the process can be shifted to the execution of the process, it is possible to surely execute the process on the captured image of the target object while avoiding unnecessary power consumption for executing the process other than when necessary.
[0236]
  Claim 5According to the described invention, the aboveClaim 4In addition to the effects of the invention described above, it is possible to promptly notify when a target enters within the shooting angle of view of the camera, and it is possible to find a target without constantly monitoring the captured image of the camera. it can.
[0237]
  Claim 6According to the described invention, the aboveClaim 4In addition to the effects of the invention described above, when a target enters the camera's shooting angle of view, it is possible to immediately shift to recording of the captured image, and the target is not within the camera's shooting angle of view. Then, since the recording is not performed, the target can be recorded without consuming the medium wastefully.
[0238]
  Claim 7According to the described invention, the aboveClaim 4In addition to the effects of the described invention, it is possible to immediately shift to the external transmission of the photographed image when the target object enters the photographing field angle of the camera, and the target object is not within the photographing field angle of the camera. Since transmission is not performed in the state, the captured image of the target can be transmitted without consuming power wastefully.
[0239]
  Claim 8According to the described invention, the aboveClaim 4In addition to the effects of the invention described above, information indicating that the target object has entered the angle of view of the target is transmitted to the external device equipped with the camera. It is possible to reduce the burden on the external device before entering the angle of view.
[0240]
  Claim 9According to the described invention, the execution of a predetermined process is waited until the target enters the shooting angle of view, and when the target enters the shooting angle of view, information indicating that is quickly received. Since it is possible to shift to the execution of the process, it is possible to avoid wasteful power consumption, etc., for the judgment that the target object enters the shooting angle of view and the execution of a predetermined process other than necessary, while sufficiently reducing the burden Thus, it is possible to reliably execute processing on the captured image of the target.
[Brief description of the drawings]
FIG. 1 is a perspective view showing only a characteristic schematic configuration of a mobile terminal according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a circuit configuration of the mobile terminal according to the embodiment.
FIG. 3 is a diagram illustrating an operational environment of the entire system according to the embodiment;
FIG. 4 is a flowchart showing operation processing contents in the portable terminal according to the embodiment;
FIG. 5 is a view for explaining a method for specifying the position of a target on a display image according to the embodiment;
FIG. 6 is a view illustrating a method for guiding a position of a target on a display image according to the embodiment;
FIG. 7 is a diagram showing a schematic configuration of the entire system according to a second embodiment of the present invention.
FIG. 8 is a flowchart showing operation processing contents in the portable terminal according to the embodiment;
FIG. 9 is a view showing a display example on the portable terminal according to the embodiment;
FIG. 10 is a block diagram showing a circuit configuration of a service center apparatus according to a third embodiment of the present invention.
FIG. 11 is a flowchart showing the contents of operation processing in the portable terminal according to the embodiment;
FIG. 12 is a flowchart showing operation processing contents in the service center apparatus according to the embodiment;
FIG. 13 is a flowchart showing operation processing contents in a portable terminal and the nearest base station according to the fourth embodiment of the present invention.
FIG. 14 is a diagram illustrating a schematic image of an operation according to the embodiment;
[Explanation of symbols]
10 ... CDMA terminal
10a ... Upper body
10b ... Lower body
11 ... Display section
12 ... Camera unit
13 ... GPS unit
14 ... Magnetic sensor
15 ... Angle sensor
21 ... (for CDMA) antenna
22 ... RF section
23. Modulator / Demodulator
24 ... CDMA section
25 ... Audio processing unit
26 ... Speaker (SP)
27 ... Microphone (MIC)
28 ... (for GPS) antenna
29 ... GPS receiver
30 ... Control unit
31 ... Key input section
32 ... Memory
33 ... Imaging unit
34 ... Optical lens system
35 ... Solid-state imaging device
41 ... CDMA base station
42, 43 ... user
44 ... GPS satellite
51 ... CDMA communication network
52. Service center device
53 ... Facility location database
61 ... PHS base station
62 ... Communication area
63, 64 ... user

Claims (14)

目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、
この情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラにより得られる撮影画像上における上記目標物の位置を算出する演算手段と、
この演算手段により算出された上記撮影画像中の目標物の位置を表す情報を表示する表示手段と、
上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する判断手段とを具備し、
上記表示手段は、この判断手段により上記カメラの撮影画角内に上記目標物が収まっていないと判断された場合、上記目標物のある方向を示す情報を表示することを特徴とする目標位置探索装置。
Information acquisition means for acquiring position information of the target, and shooting position information, shooting direction information and shooting angle of view information of the camera;
Based on the position information of the target obtained by the information acquisition means and the shooting position information, shooting direction information, and shooting angle of view information of the camera, the position of the target on the shot image obtained by the camera is determined. Computing means for calculating;
Display means for displaying information representing the position of the target in the photographed image calculated by the computing means;
Determining means for determining whether or not the target is within the shooting angle of view of the camera;
The display unit displays information indicating a direction of the target when the determination unit determines that the target is not within the shooting angle of view of the camera. apparatus.
上記情報取得手段は、さらに上記カメラの撮影角度情報を取得し、
上記演算手段は、この情報取得手段により得られた目標物の位置情報、カメラの、撮影位置情報、撮影方位情報、撮影画角情報及び撮影角度情報に基づいて、上記カメラにより得られる撮影画像上における上記撮影画像中の目標物の位置を算出することを特徴とする請求項1記載の目標位置探索装置。
The information acquisition means further acquires shooting angle information of the camera,
The calculation means is based on the position information of the target obtained by the information acquisition means, the shooting position information, the shooting direction information, the shooting angle information, and the shooting angle information of the camera. The target position search apparatus according to claim 1, wherein the position of the target in the captured image is calculated.
目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、Information acquisition means for acquiring position information of the target, and shooting position information, shooting direction information and shooting angle of view information of the camera;
上記目標物とカメラとが接近状態にあるか否かを判断する判断手段と、Determining means for determining whether or not the target and the camera are in an approaching state;
この判断手段により接近状態にあると判断された場合に、上記情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラにより得られる撮影画像上における上記目標物の位置を算出する演算手段と、Based on the position information of the target obtained by the information acquisition means and the shooting position information, shooting direction information, and shooting angle of view information of the camera when the determination means determines that the vehicle is in the approaching state, Arithmetic means for calculating the position of the target on a captured image obtained by the camera;
この演算手段により算出された上記撮影画像中の目標物の位置を表す情報を出力する出力手段とOutput means for outputting information representing the position of the target in the photographed image calculated by the computing means;
を具備することを特徴とする目標位置探索装置。A target position search apparatus comprising:
目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する情報取得手段と、
この情報取得手段により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する判断手段と、
この判断手段による判断結果に応じて所定の処理を実行する制御手段とを具備したことを特徴とする目標位置探索装置。
Information acquisition means for acquiring position information of the target, and shooting position information, shooting direction information and shooting angle of view information of the camera;
Whether the target is within the shooting angle of view of the camera based on the position information of the target obtained by the information acquisition means and the shooting position information, shooting direction information, and shooting angle of view information of the camera. A determination means for determining whether or not,
A target position searching apparatus comprising: a control unit that executes a predetermined process in accordance with a determination result by the determination unit.
上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、報知処理を実行することを特徴とする請求項4記載の目標位置探索装置。5. The target position search apparatus according to claim 4 , wherein the control means executes a notification process when the determination means determines that the target is within the shooting angle of view of the camera. 上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、上記カメラにより得られる撮影画像の記録処理を実行することを特徴とする請求項4記載の目標位置探索装置。 Claim the control means, when it is determined that the target is within the shooting field angle of the camera in the above determination means, characterized in that for executing recording processing of the captured image obtained by the camera 4. The target position search device according to 4 . 上記制御手段は、上記判断手段により上記カメラの撮影画角内に上記目標物が収まっていると判断された場合、上記カメラにより得られる撮影画像の外部送信処理を実行することを特徴とする請求項4記載の目標位置探索装置。The control means, when it is determined that the target is within the shooting field angle of the camera in the above determination means, claims and executes the external transmission processing of the photographic image obtained by the camera Item 5. A target position search apparatus according to Item 4 . 上記制御手段は、上記判断手段による判断結果に応じた情報を、上記カメラを備える外部機器に対して送信出力することを特徴とする請求項4記載の目標位置探索装置。5. The target position search apparatus according to claim 4 , wherein the control means transmits and outputs information corresponding to a determination result by the determination means to an external device including the camera. 撮影画像を取得する撮像手段と、
この撮像手段により取得された撮影画像を表示する表示手段と、
上記撮像手段の撮影位置情報及び撮影方位情報を取得する情報取得手段と、
この情報取得手段により取得された撮影位置情報及び撮影方位情報を外部装置に送信する送信手段と、
上記外部装置が、上記送信手段により送信された撮影位置情報及び撮影方位情報と、目標物の位置情報及び上記撮像手段の撮影画角情報とに基づき、上記撮像手段の撮影画角内に上記目標物が収まっているか否かを判断した際の判断結果を示す情報を受信する受信手段と、
この受信手段で受信した判断結果を示す情報に応じて所定の処理を実行する制御手段と
を具備したことを特徴とする目標位置探索装置。
Imaging means for acquiring a captured image;
Display means for displaying a photographed image acquired by the imaging means;
Information acquisition means for acquiring shooting position information and shooting direction information of the imaging means;
Transmission means for transmitting the photographing position information and photographing orientation information acquired by the information acquisition means to an external device;
Based on the shooting position information and shooting direction information transmitted from the transmission unit, the position information of the target, and the shooting field angle information of the imaging unit, the external device includes the target within the shooting field angle of the imaging unit. Receiving means for receiving information indicating a determination result when determining whether or not an object is contained;
A target position search apparatus comprising: a control unit that executes a predetermined process in accordance with information indicating a determination result received by the receiving unit.
上記情報取得手段は、上記目標物である外部機器から送信されてくる目標物の位置情報を受信することにより該情報を取得することを特徴とする請求項1乃至9のいずれかに記載の目標位置探索装置。The target according to any one of claims 1 to 9, wherein the information acquisition means acquires the information by receiving position information of the target transmitted from an external device that is the target. Position search device. 任意の目標物を指定する指定手段をさらに具備し、Further comprising a designation means for designating an arbitrary target,
上記情報取得手段は、この指定手段により指定された目標物の位置情報を取得するThe information acquisition means acquires position information of the target designated by the designation means.
ことを特徴とする請求項1乃至10のいずれかに記載の目標位置探索装置。The target position search apparatus according to claim 1, wherein
上記指定手段により任意に指定された目標物に関する情報を、該目標物に関する情報に対応して位置情報を記憶する外部のデータベースに対して送信出力する送信手段をさらに具備し、Further comprising transmission means for transmitting and outputting information relating to the target arbitrarily designated by the designation means to an external database storing position information corresponding to the information relating to the target,
上記情報取得手段は、この送信手段により送信された目標物に関する情報に対応して上記データベースに記憶されている位置情報を受信することにより該情報を取得することを特徴とする請求項11記載の目標位置探索装置。12. The information acquisition unit according to claim 11, wherein the information acquisition unit acquires the information by receiving position information stored in the database corresponding to the information about the target transmitted by the transmission unit. Target position search device.
目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する第1の工程と、
この第1の工程により得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する第2の工程と、
この第2の工程による判断結果に応じて所定の処理を実行する第3の工程とを有したことを特徴とする目標位置探索方法。
A first step of acquiring position information of the target and shooting position information, shooting direction information, and shooting angle of view information of the camera;
Based on the position information of the target obtained in the first step and the shooting position information, shooting direction information, and shooting angle information of the camera, the target is within the shooting angle of view of the camera. A second step of determining whether or not,
And a third step of executing a predetermined process in accordance with the determination result of the second step.
目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とを取得する第1のステップと、
この第1のステップにより得られた目標物の位置情報と、カメラの、撮影位置情報、撮影方位情報及び撮影画角情報とに基づいて、上記カメラの撮影画角内に上記目標物が収まっているか否かを判断する第2のステップと、
この第2のステップによる判断結果に応じて所定の処理を実行する第3のステップと
を目標位置探索装置に内蔵されたコンピュータに実行させることを特徴とするプログラム。
A first step of acquiring position information of the target and shooting position information, shooting direction information, and shooting angle of view information of the camera;
Based on the position information of the target obtained in the first step and the shooting position information, shooting direction information, and shooting angle of view of the camera, the target falls within the shooting angle of view of the camera. A second step of determining whether or not
A program that causes a computer built in a target position search apparatus to execute a third step of executing a predetermined process in accordance with a determination result of the second step.
JP2002197272A 2001-08-07 2002-07-05 Target position search apparatus, target position search method and program Expired - Fee Related JP3729161B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002197272A JP3729161B2 (en) 2001-08-07 2002-07-05 Target position search apparatus, target position search method and program
US10/210,235 US7027823B2 (en) 2001-08-07 2002-08-01 Apparatus and method for searching target position and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001239274 2001-08-07
JP2001-239274 2001-08-07
JP2002197272A JP3729161B2 (en) 2001-08-07 2002-07-05 Target position search apparatus, target position search method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005227830A Division JP4508031B2 (en) 2001-08-07 2005-08-05 Target position search apparatus, target position search method and program

Publications (2)

Publication Number Publication Date
JP2003121195A JP2003121195A (en) 2003-04-23
JP3729161B2 true JP3729161B2 (en) 2005-12-21

Family

ID=26620105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002197272A Expired - Fee Related JP3729161B2 (en) 2001-08-07 2002-07-05 Target position search apparatus, target position search method and program

Country Status (2)

Country Link
US (1) US7027823B2 (en)
JP (1) JP3729161B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144389A1 (en) 2011-04-20 2012-10-26 Necカシオモバイルコミュニケーションズ株式会社 Individual identification character display system, terminal device, individual identification character display method, and computer program

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3781016B2 (en) * 2002-06-18 2006-05-31 カシオ計算機株式会社 Electronic camera, photographing direction acquisition method and program
US7027822B1 (en) * 2002-09-25 2006-04-11 Rockwell Collins, Inc. Distributed GPS for geolocation of a network of nodes
JP4125653B2 (en) * 2002-10-30 2008-07-30 日本電気株式会社 Portable information terminal device
JP4710217B2 (en) * 2003-07-03 2011-06-29 ソニー株式会社 Information presenting apparatus, information presenting method, information presenting system, and computer program
JP3840223B2 (en) * 2003-11-14 2006-11-01 キヤノン株式会社 Information collection system
US20050275619A1 (en) * 2004-06-09 2005-12-15 Chwan-Jaw Kao Apparatus for cursor control and method thereof
US7623155B2 (en) * 2004-09-29 2009-11-24 Kelliher Christopher R GPS enhanced camera for transmitting real-time trail data over a satellite/cellular communication channel
JP2006164212A (en) * 2004-11-10 2006-06-22 Sony Corp Information processing apparatus and method, recording medium, and program
US7542816B2 (en) * 2005-01-27 2009-06-02 Outland Research, Llc System, method and computer program product for automatically selecting, suggesting and playing music media files
US20070189544A1 (en) 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
US20060173556A1 (en) * 2005-02-01 2006-08-03 Outland Research,. Llc Methods and apparatus for using user gender and/or age group to improve the organization of documents retrieved in response to a search query
US20070276870A1 (en) * 2005-01-27 2007-11-29 Outland Research, Llc Method and apparatus for intelligent media selection using age and/or gender
US20060256008A1 (en) * 2005-05-13 2006-11-16 Outland Research, Llc Pointing interface for person-to-person information exchange
JP4794903B2 (en) * 2005-05-11 2011-10-19 キヤノン株式会社 Terminal device, control method performed by terminal device, and program
JP4765395B2 (en) * 2005-05-11 2011-09-07 カシオ計算機株式会社 Image photographing control device, image editing device, and program
US7945938B2 (en) 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
US20070150188A1 (en) * 2005-05-27 2007-06-28 Outland Research, Llc First-person video-based travel planning system
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US9445225B2 (en) * 2005-07-14 2016-09-13 Huston Family Trust GPS based spectator and participant sport system and method
US9344842B2 (en) 2005-07-14 2016-05-17 Charles D. Huston System and method for viewing golf using virtual reality
US8207843B2 (en) 2005-07-14 2012-06-26 Huston Charles D GPS-based location and messaging system and method
US8249626B2 (en) * 2005-07-14 2012-08-21 Huston Charles D GPS based friend location and identification system and method
US8933967B2 (en) 2005-07-14 2015-01-13 Charles D. Huston System and method for creating and sharing an event using a social network
US11972450B2 (en) 2005-07-14 2024-04-30 Charles D. Huston Spectator and participant system and method for displaying different views of an event
US8275397B2 (en) * 2005-07-14 2012-09-25 Huston Charles D GPS based friend location and identification system and method
US8873723B1 (en) * 2005-08-24 2014-10-28 At&T Intellectual Property Ii, L.P. IP telephone geographic locator
US20060227047A1 (en) * 2005-12-13 2006-10-12 Outland Research Meeting locator system and method of using the same
US20070075127A1 (en) * 2005-12-21 2007-04-05 Outland Research, Llc Orientation-based power conservation for portable media devices
FR2905470A1 (en) * 2006-09-06 2008-03-07 France Telecom Target e.g. firefighter, locating system for telemonitoring system, has locating device independent to cameras and comprising sensor to provide coordinates of targets, and indicator device to determine position of targets from coordinates
JP4068661B1 (en) * 2006-10-13 2008-03-26 株式会社ナビタイムジャパン Navigation system, portable terminal device, and route guidance method
JP5076468B2 (en) * 2006-12-01 2012-11-21 株式会社デンソー Communication-type navigation system, vehicle navigation device, and center device
US8451998B2 (en) 2007-03-19 2013-05-28 At&T Intellectual Property I, L.P. System and method for providing location information
US20080252527A1 (en) * 2007-04-03 2008-10-16 Juan Carlos Garcia Method and apparatus for acquiring local position and overlaying information
US20100198509A1 (en) * 2007-06-07 2010-08-05 Qualcomm Incorporated 3d maps rendering device and method
KR101373007B1 (en) * 2007-07-04 2014-03-14 삼성전자주식회사 Method for identifying peripheral device and apparatus thereof
US8994851B2 (en) * 2007-08-07 2015-03-31 Qualcomm Incorporated Displaying image data and geographic element data
US9329052B2 (en) * 2007-08-07 2016-05-03 Qualcomm Incorporated Displaying image data and geographic element data
JP5367305B2 (en) * 2007-10-03 2013-12-11 株式会社東芝 Visual inspection apparatus and visual inspection method
US8976242B2 (en) 2007-10-03 2015-03-10 Kabushiki Kaisha Toshiba Visual inspection apparatus and visual inspection method
CN101861579A (en) * 2007-11-17 2010-10-13 潘世爵 Apparatus, method and system for subsequently connecting people
WO2009074654A1 (en) * 2007-12-11 2009-06-18 Nemerix Sa Gnss method and receiver with camera aid
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
US9509867B2 (en) * 2008-07-08 2016-11-29 Sony Corporation Methods and apparatus for collecting image data
JP5347144B2 (en) * 2009-02-03 2013-11-20 リコーイメージング株式会社 Camera capable of fixed point shooting
IL200065A (en) * 2009-07-26 2013-11-28 Verint Systems Ltd Systems and methods for video-and position-based identification
US8395547B2 (en) * 2009-08-27 2013-03-12 Hewlett-Packard Development Company, L.P. Location tracking for mobile computing device
US8755815B2 (en) 2010-08-31 2014-06-17 Qualcomm Incorporated Use of wireless access point ID for position determination
KR101648339B1 (en) * 2009-09-24 2016-08-17 삼성전자주식회사 Apparatus and method for providing service using a sensor and image recognition in portable terminal
US8599066B1 (en) * 2009-09-29 2013-12-03 Mark A. Wessels System, method, and apparatus for obtaining information of a visually acquired aircraft in flight
KR100957575B1 (en) * 2009-10-01 2010-05-11 (주)올라웍스 Method, terminal and computer-readable recording medium for performing visual search based on movement or pose of terminal
KR20110051393A (en) * 2009-11-10 2011-05-18 엘지전자 주식회사 Mobile terminal and method for controlling the same
US20110115671A1 (en) * 2009-11-17 2011-05-19 Qualcomm Incorporated Determination of elevation of mobile station
JP5402612B2 (en) * 2009-12-22 2014-01-29 ソニー株式会社 Display device, display method, and program
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
EP4344257A3 (en) 2010-09-29 2024-06-05 QUALCOMM Incorporated Location tracking for mobile computing device
JP5765925B2 (en) * 2010-12-13 2015-08-19 キヤノン株式会社 Image recording apparatus and method for controlling image recording apparatus
JP5612456B2 (en) * 2010-12-21 2014-10-22 株式会社 ミックウェア Server device, first terminal device, second terminal device, information processing method, and program
US20120176525A1 (en) * 2011-01-12 2012-07-12 Qualcomm Incorporated Non-map-based mobile interface
JP5738657B2 (en) * 2011-04-08 2015-06-24 オリンパス株式会社 Imaging device
US9002372B2 (en) * 2012-03-30 2015-04-07 Danielle's Buddy, Inc. Locating system for autistic child and others
JP2013219544A (en) * 2012-04-09 2013-10-24 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP6024184B2 (en) * 2012-04-27 2016-11-09 ソニー株式会社 System, electronic device, and program
CN103632562A (en) * 2012-08-20 2014-03-12 能晶科技股份有限公司 A vehicle searching system and a method thereof
US20150111601A1 (en) * 2013-10-18 2015-04-23 Logos Technologies, Llc Systems and methods for displaying distant images at mobile computing devices
WO2015164224A1 (en) * 2014-04-21 2015-10-29 Desoyza Erangi Wristband and application to allow one person to monitor another
EP2985624B1 (en) * 2014-08-13 2021-03-10 Deutsche Telekom AG Method and devices for determining the orientation of a movable communication device
KR20170010638A (en) * 2015-07-20 2017-02-01 삼성전자주식회사 Measuring method of signal and electronic device thereof
US10185986B2 (en) 2015-09-11 2019-01-22 Immersion Corporation Systems and methods for location-based notifications for shopping assistance
JP2019091961A (en) 2016-03-30 2019-06-13 パナソニックIpマネジメント株式会社 Camera control unit
DE102016212185A1 (en) * 2016-07-05 2018-01-11 Volkswagen Aktiengesellschaft Procedure for exchanging and displaying location-related information
JP7024514B2 (en) * 2018-03-09 2022-02-24 株式会社タダノ Crane and information display method
JP2019191914A (en) * 2018-04-25 2019-10-31 株式会社デンソー Information processor, program, and information processing method
US10890460B2 (en) * 2018-10-19 2021-01-12 International Business Machines Corporation Navigation and location validation for optimizing vehicle-based transit systems
CN109541584B (en) * 2018-12-29 2022-05-20 中国人民解放军空军工程大学 Low-altitude aircraft reconnaissance early warning system and method based on intelligent terminal
CN111601246B (en) * 2020-05-08 2021-04-20 中国矿业大学(北京) Intelligent position sensing system based on space three-dimensional model image matching

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2157526B (en) * 1983-05-16 1986-08-28 Barr & Stroud Ltd Imaging systems
JP3021556B2 (en) * 1990-06-20 2000-03-15 ソニー株式会社 Video information processing apparatus and method
US5913078A (en) * 1994-11-01 1999-06-15 Konica Corporation Camera utilizing a satellite positioning system
JPH10276361A (en) * 1997-01-31 1998-10-13 Sony Corp Image pickup device and method, image pickup system, image information service device and method, image data processing unit and method, and transmission medium
JPH11125855A (en) * 1997-10-24 1999-05-11 Taisei Corp Site photographing system
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
US6346938B1 (en) * 1999-04-27 2002-02-12 Harris Corporation Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model
US6636256B1 (en) * 1999-08-20 2003-10-21 Verizon Corporate Services Group Inc. Video communication system
JP2001092806A (en) * 1999-09-20 2001-04-06 Teglet Gijutsu Kaihatsu:Kk Pseudo-experience device for travel and method
EP1128284A2 (en) * 2000-02-21 2001-08-29 Hewlett-Packard Company, A Delaware Corporation Associating image and location data
US20020112063A1 (en) * 2001-02-14 2002-08-15 Jonathan Lohr Methods, systems and computer program products for requesting wireless telephony application (WTA) protocol based actions
US20020113872A1 (en) * 2001-02-16 2002-08-22 Naoto Kinjo Information transmitting system
US6748223B2 (en) * 2001-03-23 2004-06-08 Nokia Corporation Apparatus, and associated method, for providing a digital image generated at a mobile station to an assistance center
US6690294B1 (en) * 2001-07-10 2004-02-10 William E. Zierden System and method for detecting and identifying traffic law violators and issuing citations

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144389A1 (en) 2011-04-20 2012-10-26 Necカシオモバイルコミュニケーションズ株式会社 Individual identification character display system, terminal device, individual identification character display method, and computer program
US9721388B2 (en) 2011-04-20 2017-08-01 Nec Corporation Individual identification character display system, terminal device, individual identification character display method, and computer program

Also Published As

Publication number Publication date
US7027823B2 (en) 2006-04-11
JP2003121195A (en) 2003-04-23
US20030032436A1 (en) 2003-02-13

Similar Documents

Publication Publication Date Title
JP3729161B2 (en) Target position search apparatus, target position search method and program
JP4508031B2 (en) Target position search apparatus, target position search method and program
JP3781016B2 (en) Electronic camera, photographing direction acquisition method and program
US10341619B2 (en) Methods, systems, and products for emergency services
US8265597B2 (en) System, method, and device for intelligence gathering and position tracking
KR101838119B1 (en) Device and method for displaying a position of mobile terminal
US7912366B2 (en) System and method for providing photograph location information in a wireless communication device
KR101899351B1 (en) Method and apparatus for performing video communication in a mobile terminal
JPH08322091A (en) News collection support system and news collection portable terminal equipment
US8237613B2 (en) Apparatus and method for identifying subscriber position in portable terminal
JP4697931B2 (en) Information providing system and portable terminal
EP2563008B1 (en) Method and apparatus for performing video communication in a mobile terminal
KR100567545B1 (en) Method for saving and managing location of taken photograph in mobile terminal
KR20060056580A (en) Method for searching location by using camera in mobile phone
JP2002262338A (en) Mobile communication unit
EP1677559B1 (en) Mobile communication terminal and positional information providing method
KR101663478B1 (en) System and method for providing location information using augumented reality
JP2010124185A (en) Mobile communication terminal, and target guidance display system
JP2004163241A (en) Wireless portable terminal, navigation method used for the same, and its program
JP2000196987A (en) Portable information terminal
JP2008182484A (en) Portable terminal device, radio communication system, and radio communication method
JP2003199006A (en) Portable terminal
WO2011002544A1 (en) System, method, and device for intelligence gathering and position tracking
JP2006031529A (en) Map information service method, map information provision device and map information provision program
JP2006115381A (en) Photographing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050926

R150 Certificate of patent or registration of utility model

Ref document number: 3729161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081014

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111014

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111014

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131014

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees