JP5244012B2 - Terminal device, augmented reality system, and terminal screen display method - Google Patents

Terminal device, augmented reality system, and terminal screen display method Download PDF

Info

Publication number
JP5244012B2
JP5244012B2 JP2009087162A JP2009087162A JP5244012B2 JP 5244012 B2 JP5244012 B2 JP 5244012B2 JP 2009087162 A JP2009087162 A JP 2009087162A JP 2009087162 A JP2009087162 A JP 2009087162A JP 5244012 B2 JP5244012 B2 JP 5244012B2
Authority
JP
Japan
Prior art keywords
augmented reality
terminal device
information
reality information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009087162A
Other languages
Japanese (ja)
Other versions
JP2010238096A (en
Inventor
慎 長谷川
毅 忍頂寺
政一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA HOLDINGS CORPORATION
NTT Docomo Inc
Original Assignee
GAIA HOLDINGS CORPORATION
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA HOLDINGS CORPORATION, NTT Docomo Inc filed Critical GAIA HOLDINGS CORPORATION
Priority to JP2009087162A priority Critical patent/JP5244012B2/en
Publication of JP2010238096A publication Critical patent/JP2010238096A/en
Application granted granted Critical
Publication of JP5244012B2 publication Critical patent/JP5244012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、端末装置、拡張現実感システム及び端末画面表示方法に関するものである。   The present invention relates to a terminal device, an augmented reality system, and a terminal screen display method.

従来、携帯電話事業において用いられる移動体通信技術は、アナログ方式の第一世代から、音声通話に加えてデジタル技術によるデータ通信を実現したPDC方式やGSM方式等の第二世代を経て、現在ではより高速なデータ通信やマルチメディアを利用した各種通信サービスを実現するW−CDMA等の第三世代へと発展してきている。また、このような通信技術を用いた移動体通信端末においてもCPU等のプロセッサ、メモリ、各種周辺デバイス及び実装技術の各分野で技術革新が進められた結果、多機能化と高機能化の双方で飛躍的に進歩してきている。   Conventionally, the mobile communication technology used in the mobile phone business has been changed from the first generation of the analog system to the second generation of the PDC system and the GSM system that have realized data communication by digital technology in addition to voice calls. It has been developed into a third generation such as W-CDMA which realizes higher-speed data communication and various communication services using multimedia. In addition, in mobile communication terminals using such communication technology, as a result of technological innovations in the fields of processors such as CPUs, memories, various peripheral devices, and mounting technologies, both multi-functionality and high functionality have been achieved. Has made great progress.

このように、移動体通信及び通信端末に関する技術が高度に進歩してきたことにより、音声通話に加えて、テレビ通話、電子メール、Webブラウジング、チャット等の様々な通信サービスが携帯電話端末で実現されている。また、多機能化した通信端末には、液晶/有機EL表示モジュール、カメラモジュール、非接触ICカードモジュール、赤外線通信モジュール、Bluetooth(登録商標)通信モジュール、WiFi(登録商標)通信モジュール、GPSモジュールのような各種デバイスが搭載されている。   As described above, with the advancement of technologies related to mobile communication and communication terminals, various communication services such as video calls, e-mails, web browsing, and chats are realized in mobile phone terminals in addition to voice calls. ing. Multifunctional communication terminals include liquid crystal / organic EL display modules, camera modules, non-contact IC card modules, infrared communication modules, Bluetooth (registered trademark) communication modules, WiFi (registered trademark) communication modules, and GPS modules. Various devices are installed.

更に、通信端末の多機能化は搭載されるソフトウェアの面においても進歩してきており、各種モジュールを制御する種々のアプリケーションソフト、また各種ビューア、マルチメディアプレーヤ、ブラウザ、メーラ、ゲーム、PIM等のアプリケーションソフトが端末のオペレーティングシステム上に実装されており、マルチタスク機能により複数のアプリケーションを同時並行的に実行可能とすることで極めて高度な機能の実現が可能となっている。   Furthermore, multi-functionalization of communication terminals has also advanced in terms of installed software, and various application software for controlling various modules, and various viewers, multimedia players, browsers, mailers, games, PIM, and other applications Software is installed on the operating system of the terminal, and it is possible to realize an extremely advanced function by enabling a plurality of applications to be executed concurrently by the multitask function.

一方、情報処理の分野では、コンピュータグラフィックスにより仮想的な現実空間を構成する仮想現実(Virtual Reality)や、現実空間の映像をコンピュータで処理して更なる情報を付加する拡張現実感(AR;Augumented Reality)に関する研究が進められており、特に最近では、拡張現実感技術(AR技術)が注目されている。このAR技術を用いた拡張現実感の実現方法には様々な態様が考えられるが、その一つにカメラ付き携帯電話端末を利用したものを挙げることができる。   On the other hand, in the field of information processing, virtual reality (virtual reality) that forms a virtual reality space by computer graphics, or augmented reality (AR;) that processes a video of the real space with a computer and adds further information. Research on Augmented Reality) is underway, and recently, augmented reality technology (AR technology) has attracted attention. There are various modes for realizing the augmented reality using the AR technology, and one of them is a method using a camera-equipped mobile phone terminal.

例えば、米国MOBILIZY社は、携帯電話端末用オープンプラットフォームの一つであるAndroid(登録商標)向けに、カメラでキャプチャーされた実空間の風景映像に対して観光情報を重畳して表示するトラベルガイド機能を有するアプリケーション製品を提供している。このアプリケーションは、通信端末の位置情報(例えば、GPS測位またはユーザの手入力による位置情報)を情報提供サーバに対して通信端末に送信させて、この情報提供サーバに予め登録された情報から通信端末の周辺の観光情報をこの情報提供サーバから通信端末に受信させる。そして、このアプリケーションは、通信端末に受信させた観光情報を、実空間の風景映像に対して重畳して表示させることにより、拡張現実感を実現するものである。   For example, US MOBILIZY, Inc. has a travel guide function that overlays and displays tourist information on landscape images captured by a camera for Android (registered trademark), one of the open platforms for mobile phones. Application products with This application causes the information providing server to transmit the position information of the communication terminal (for example, position information obtained by GPS positioning or user input) to the communication terminal, and the communication terminal uses the information registered in advance in the information providing server. Sightseeing information of the surrounding area is received by the communication terminal from this information providing server. And this application implement | achieves augmented reality by superimposing and displaying the tourist information received by the communication terminal with respect to the landscape image of real space.

また、例えば、下記の特許文献1には、カメラを景色の方向に向けて光学イメージを形成するとともに、カメラの位置及び光軸の姿勢を測定して、測定された位置及び姿勢によって定められる記憶された電子イメージと、カメラによって得られた光学イメージとを結合させて表示する技術が開示されている。   Further, for example, in Patent Document 1 below, an optical image is formed with the camera facing in a landscape direction, and the position determined by the measured position and orientation is measured by measuring the position of the camera and the orientation of the optical axis. A technique for displaying a combined electronic image and an optical image obtained by a camera in combination is disclosed.

特許第3700021号公報Japanese Patent No. 3700021

カメラで得られた光学イメージに対して付加情報を重畳する上記の拡張現実感技術においては、光学イメージにおける適切な位置に付加情報を重畳することが望まれる。このため、カメラが移動する場合、例えば方位センサによりカメラの姿勢や角度を精度よく監視し、検出された姿勢や角度の変位量に応じて付加情報の重畳位置を適切に再決定して、再描画することが行われる。   In the augmented reality technique in which the additional information is superimposed on the optical image obtained by the camera, it is desired to superimpose the additional information at an appropriate position in the optical image. For this reason, when the camera moves, for example, the orientation and angle of the camera are accurately monitored by an azimuth sensor, and the superimposed position of the additional information is appropriately re-determined according to the detected amount of displacement of the orientation and angle. Drawing is done.

しかしながら、付加情報の重畳位置を適切に再決定して再描画する処理が与えるシステム負荷は無視できるものではなく、移動するカメラで実空間の映像を連続的に取得しながら付加情報を重畳しようとすると、システム負荷により処理がスムーズに行われず連続的な画面描画が不可能となることがあった。このようなシステム負荷は、内蔵メモリや処理能力の面の制限を有する携帯電話端末では特に顕著となり得る問題である。また、処理自体はスムーズに行われていても、重畳される付加情報が過剰であると表示画面がチラついて見にくくなってしまうという問題もある。   However, the system load imposed by the process of re-determining and redrawing the additional information appropriately is not negligible, and trying to superimpose additional information while continuously acquiring real-space video with a moving camera. As a result, processing may not be performed smoothly due to system load, and continuous screen drawing may not be possible. Such a system load is a problem that can be particularly noticeable in a mobile phone terminal that has limitations in terms of built-in memory and processing capability. In addition, even if the processing itself is performed smoothly, there is a problem that if the additional information to be superimposed is excessive, the display screen flickers and becomes difficult to see.

そこで本発明は、上記問題点を解消する為になされたものであり、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能な端末装置、拡張現実感システム及び端末画面表示方法を提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems, and superimposing additional information on the continuously displayed video while continuously acquiring and displaying the real space video with the camera. A terminal device, an augmented reality system, and a terminal capable of reducing the system load when redrawing the additional information while superimposing the additional information on an appropriate position even when the camera moves in the processing An object is to provide a screen display method.

上記課題を解決するため、本発明に係る端末装置は、実空間の映像を連続的に取得するカメラ部と、カメラ部の姿勢および角度を検出する方位センサと、画面を表示する表示部と、位置情報に関連付けられた拡張現実感情報を記憶した記憶部と、各部の動作を制御するとともに情報処理機能を実現する制御部とを備え、制御部は、カメラ部の姿勢および角度に基づいて拡張現実感情報の表示位置を決定し、実空間の映像に重畳して表示部に表示するとともに、表示位置を決定してからカメラ部の姿勢および角度が変位した変位量を方位センサにより検出し、変位量が閾値を超えた場合に拡張現実感情報の表示位置を再決定して再描画する処理を行う端末装置であって、制御部は、当該端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する処理を行うことを特徴とする。   In order to solve the above problems, a terminal device according to the present invention includes a camera unit that continuously acquires real-space video, an orientation sensor that detects the orientation and angle of the camera unit, a display unit that displays a screen, A storage unit that stores augmented reality information associated with position information, and a control unit that controls the operation of each unit and implements an information processing function. The control unit expands based on the attitude and angle of the camera unit. Determine the display position of the reality information, superimpose it on the real space image and display it on the display unit, detect the displacement amount by which the attitude and angle of the camera unit are displaced after determining the display position, When the amount of displacement exceeds a threshold value, the terminal device performs processing for re-determining and redrawing the display position of the augmented reality information, and the control unit is configured such that the distance from the terminal device is equal to or greater than the first predetermined distance. Augmented reality information Therefore, when the displacement amount exceeds the first predetermined amount, the display position is re-determined and redrawn, and the augmented reality information whose distance from the terminal device is less than the first predetermined distance is When the amount exceeds a second predetermined amount larger than the first predetermined amount, the display position is redetermined and redrawing is performed.

この構成では、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する。このため、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理が行われる。ここで、端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に、表示位置を再決定して再描画するため、単に第一所定量を超えただけで第二所定量との比較とは無関係に表示位置を再決定して再描画する場合に比べて、システム負荷を低減することが可能になる。この結果、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報としての拡張現実感情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能になる。   In this configuration, for the augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds the first predetermined amount. For augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount that is greater than the first predetermined amount. For this reason, for augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, a process of re-determining and redrawing the display position when the displacement amount exceeds the first predetermined amount is performed. Here, for augmented reality information in which the distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount greater than the first predetermined amount. Therefore, it is possible to reduce the system load as compared with the case where the display position is re-determined and redrawn regardless of the comparison with the second predetermined amount simply by exceeding the first predetermined amount. As a result, the camera moves in the process of superimposing augmented reality information as additional information on the continuously displayed video while continuously acquiring and displaying the video in the real space with the camera. However, it is possible to reduce the system load when redrawing the additional information while superimposing the additional information on an appropriate position.

上記構成においては、制御部は、拡張現実感情報を当該端末装置からの距離が第一所定距離未満のグループと、第一所定距離以上のグループとに区分し、グループ毎に位置決め及び描画する処理を行うのも好ましい。これにより、グループ毎に位置決め及び描画するため、個々の拡張現実感情報の位置決め及び描画する処理を行う場合よりも、再描画する際のシステム負荷をより低減することが可能になる。   In the above configuration, the control unit divides the augmented reality information into a group whose distance from the terminal device is less than the first predetermined distance and a group whose distance is the first predetermined distance or more, and performs positioning and drawing for each group. It is also preferable to carry out. Thereby, since positioning and drawing are performed for each group, it is possible to further reduce the system load during redrawing, compared to the case of performing processing of positioning and drawing individual augmented reality information.

また、制御部は、当該端末装置からの距離が第一所定距離より大きい第二所定距離以上の拡張現実感情報については、変位量が第一所定量より小さい第三所定量を超えた場合に表示位置を再決定して再描画する処理を行うのも好ましい。これにより、端末装置からの距離が第一所定距離より大きい第二所定距離以上の拡張現実感情報については、変位量が第一所定量より小さい第三所定量を超えた場合に表示位置を再決定して再描画する。この結果、端末装置からの距離がより長くなったことにより、上記の変位量が拡張現実感情報の表示位置に与える影響もより大きくなるため、単に第一所定量を超えるまで再描画しない場合に比べて、付加情報をより適切な位置に重畳することが可能になる。   In addition, for the augmented reality information in which the distance from the terminal device is greater than or equal to the second predetermined distance, the displacement amount exceeds a third predetermined amount that is less than the first predetermined amount. It is also preferable to re-determine and redraw the display position. As a result, for augmented reality information whose distance from the terminal device is greater than or equal to the second predetermined distance that is greater than the first predetermined distance, the display position is reset when the displacement exceeds a third predetermined amount that is less than the first predetermined amount. Determine and redraw. As a result, when the distance from the terminal device becomes longer, the influence of the displacement amount on the display position of the augmented reality information becomes larger. In comparison, it is possible to superimpose additional information at a more appropriate position.

また、制御部は、拡張現実感情報を当該端末装置からの距離が第一所定距離未満のグループと、第一所定距離以上且つ第二所定距離未満のグループと、第二所定距離以上のグループとに区分し、グループ毎に位置決め及び描画する処理を行うのも好ましい。これにより、グループ毎に位置決め及び描画するため、個々の拡張現実感情報の位置決め及び描画する処理を行う場合よりも、再描画する際のシステム負荷をより低減することが可能になる。   In addition, the control unit includes the augmented reality information, a group whose distance from the terminal device is less than a first predetermined distance, a group that is greater than or equal to a first predetermined distance and less than a second predetermined distance, It is also preferable to perform processing for positioning and drawing for each group. Thereby, since positioning and drawing are performed for each group, it is possible to further reduce the system load during redrawing, compared to the case of performing processing of positioning and drawing individual augmented reality information.

また、制御部が拡張現実感情報の表示位置を再決定する処理は、方位センサの検出したカメラ部の姿勢および角度が変位した変位量に応じて、現在の表示位置をシフトすることにより行うのも好ましい。これにより、拡張現実感情報を再描画する際に、拡張現実感情報の消去、再表示位置の決定、及び再描画を行う場合よりも、表示位置をシフトさせるだけでよいため、再描画する際のシステム負荷をより低減することが可能になる。   Further, the process of re-determining the display position of the augmented reality information by the control unit is performed by shifting the current display position in accordance with the displacement of the camera unit detected by the orientation sensor and the angle. Is also preferable. As a result, when redrawing augmented reality information, it is only necessary to shift the display position rather than deleting augmented reality information, determining the redisplay position, and redrawing. It is possible to further reduce the system load.

本発明に係る拡張現実感情報システムは、表示部により画面を表示する端末装置と、端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、を備える拡張現実感情報システムであって、サーバは、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する処理を行う、サーバ制御部を備えることを特徴とする。   An augmented reality information system according to the present invention includes a terminal device that displays a screen by a display unit, and a server that is configured to be communicable with the terminal device and has augmented reality information associated with position information. The augmented reality information whose distance from the terminal device is greater than or equal to the first predetermined distance, the server re-determines and redraws the display position when the displacement exceeds the first predetermined amount. For augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is redetermined when the displacement exceeds a second predetermined amount that is greater than the first predetermined amount. And a server control unit for performing the redrawing process.

この構成では、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する。このため、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理が行われる。ここで、端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に、表示位置を再決定して再描画するため、単に第一所定量を超えただけで第二所定量との比較とは無関係に表示位置を再決定して再描画する場合に比べて、システム負荷を低減することが可能になる。この結果、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報としての拡張現実感情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能になる。   In this configuration, for the augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds the first predetermined amount. For augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount that is greater than the first predetermined amount. For this reason, for augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, a process of re-determining and redrawing the display position when the displacement amount exceeds the first predetermined amount is performed. Here, for augmented reality information in which the distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount greater than the first predetermined amount. Therefore, it is possible to reduce the system load as compared with the case where the display position is re-determined and redrawn regardless of the comparison with the second predetermined amount simply by exceeding the first predetermined amount. As a result, the camera moves in the process of superimposing augmented reality information as additional information on the continuously displayed video while continuously acquiring and displaying the video in the real space with the camera. However, it is possible to reduce the system load when redrawing the additional information while superimposing the additional information on an appropriate position.

本発明に係る端末画面表示方法は、表示部により画面を表示する端末装置と、端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、を備える拡張現実感情報システムにおいて行なわれる端末画面表示方法であって、サーバが、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する処理を行う、ステップを有することを特徴とする。   A terminal screen display method according to the present invention comprises an augmented reality comprising: a terminal device that displays a screen by a display unit; and a server configured to be communicable with the terminal device and having augmented reality information associated with position information. A terminal screen display method performed in an information system, wherein the server sets a display position when the displacement exceeds a first predetermined amount for augmented reality information whose distance from the terminal device is a first predetermined distance or more. For the augmented reality information in which the distance from the terminal device is less than the first predetermined distance and the displacement amount exceeds the second predetermined amount that is greater than the first predetermined amount, the re-determined and redrawing process is performed. It has a step of performing a process of re-determining the display position and redrawing.

この構成では、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理を行うとともに、当該端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に表示位置を再決定して再描画する。このため、端末装置からの距離が第一所定距離以上の拡張現実感情報については、変位量が第一所定量を超えた場合に表示位置を再決定して再描画する処理が行われる。ここで、端末装置からの距離が第一所定距離未満の拡張現実感情報については、変位量が第一所定量より大きい第二所定量を超えた場合に、表示位置を再決定して再描画するため、単に第一所定量を超えただけで第二所定量との比較とは無関係に表示位置を再決定して再描画する場合に比べて、システム負荷を低減することが可能になる。この結果、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報としての拡張現実感情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能になる。   In this configuration, for the augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds the first predetermined amount. For augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount that is greater than the first predetermined amount. For this reason, for augmented reality information whose distance from the terminal device is equal to or greater than the first predetermined distance, a process of re-determining and redrawing the display position when the displacement amount exceeds the first predetermined amount is performed. Here, for augmented reality information in which the distance from the terminal device is less than the first predetermined distance, the display position is re-determined and redrawn when the displacement exceeds a second predetermined amount greater than the first predetermined amount. Therefore, it is possible to reduce the system load as compared with the case where the display position is re-determined and redrawn regardless of the comparison with the second predetermined amount simply by exceeding the first predetermined amount. As a result, the camera moves in the process of superimposing augmented reality information as additional information on the continuously displayed video while continuously acquiring and displaying the video in the real space with the camera. However, it is possible to reduce the system load when redrawing the additional information while superimposing the additional information on an appropriate position.

本発明によれば、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能な端末装置、拡張現実感システム及び端末画面表示方法を提供することができる。   According to the present invention, even when the camera moves in the process of superimposing additional information on the continuously displayed image while continuously acquiring and displaying the image of the real space with the camera, It is possible to provide a terminal device, an augmented reality system, and a terminal screen display method capable of reducing the system load when redrawing the additional information while superimposing the additional information on an appropriate position.

端末装置と拡張現実感サーバとを含む拡張現実感システムの構成を概略的に示した構成図である。It is the block diagram which showed schematically the structure of the augmented reality system containing a terminal device and an augmented reality server. 端末装置の主な機能構成を示した機能ブロック図である。It is the functional block diagram which showed the main function structures of the terminal device. 記憶部が記憶している拡張現実感情報のうち位置情報コンテンツのリストの一例である。It is an example of a list of position information contents among augmented reality information stored in the storage unit. 画面表示の一例である。It is an example of a screen display. 画面表示の一例である。It is an example of a screen display. カメラ部の角度ズレによって遠点に位置ズレが生じる態様を示すモデル図、及び、角度ズレに応じて遠点に生じる位置ズレを算出した結果を示す図表である。It is a model figure which shows the aspect which a position shift produces in a far point by the angle shift of a camera part, and the chart which shows the result of having calculated the position shift produced in a far point according to an angle shift. 端末装置からの距離と、アイコン配置の許容幅と、許容幅を満たすズレ角度とに関する調査結果の図表である。It is a table | surface of the investigation result regarding the distance from a terminal device, the allowable width | variety of icon arrangement | positioning, and the shift | offset | difference angle which satisfy | fills an allowable width | variety. 拡張現実感サーバの主な機能構成を示した機能ブロック図である。It is the functional block diagram which showed the main function structures of the augmented reality server. 端末装置の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the terminal device. 端末装置の主な物理構成を示した物理ブロック図である。It is the physical block diagram which showed the main physical structures of the terminal device. 拡張現実感サーバの主な物理構成を示した物理ブロック図である。It is the physical block diagram which showed the main physical structures of the augmented reality server.

以下、添付図面を参照しながら、本発明を実施するための最良の形態について説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明を省略する。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(1)端末装置を含む拡張現実感情報システムの構成
まず、本発明の実施形態に係る端末装置を含む拡張現実感情報システムの構成について、図1を用いて説明する。図1は、本発明の実施形態に係る端末装置100と、端末装置100に拡張現実感情報を提供する拡張現実感サーバ300とを含む拡張現実感システム1の構成を概略的に示した構成図である。なお、拡張現実感情報とは、カメラで得られた光学イメージに対して重畳表示されて説明を行なうための付加情報である。
(1) Configuration of Augmented Reality Information System Including Terminal Device First, the configuration of an augmented reality information system including a terminal device according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram schematically showing a configuration of an augmented reality system 1 including a terminal device 100 according to an embodiment of the present invention and an augmented reality server 300 that provides augmented reality information to the terminal device 100. It is. Note that the augmented reality information is additional information for explanation by being superimposed on an optical image obtained by a camera.

端末装置100は、基地局140等を経由して通信網150と通信接続することによって通信を行う携帯電話端末等のモバイル端末であり、後述するようにイメージ取得機能を備えたカメラ部及びイメージ表示機能を備えた表示部等を備えている。   The terminal device 100 is a mobile terminal such as a mobile phone terminal that performs communication by connecting to the communication network 150 via the base station 140 or the like, and a camera unit and an image display having an image acquisition function as described later A display unit or the like having a function is provided.

拡張現実感サーバ300は、通信網150と通信接続されたネットワーク200と通信接続されたサーバコンピュータシステムである。拡張現実感サーバ300は、同様にネットワーク200と通信接続された外部サーバである地図情報サーバ351、経路情報サーバ361、及び位置情報コンテンツサーバ371並びに端末装置100と通信可能な構成となっている。   The augmented reality server 300 is a server computer system that is communicatively connected to the network 200 that is communicatively connected to the communication network 150. The augmented reality server 300 is configured to be able to communicate with the map information server 351, the route information server 361, the location information content server 371, and the terminal device 100, which are external servers similarly connected to the network 200.

このような構成の拡張現実感システム1は、端末装置100のユーザによって実空間に向けられたカメラ部で取得された画像に、拡張現実感サーバ300が提供する付加情報を重畳表示することにより、このユーザに拡張現実感を与えるサービスを提供するものである。なお、拡張現実感とは、カメラで得られた光学イメージに対して付加情報を付加することにより得られる、仮想空間をより現実的に捉えることができる感覚である。以下、端末装置100及び拡張現実感サーバ300について詳細に説明する。   The augmented reality system 1 having such a configuration superimposes and displays additional information provided by the augmented reality server 300 on an image acquired by the user of the terminal device 100 with the camera unit directed to the real space, A service that provides augmented reality to this user is provided. Note that augmented reality is a sense that allows virtual space to be captured more realistically by adding additional information to an optical image obtained by a camera. Hereinafter, the terminal device 100 and the augmented reality server 300 will be described in detail.

(2)端末装置の構成
引き続き、端末装置100の構成について、図2及び図10を用いて説明する。図2は、本発明の実施形態に係る端末装置100の主な機能構成を示した機能ブロック図であり、図10は、端末装置100の主な物理構成を示した物理ブロック図である。図10に示すように、端末装置100は、CPU11、RAM12、ROM13、操作部14、無線通信部15、ディスプレイ16、及びアンテナ17等のハードウェアにより構成されている。これらの構成要素が動作することにより、端末装置100の後述の機能が発揮される。
(2) Configuration of Terminal Device Next, the configuration of the terminal device 100 will be described using FIG. 2 and FIG. FIG. 2 is a functional block diagram illustrating a main functional configuration of the terminal device 100 according to the embodiment of the present invention, and FIG. 10 is a physical block diagram illustrating a main physical configuration of the terminal device 100. As illustrated in FIG. 10, the terminal device 100 includes hardware such as a CPU 11, a RAM 12, a ROM 13, an operation unit 14, a wireless communication unit 15, a display 16, and an antenna 17. The functions described below of the terminal device 100 are exhibited by the operation of these components.

端末装置100は、図2に示すように、当該端末装置100の位置情報を取得する位置情報取得部101(取得手段)と、画面を表示する表示部102(表示手段)と、ユーザの入力を受け付ける入力部103(入力手段)と、端末が向いている方位を検出する方位センサ104(検出手段)と、通信網150と接続して通信を行う通信部105(通信手段)と、実空間の映像を連続的に取得するカメラ部106(撮像手段)と、所定のプログラム及びデータを記憶する記憶部107(記憶手段)と、各部の動作を制御するとともに所定の情報処理機能を実現する制御部108(制御手段)とを備えて構成されている。   As illustrated in FIG. 2, the terminal device 100 includes a position information acquisition unit 101 (acquisition unit) that acquires position information of the terminal device 100, a display unit 102 (display unit) that displays a screen, and user input. An input unit 103 (input unit) that accepts, an orientation sensor 104 (detection unit) that detects the orientation in which the terminal is facing, a communication unit 105 (communication unit) that communicates by connecting to the communication network 150, and a real space A camera unit 106 (imaging unit) that continuously acquires video, a storage unit 107 (storage unit) that stores predetermined programs and data, and a control unit that controls the operation of each unit and realizes a predetermined information processing function 108 (control means).

位置情報取得部101は、例えば、複数のGPS(Global Positioning System)衛星からの電波を受信して、それらの強度から現在の位置情報を取得するGPSモジュールを利用することができる。また、このGPS方式に加えて通信部105を介して通信網150と通信することにより、端末の近くに存在する衛星の情報をアシストデータとして取得し、位置測定を行うAGPS(Assisted Global Positioning System)方式に対応したモジュールを利用することが可能であり、これを利用すれば、位置情報をより高速かつ正確に取得することができるので好適である。   The position information acquisition unit 101 can use, for example, a GPS module that receives radio waves from a plurality of GPS (Global Positioning System) satellites and acquires current position information from their intensities. In addition to this GPS system, by communicating with the communication network 150 via the communication unit 105, information on satellites existing near the terminal is acquired as assist data, and AGPS (Assisted Global Positioning System) that performs position measurement is performed. It is possible to use a module corresponding to the method, and it is preferable to use this because position information can be acquired more quickly and accurately.

ただし、位置情報取得部101は上記のGPSまたはAGPSを利用するものに限られず、GPSに依存することなく位置情報を取得する構成とすることも可能である。例えば、WiFiやBluetooth(登録商標)等の無線通信基地局を空間内に複数配設し、それらからの電波強度により位置情報を取得する方式を利用してもよいし、このような方式をGPSないしはAGPSに併用する方式を利用することも可能である。   However, the position information acquisition unit 101 is not limited to the one using the above GPS or AGPS, and may be configured to acquire the position information without depending on the GPS. For example, a method may be used in which a plurality of wireless communication base stations such as WiFi and Bluetooth (registered trademark) are arranged in the space, and position information is acquired based on the radio field intensity therefrom. It is also possible to use a method used in combination with AGPS.

表示部102は、液晶表示装置または有機液晶表示装置であって、端末装置100の動作状態や、端末装置100を操作するためのユーザインターフェイス等を制御部108の制御下で表示するものである。端末装置100においては、後述する動作に従って、カメラ部106により取得した実空間の映像に拡張現実感サーバ300から取得した付加情報を重畳して表示することにより拡張現実感をユーザに提供する。   The display unit 102 is a liquid crystal display device or an organic liquid crystal display device, and displays the operating state of the terminal device 100, a user interface for operating the terminal device 100, and the like under the control of the control unit 108. The terminal device 100 provides the user with augmented reality by superimposing and displaying the additional information acquired from the augmented reality server 300 on the video of the real space acquired by the camera unit 106 according to the operation described below.

入力部103は、端末装置100の筐体に設けられたキーパッド、並びにその他ボタン等の入力装置であり、ユーザが操作することにより各キー又はボタンに応じた信号であるキーイベントが制御部108に通知され、種々の操作ないしは制御に利用される。   The input unit 103 is an input device such as a keypad provided in the casing of the terminal device 100 and other buttons. A key event that is a signal corresponding to each key or button is operated by the user, and the control unit 108 Is used for various operations or control.

方位センサ104は、自分が向いている方向やカメラ部106の姿勢及び角度を検出し、それに相当する信号を制御部108に出力するモジュールである。制御部108は、方位センサ104の検出値からユーザが端末装置100を保持している姿勢・角度を認識することが可能である。このような方位センサ104には複数の地磁気センサを組み合わせたものを利用することが可能であり、更に地磁気センサに加えて複数の加速度センサを組み合わせたモーションセンサを用いてもよい。3軸方向の地磁気センサと3軸方向の加速度センサとを組み合わせた6軸センサや、3軸方向の地磁気センサと2軸方向の加速度センサとを組み合わせた5軸センサ、また、加速度センサの代わりにジャイロを用いたもの等は、いずれもモーションセンサとして方位センサ104に利用することができる。このようにモーションセンサを利用した場合、端末装置100の姿勢・角度に関する情報だけでなく、ユーザが端末装置100を動かしたり傾けたりした動作の向き及び速さを検出することが可能となる。   The direction sensor 104 is a module that detects the direction in which the user is facing and the posture and angle of the camera unit 106 and outputs a signal corresponding to the detected direction to the control unit 108. The control unit 108 can recognize the posture / angle at which the user holds the terminal device 100 from the detection value of the direction sensor 104. A combination of a plurality of geomagnetic sensors can be used as such a direction sensor 104, and a motion sensor combining a plurality of acceleration sensors in addition to the geomagnetic sensor may be used. A 6-axis sensor combining a triaxial geomagnetic sensor and a triaxial acceleration sensor, a 5-axis sensor combining a triaxial geomagnetic sensor and a biaxial acceleration sensor, or instead of an acceleration sensor Any device using a gyro can be used for the direction sensor 104 as a motion sensor. When the motion sensor is used as described above, it is possible to detect not only information on the attitude and angle of the terminal device 100 but also the direction and speed of the operation in which the user moves or tilts the terminal device 100.

通信部105は、通信網150と通信接続して、他の端末装置やサーバシステムと通信を行うためのモジュールである。ここでの通信としては、例えば、他の端末装置と通信接続して行う回線交換型通信や、通信網150を介してネットワーク200に接続されたサーバシステムと通信接続して行うパケット交換型通信等を挙げることができる。また、AGPS方式により当該端末装置100の位置情報を取得する場合、通信部105は位置情報取得部101と協調動作して位置情報の取得を補助する。   The communication unit 105 is a module that communicates with the communication network 150 to communicate with other terminal devices and server systems. Examples of the communication here include circuit-switched communication performed by communication connection with other terminal apparatuses, packet-switched communication performed by communication connection with a server system connected to the network 200 via the communication network 150, and the like. Can be mentioned. When acquiring the position information of the terminal device 100 by the AGPS method, the communication unit 105 cooperates with the position information acquisition unit 101 to assist the acquisition of the position information.

カメラ部106は、所定の光学系及び受像素子を有し、デジタル画像を取得する機能を提供するモジュールである。端末装置100でデジタル画像を撮影する際には、起動されたカメラ部106は、通常、光学系の取得した被写体像から所定露光時間で受像素子によりデータを取得する処理を所定時間間隔で繰り返し、当該データを表示部102に表示することによりライブビュー機能を実現する。そして、その状態でユーザが更に入力部103で所定の操作を行うことにより、カメラ部106は光学系の取得した被写体像から設定された撮影条件で画像データを生成し、生成された画像データは記憶部107に記憶保存される。拡張現実感システム1は、上述のライブビュー機能により表示部102に表示される実空間映像に拡張現実感をもたらす情報を重畳表示するものである。   The camera unit 106 is a module that has a predetermined optical system and an image receiving element and provides a function of acquiring a digital image. When the terminal device 100 captures a digital image, the activated camera unit 106 normally repeats the process of acquiring data by the image receiving element at a predetermined exposure time from the subject image acquired by the optical system at a predetermined time interval. The live view function is realized by displaying the data on the display unit 102. Then, when the user further performs a predetermined operation with the input unit 103 in this state, the camera unit 106 generates image data under shooting conditions set from the subject image acquired by the optical system, and the generated image data is It is stored and saved in the storage unit 107. The augmented reality system 1 superimposes and displays information that provides augmented reality on the real space video displayed on the display unit 102 by the above-described live view function.

記憶部107は、所定の情報を制御部108の制御下で記憶し、また記憶している情報を制御部108に提供するためのメモリである。また、記憶部107は、制御部108で実行される種々のプログラムを記憶しており、制御部108はこれを適宜読み出して実行する。記憶部107は、一様な構成である必要はなく、ROM、RAM、Flash ROM等の各種メモリを適宜組み合わせて構成することが可能であり、更にHDDのような二次記憶装置を組み合わせるようにしても構わない。なお、端末装置100に付与された固有の端末IDもその他のデータとともに記憶部107に記憶されている。   The storage unit 107 is a memory for storing predetermined information under the control of the control unit 108 and providing the stored information to the control unit 108. Further, the storage unit 107 stores various programs executed by the control unit 108, and the control unit 108 reads and executes them as appropriate. The storage unit 107 does not need to have a uniform configuration, and can be configured by appropriately combining various memories such as ROM, RAM, Flash ROM, and a secondary storage device such as an HDD. It doesn't matter. The unique terminal ID assigned to the terminal device 100 is also stored in the storage unit 107 together with other data.

また、記憶部107は、後述する拡張現実感サーバ300から提供された種々の拡張現実感情報を記憶している。図3には、記憶部107が記憶している拡張現実感情報のうち位置情報コンテンツのリストを一例として示す。位置情報コンテンツは、位置情報に関連付けられており、端末装置100からのリクエストに応じて拡張現実感サーバ300により位置情報コンテンツサーバ371から取得され、端末装置100にレスポンスとして返したものである。記憶部107のリストには、各位置情報コンテンツについて、コンテンツID、コンテンツタイプ、コンテンツ名及び当該端末装置100の位置情報を含み、更に端末装置100の現在の端末位置からの距離、視野角内か否かの項目が設けられている。このうち、距離と視野角以外の項目については、拡張現実感サーバ300から取得した情報がそのまま記録されており、距離及び視野角の項目については、端末装置100の制御部108が算出及び判断した結果が記録されている。   The storage unit 107 stores various augmented reality information provided from the augmented reality server 300 described later. FIG. 3 shows, as an example, a list of position information contents in the augmented reality information stored in the storage unit 107. The location information content is associated with the location information, is acquired from the location information content server 371 by the augmented reality server 300 in response to a request from the terminal device 100, and is returned to the terminal device 100 as a response. The list of the storage unit 107 includes, for each position information content, the content ID, the content type, the content name, and the position information of the terminal device 100. Further, the distance from the current terminal position of the terminal device 100 is within the viewing angle. No item is provided. Among these items, information obtained from the augmented reality server 300 is recorded as it is for items other than the distance and the viewing angle, and the control unit 108 of the terminal device 100 calculates and determines the items of the distance and the viewing angle. Results are recorded.

制御部108は、不図示のCPU上で記憶部107に記憶されたプログラムを実行することにより仮想的に構成される機能ブロックであって、端末装置100の位置情報取得部101、表示部102、入力部103、方位センサ104、通信部105、カメラ部106及び記憶部107といった各機能ブロックとの間でデータ及び制御信号をやり取りすることにより、端末装置100の各種機能を実現するものである。   The control unit 108 is a functional block that is virtually configured by executing a program stored in the storage unit 107 on a CPU (not shown). The control unit 108 includes a position information acquisition unit 101, a display unit 102, and the like of the terminal device 100. Various functions of the terminal device 100 are realized by exchanging data and control signals with the functional blocks such as the input unit 103, the orientation sensor 104, the communication unit 105, the camera unit 106, and the storage unit 107.

また、制御部108は、位置情報取得部101が取得した当該端末装置100の位置情報を送信してリクエストすることにより拡張現実感サーバ300から当該端末装置100の位置情報に応じた拡張現実感情報のレスポンスを受けて、拡張現実感をユーザに提供する。この場合に特徴的な機能として、カメラ部106の姿勢及び角度に基づいて拡張現実感情報の表示位置を決定し、実空間の映像に重畳して表示部に表示する処理を行う。   Further, the control unit 108 transmits the request for the location information of the terminal device 100 acquired by the location information acquisition unit 101 to request augmented reality information according to the location information of the terminal device 100 from the augmented reality server 300. In response to the response, the augmented reality is provided to the user. As a characteristic function in this case, the display position of the augmented reality information is determined based on the attitude and angle of the camera unit 106, and is displayed on the display unit so as to be superimposed on the real space image.

更に、制御部108は、この表示位置を決定してからカメラ部の姿勢及び角度が変位した変位量を方位センサ104により検出し、変位量が閾値を超えた場合に拡張現実感情報の表示位置を再決定して再描画する処理を行うことが可能である。以下、これらの処理について詳細に説明する。   Further, after determining the display position, the control unit 108 detects the displacement amount in which the posture and angle of the camera unit are displaced by the azimuth sensor 104, and the display position of the augmented reality information when the displacement amount exceeds the threshold value. It is possible to re-determine and redraw. Hereinafter, these processes will be described in detail.

(3)制御部による処理の詳細
引き続き、カメラ部106の姿勢及び角度に基づいて拡張現実感情報の表示位置を決定し、実空間の映像に重畳して表示部102に表示する処理について説明する。この処理では、まず、方位センサ104の検出値からカメラ部106の向いている姿勢・方向を導出し、カメラ部106の水平方向視野角及び垂直方向視野角に基づいて、記憶部107が記憶している拡張現実感情報がカメラ部106の視野に入るか否かを判断し、この判断結果に関する情報を拡張現実感情報のリストに記録する(図3参照)。
(3) Details of Processing by Control Unit Subsequently, processing for determining the display position of augmented reality information based on the attitude and angle of the camera unit 106 and superimposing the information on the real space image and displaying it on the display unit 102 will be described. . In this process, first, the orientation / direction in which the camera unit 106 is facing is derived from the detection value of the azimuth sensor 104, and the storage unit 107 stores it based on the horizontal viewing angle and the vertical viewing angle of the camera unit 106. It is determined whether or not the augmented reality information is within the field of view of the camera unit 106, and information regarding the determination result is recorded in the augmented reality information list (see FIG. 3).

続いて、視野に入ると判断された拡張現実感情報について、端末装置100の現在の位置を原点とした座標空間に配置したと想定し、原点の所定高さを中心点としてカメラの水平方向視野角及び垂直方向視野角並びに映像サイズに基づいて原点から所定距離に定まる矩形平面に各拡張現実感情報を透過投影する処理を行い、透過投影された位置をもって表示位置と決定する。ここで、透過投影する中心点の高さについては、ユーザが立った状態で端末装置100を使用する状況を再現するために、1.5m程度の高さとすることが好適である。また、端末装置100が位置情報取得部101等により現在位置の高度情報を検出可能な場合には、検出された高度に応じた高さに中心点を設定してもよい。   Subsequently, it is assumed that the augmented reality information determined to enter the field of view is arranged in the coordinate space with the current position of the terminal device 100 as the origin, and the horizontal field of view of the camera with the predetermined height of the origin as the center point. Based on the angle, the viewing angle in the vertical direction, and the image size, the augmented reality information is transmitted and projected onto a rectangular plane determined at a predetermined distance from the origin, and the display position is determined based on the position of the transparent projection. Here, it is preferable to set the height of the center point to be transparently projected to a height of about 1.5 m in order to reproduce the situation in which the user uses the terminal device 100 while standing. When the terminal device 100 can detect altitude information at the current position by the position information acquisition unit 101 or the like, the center point may be set at a height corresponding to the detected altitude.

上記処理の後、決定された表示位置に各拡張現実感情報を描画することにより実空間映像に重畳させて表示する処理を行う。このような処理についての制限は特にないが、各拡張現実感情報が所定位置に描画されて残部が透明の画面レイヤーを作成し、この画面レイヤーを実空間映像に重ねて表示部102に表示させることができ、これにより実空間映像の適切な位置に拡張現実感情報が表示される。この際、拡張現実感情報の表示としては、アイコンや、情報バルーンや、サブウィンドウ等の態様が考えられるが、ここでは、拡張現実感情報はアイコン(又は情報バルーン)であるとして説明する。   After the above process, a process is performed in which each augmented reality information is drawn at the determined display position so as to be superimposed on the real space image. Although there is no particular limitation on such processing, each augmented reality information is drawn at a predetermined position and a transparent screen layer is created, and this screen layer is superimposed on the real space video and displayed on the display unit 102. Thus, augmented reality information is displayed at an appropriate position in the real space image. In this case, the augmented reality information may be displayed in the form of an icon, an information balloon, a sub window, or the like. Here, the augmented reality information is assumed to be an icon (or information balloon).

なお、拡張現実感情報をアイコンとして表示することにより画面の煩雑化は避けられるが、画面に表示される情報量が減ってしまうため、例えば拡張現実感情報の種類に応じて外観の異なるアイコンを使い分けるようにしてもよい。図4(a)、(b)、(c)は、拡張現実感情報を丸形のアイコンで表示する画面の例を示したものである。図4(a)は、カメラ部106の取得した実空間の映像を示し、図4(b)は、前述の方法により各拡張現実感情報の表示位置を求めてアイコンを描画したイメージを示し、図4(c)は、これらを重畳して表示した画面である。また、図5(a)、(b)、(c)は、拡張現実感情報を情報バルーンで表示した場合について同様に示したものである。   Although the display of augmented reality information as an icon avoids complication of the screen, the amount of information displayed on the screen is reduced. For example, icons having different appearances according to the type of augmented reality information are displayed. You may make it use properly. FIGS. 4A, 4B, and 4C show examples of a screen that displays augmented reality information with a circular icon. 4A shows an image of the real space acquired by the camera unit 106, and FIG. 4B shows an image in which icons are drawn by obtaining the display position of each augmented reality information by the method described above. FIG. 4C shows a screen in which these are superimposed. FIGS. 5A, 5B, and 5C similarly show the case where the augmented reality information is displayed with an information balloon.

(4)変位量が閾値を越えた場合の処理の詳細
引き続き、表示位置を決定してからカメラ部106の姿勢及び角度が変位した変位量を方位センサ104により検出し、変位量が閾値を超えた場合に拡張現実感情報の表示位置を再決定して再描画する処理について説明する。上記のように実空間映像に拡張現実感情報を重畳して表示する処理を利用して拡張現実感をユーザに提供する際には、カメラ部106で実空間の映像を連続的に取得して表示部102に表示するライブビュー機能が併用される。従って、刻一刻と変化するカメラ部106の姿勢・角度の変位に応じて拡張現実感情報を重畳する位置を適切に制御する必要がある。このためカメラ部106における姿勢及び角度の変化量を方位センサ104で検出し、閾値を超えた場合に再描画する処理を行う。
(4) Details of Processing When Displacement Exceeds Threshold Value Subsequently, after the display position is determined, the displacement amount in which the posture and angle of the camera unit 106 are displaced is detected by the direction sensor 104, and the displacement amount exceeds the threshold value. A process for re-determining the display position of the augmented reality information and redrawing in the case of the above will be described. As described above, when providing augmented reality to the user using the process of superimposing and displaying augmented reality information on the real space video, the camera unit 106 continuously acquires the real space video. A live view function displayed on the display unit 102 is also used. Therefore, it is necessary to appropriately control the position where the augmented reality information is superimposed in accordance with the displacement of the posture and angle of the camera unit 106 that changes every moment. For this reason, the orientation sensor 104 detects the amount of change in posture and angle in the camera unit 106, and performs redrawing processing when the threshold value is exceeded.

しかしながら、重畳する拡張現実感情報の全てについて再位置決めして再描画する処理を過剰に繰り返すことは、システム負荷及びユーザエクスペリエンスの面で好ましくない。図6(a)は、カメラ部106の角度ズレαによって遠点に位置ズレdが生じる態様を示すモデル図であり、図6(b)は、角度ズレαに応じて遠点に生じる位置ズレdを算出した結果を示す図表である。図6(a)及び図6(b)に示すように、角度ズレαの大きさが同じであっても、端末装置100の現在地から対象物までの距離が小さくなるほど位置ズレdは小さくなる。   However, it is not preferable in terms of system load and user experience to excessively repeat the process of repositioning and redrawing all the augmented reality information to be superimposed. FIG. 6A is a model diagram showing a mode in which a positional shift d occurs at the far point due to the angle shift α of the camera unit 106, and FIG. 6B shows a positional shift generated at the far point in accordance with the angular shift α. It is a graph which shows the result of having calculated d. As shown in FIGS. 6A and 6B, even when the angle deviation α is the same, the position deviation d decreases as the distance from the current location of the terminal device 100 to the object decreases.

例えば、10°の角度ズレαが生じると、端末装置100の現在地から500m地点での位置ズレdは約88mに達するが、端末装置100の現在地から10m地点での位置ズレdは約1.7mに過ぎない。従って、10m四方の対象物に情報を重畳している状態でこのような角度ズレαが生じた場合、端末装置100の現在地から対象物までの距離が500mであれば情報を重畳している位置が大きくズレるため再描画の必要があるが、端末装置100の現在地から対象物までの距離が10mであればその必要は認められない。即ち、近距離にある対象物についての拡張現実感情報は、カメラ部106の姿勢角度が変化しても頻繁に書き換える必要はないのである。   For example, when an angle shift α of 10 ° occurs, the position shift d at the point of 500 m from the current location of the terminal device 100 reaches about 88 m, but the position shift d at the point of 10 m from the current location of the terminal device 100 is about 1.7 m. Only. Therefore, when such an angle shift α occurs in a state where information is superimposed on a 10 m square object, if the distance from the current location of the terminal device 100 to the object is 500 m, the position where the information is superimposed However, if the distance from the current location of the terminal device 100 to the object is 10 m, the necessity is not recognized. That is, it is not necessary to frequently rewrite the augmented reality information about the object at a short distance even if the posture angle of the camera unit 106 changes.

そこで、端末装置100においては、端末装置100からの距離が所定値L1(第一所定距離)以上の拡張現実感情報については、上記の変位量がθ1(第一所定量)を超えた場合に表示位置を再決定して再描画する処理を行うとともに、端末装置100からの距離が所定値L1未満の拡張現実感情報については、上記の変位量がθ1より大きいθ2(第二所定量)を超えた場合に表示位置を再決定して再描画する処理を行う。即ち、比較的近距離の地点に関連付けられた拡張現実感情報を再描画するか否かを決定するための閾値θ2を、比較的遠距離の地点に関連付けられた拡張現実感情報を再描画するか否かを決定するための閾値θ1よりも大きく設定している。   Therefore, in the terminal device 100, for augmented reality information in which the distance from the terminal device 100 is equal to or greater than the predetermined value L1 (first predetermined distance), the above displacement amount exceeds θ1 (first predetermined amount). While performing the process of re-determining the display position and redrawing, for augmented reality information whose distance from the terminal device 100 is less than the predetermined value L1, θ2 (second predetermined amount) in which the displacement amount is larger than θ1 is set. When it exceeds, the display position is determined again and redrawing is performed. That is, the threshold value θ2 for determining whether or not to redraw the augmented reality information associated with a relatively short distance point is redrawn, and the augmented reality information associated with the relatively far point is redrawn. It is set larger than the threshold value θ1 for determining whether or not.

このようにすることで、近距離地点に関連付けられた拡張現実感情報を再描画する頻度が低減され、システム負荷を軽減することができ、また頻繁な再描画により画面が見にくくなることも防止することができる。更に、端末装置100からの距離が所定値L1より大きい所定値L2(第二所定距離)以上の拡張現実感情報については、上記の変位量がθ1より小さいθ3(第三所定量)を超えた場合に表示位置を再決定して再描画する処理を行ってもよい。また、それ以上に更に細かく区分して、本発明の主旨の範囲内で個々に閾値を設定するようにしても構わない。   By doing so, the frequency of redrawing augmented reality information associated with a short distance point is reduced, the system load can be reduced, and the frequent redrawing prevents the screen from becoming difficult to see. be able to. Further, for augmented reality information in which the distance from the terminal device 100 is greater than or equal to the predetermined value L2 (second predetermined distance) greater than the predetermined value L1, the displacement amount exceeds θ3 (third predetermined amount) smaller than θ1. In this case, the display position may be re-determined and redrawing may be performed. Further, the threshold value may be set more finely and individually set within the scope of the gist of the present invention.

このような機能を実現するため、制御部108は、拡張現実感情報を、端末装置100からの距離がL1未満の近距離グループと、L1以上の遠距離グループとに区分し、グループ毎に位置決め及び描画する処理を行ってもよい。この場合、実空間の映像上に、近距離グループを描画したレイヤーと、遠距離グループを描画したレイヤーとを重ね合わせた表示画面とすることもできる。更に、制御部108は、拡張現実感情報を、端末装置100からの距離がL1未満の近距離グループと、L1以上且つL2未満の中距離グループと、L2以上の長距離グループとに区分してもよく、それ以上に更に細かく区分することも可能である。   In order to realize such a function, the control unit 108 divides the augmented reality information into a short-distance group whose distance from the terminal device 100 is less than L1 and a long-distance group whose distance is L1 or more, and performs positioning for each group. In addition, a drawing process may be performed. In this case, a display screen in which a layer in which a short distance group is drawn and a layer in which a long distance group is drawn can be superimposed on a real space video. Further, the control unit 108 classifies the augmented reality information into a short distance group whose distance from the terminal device 100 is less than L1, a medium distance group that is greater than or equal to L1 and less than L2, and a long distance group that is greater than or equal to L2. It is also possible to subdivide it further.

(5)閾値の具体的な設定の一例
引き続き、閾値の具体的な設定の一例について、図7を用いて説明する。図7は、端末装置100から50m、100m、400mの各地点に10m幅の対象物があり、カメラ部106で撮影した対象物の映像に制御部108がアイコンを重畳した場合におけるアイコン配置の許容幅Aと、許容幅Aを満たすズレ角度θについて、特定規格のカメラ部106及び表示部102をモデルとして調査した結果の図表である。モデルとしたカメラ部106は視野水平角52°、視野垂直角36°であり、表示部102はHVGAの3インチ液晶である。この場合、表示部102上の対象物サイズは、透過投影法により図7に記載したように算出される。
(5) Example of Specific Setting of Threshold Value Next, an example of specific setting of the threshold value will be described with reference to FIG. FIG. 7 shows the allowance of icon arrangement when there is an object 10 m wide at each point of 50 m, 100 m, and 400 m from the terminal device 100 and the control unit 108 superimposes an icon on the image of the object photographed by the camera unit 106. It is a chart of the result of having investigated the camera part 106 and the display part 102 of a specific standard about the deviation | shift angle (theta) which satisfy | fills the width | variety A and the tolerance | permissible-width A. The model camera unit 106 has a horizontal field of view angle of 52 ° and a vertical field of view angle of 36 °, and the display unit 102 is an HVGA 3-inch liquid crystal. In this case, the object size on the display unit 102 is calculated as described in FIG. 7 by the transmission projection method.

ここで、拡張現実感情報を近距離グループ、中距離グループ、遠距離グループに区分し、更に表示上の演出として遠距離の対象物に関連付けられた情報のアイコンを小さくすることを加味すると、水平方向におけるアイコン表示位置に許容される幅Aは、それぞれ21.12mm、12.56mm、5.64mmとなる。ここで、50m、100m、400mの各地点を撮影した場合に、表示部102上にこれだけの位置ズレを生じさせるズレ角度θを求めたところ、18.45°、10.97°、4.928°となる。初期の段階で対象物の中心にアイコンが重畳されていると仮定すると、そこから許容されるズレ角度θは、それぞれ上記の1/2となる。   Here, when the augmented reality information is divided into a short distance group, a medium distance group, and a long distance group, and further, as an effect on display, the icon of information associated with a long distance object is reduced, the horizontal The width A allowed for the icon display position in the direction is 21.12 mm, 12.56 mm, and 5.64 mm, respectively. Here, when the respective positions of 50 m, 100 m, and 400 m are photographed, the misalignment angle θ that causes such a misalignment on the display unit 102 is obtained, and is found to be 18.45 °, 10.97 °, and 4.929. °. Assuming that an icon is superimposed on the center of the object in the initial stage, the allowable deviation angle θ is ½ of the above.

この結果を考慮に入れて、上記した条件の端末装置100では、例えば拡張現実感情報を端末までの距離50m未満の近距離グループ、50m以上400m未満の中距離グループ、400m以上の遠距離グループに区分し、近距離グループを再描画するカメラ角度変位量の閾値を10°、中距離グループの閾値を6°、長距離グループの閾値を2.5°と設定することができる。ただし、端末装置100の撮像手段となるレンズ及び撮像デバイスの画角と解像度、並びに表示手段となる画面のサイズや解像度に応じて描画位置が算出されることになる。   In consideration of this result, in the terminal device 100 having the above-described conditions, for example, augmented reality information is divided into a short distance group with a distance to the terminal of less than 50 m, a middle distance group with a distance of 50 m to 400 m, and a long distance group with a distance of 400 m or more. It is possible to set the threshold value of the camera angular displacement for re-drawing the short-distance group and 10 °, the threshold value of the medium-distance group 6 °, and the threshold value of the long-distance group 2.5 °. However, the drawing position is calculated according to the angle of view and resolution of the lens and imaging device serving as the imaging unit of the terminal apparatus 100 and the size and resolution of the screen serving as the display unit.

(6)拡張現実感サーバの構成
引き続き、拡張現実感サーバ300の構成について、図8及び図11を用いて説明する。図8は、本発明の実施形態に係る拡張現実感サーバ300の主な機能構成を示した機能ブロック図であり、図11は、拡張現実感サーバ300の主な物理構成を示した物理ブロック図である。図11に示すように、拡張現実感サーバ300は、CPU31、RAM32、ROM33、通信モジュール34、及びハードディスク等の補助記憶装置35等のハードウェアにより構成されている。これらの構成要素が動作することにより、拡張現実感サーバ300の後述の機能が発揮される。
(6) Configuration of Augmented Reality Server Next, the configuration of the augmented reality server 300 will be described with reference to FIGS. 8 and 11. FIG. 8 is a functional block diagram showing the main functional configuration of the augmented reality server 300 according to the embodiment of the present invention, and FIG. 11 is a physical block diagram showing the main physical configuration of the augmented reality server 300. It is. As shown in FIG. 11, the augmented reality server 300 is configured by hardware such as a CPU 31, a RAM 32, a ROM 33, a communication module 34, and an auxiliary storage device 35 such as a hard disk. By operating these components, the later-described functions of the augmented reality server 300 are exhibited.

拡張現実感サーバ300は、端末装置100と通信可能に構成され、拡張現実感情報を有する常駐サーバシステムであり、且つ、Webサーバが常駐するサーバである。拡張現実感サーバ300は、通信部301(装置通信手段)、制御部310(装置制御手段)、及びユーザDB316(装置格納手段)を備えて構成されている。   The augmented reality server 300 is configured to be communicable with the terminal device 100, is a resident server system having augmented reality information, and is a server on which a web server resides. The augmented reality server 300 includes a communication unit 301 (device communication unit), a control unit 310 (device control unit), and a user DB 316 (device storage unit).

より詳しくは、拡張現実感サーバ300は、端末装置100からのリクエストを通信網150及びネットワーク200を介して受け付け、必要に応じてネットワーク200に接続された地図情報サーバ351、経路情報サーバ361、又は位置情報コンテンツサーバ371からデータを取得して、拡張現実感情報を端末装置100に送信することによってレスポンスする処理を行う。   More specifically, the augmented reality server 300 receives a request from the terminal device 100 via the communication network 150 and the network 200, and if necessary, the map information server 351, the route information server 361, or the route information server 361 connected to the network 200. Data is acquired from the position information content server 371 and a response process is performed by transmitting augmented reality information to the terminal device 100.

通信部301は、ネットワークに接続して端末装置100、地図情報サーバ351、経路情報サーバ361、及び位置情報コンテンツサーバ371といった外部サーバと通信を行うネットワークモジュールであり、公知のものを使用することができる。ユーザDB316は、拡張現実感サーバ300のシステム領域内にあるデータベースマシンであり、端末装置100から受け付けた端末装置100の端末ID、位置情報、及びハンドル名等サービス利用者や利用端末を特定可能な情報を関連付けて記録し、管理する。   The communication unit 301 is a network module that communicates with an external server such as the terminal device 100, the map information server 351, the route information server 361, and the location information content server 371 by connecting to a network. it can. The user DB 316 is a database machine in the system area of the augmented reality server 300, and can identify a service user and a use terminal such as the terminal ID, position information, and handle name of the terminal device 100 received from the terminal device 100. Record and manage information in association.

制御部310は、不図示のCPUで所定のプログラムを実行することにより仮想的に構成される機能ブロックである。制御部310は、より詳細には、地図情報サーバ351から地図データを取得する地図データ取得部311、経路情報サーバ361から経路データを取得する経路データ取得部312、位置情報コンテンツサーバ371から位置情報コンテンツを取得する位置情報コンテンツ取得部313、及びユーザDB316にアクセスするユーザデータ部315を有して構成されている。   The control unit 310 is a functional block that is virtually configured by executing a predetermined program by a CPU (not shown). More specifically, the control unit 310 includes a map data acquisition unit 311 that acquires map data from the map information server 351, a route data acquisition unit 312 that acquires route data from the route information server 361, and position information from the position information content server 371. A location information content acquisition unit 313 that acquires content and a user data unit 315 that accesses the user DB 316 are configured.

これら地図データ取得部311、経路データ取得部312、位置情報コンテンツ取得部313、及びユーザデータ部315は、いずれも端末装置100から送信されたリクエストに基づき、対応するCGIプログラムである拡張現実感サーバAPIを呼び出すことにより所定の処理を行うものである。以下、地図データ取得部311、経路データ取得部312、及び位置情報コンテンツ取得部313について詳細に説明する。   These map data acquisition unit 311, route data acquisition unit 312, location information content acquisition unit 313, and user data unit 315 are all augmented reality servers that are corresponding CGI programs based on the request transmitted from the terminal device 100. A predetermined process is performed by calling an API. Hereinafter, the map data acquisition unit 311, the route data acquisition unit 312, and the location information content acquisition unit 313 will be described in detail.

地図データ取得部311は、 端末装置100が地図データを要求した場合に呼び出されるAPIであり、端末装置100から送信された位置情報を中心とした所定範囲についての地図データを公開APIを利用して地図情報サーバ351に要求する。これに応じて地図情報サーバ351が地図情報DB352から対応する地図データを抽出して拡張現実感サーバ300に返却し、拡張現実感サーバ300は取得した地図データを端末装置100で表示可能なデータ形式として端末装置100にリプライする。この際、端末装置100が地図データをリクエストする際に、地図データの範囲及び縮尺をパラメータとして指定している場合、これらを指定して地図情報サーバ351が公開しているAPIを呼び出す処理を行う。   The map data acquisition unit 311 is an API that is called when the terminal device 100 requests map data. The map data about the predetermined range centered on the position information transmitted from the terminal device 100 is disclosed using the public API. Requests to the map information server 351. In response to this, the map information server 351 extracts corresponding map data from the map information DB 352 and returns it to the augmented reality server 300, and the augmented reality server 300 can display the acquired map data on the terminal device 100. To the terminal device 100. At this time, when the terminal device 100 requests map data, if the range and scale of the map data are specified as parameters, a process of calling these APIs specified by the map information server 351 is performed. .

経路データ取得部312は、端末装置100が経路データを要求した場合に呼び出されるAPIであり、端末装置100が位置情報取得部101で取得された位置情報を始点として、併せて送信された位置情報を終点とした経路データを経路情報サーバ361に要求する。これに応じて経路情報サーバ361が経路情報DB362から対応する経路データを生成して拡張現実感サーバ300に返却送信し、拡張現実感サーバ300は取得した経路データを端末装置100で対応可能なデータ形式として端末装置100にリプライ送信する。この際、経路情報サーバ361が総所要時間及び総料金を算出して経路データに付加してリプライ送信してもよい。   The route data acquisition unit 312 is an API that is called when the terminal device 100 requests route data, and the location information that the terminal device 100 transmits together with the location information acquired by the location information acquisition unit 101 as a starting point. Is requested to the route information server 361. In response to this, the route information server 361 generates corresponding route data from the route information DB 362 and sends it back to the augmented reality server 300, and the augmented reality server 300 is data that the terminal device 100 can handle the acquired route data. A reply is sent to the terminal device 100 as a format. At this time, the route information server 361 may calculate the total required time and the total fee, add them to the route data, and send a reply.

位置情報コンテンツ取得部313は、端末装置100が位置情報コンテンツを要求した場合に呼び出されるAPIである。ここで、位置情報コンテンツとは、駅、空港、港、バス停、インターチェンジ、サービスエリア、ガソリンスタンド、レストラン、居酒屋、コンビニ、デパート、病院、学校、信号、曲がり角、交差点等について、それらの位置情報と関連付けられた当該施設の情報をいう。例えば、レストランに関しては、住所、電話番号、ファクス番号、メールアドレス、ホームページURL、紹介文、営業時間情報、店舗画像等を含んだ位置情報コンテンツが、情報サービスプロバイダーの提供するサービスによって公開されている。   The location information content acquisition unit 313 is an API that is called when the terminal device 100 requests location information content. Here, the location information content refers to the location information of stations, airports, ports, bus stops, interchanges, service areas, gas stations, restaurants, taverns, convenience stores, department stores, hospitals, schools, signals, corners, intersections, etc. It refers to information on the associated facility. For example, for restaurants, location information contents including addresses, telephone numbers, fax numbers, e-mail addresses, homepage URLs, introductions, business hours information, store images, etc. are published by services provided by information service providers. .

位置情報コンテンツ取得部313は、端末装置100の位置情報取得部で取得された端末装置100の位置情報を中心とした所定距離内に存在する位置情報コンテンツを、情報サービスプロバイダー等により公開されている位置情報コンテンツサーバ371に要求する要求信号を送信する。これに応じて位置情報コンテンツサーバ371が位置情報コンテンツDB372から条件を満たす位置情報コンテンツを抽出したリストを拡張現実感サーバ300に返却送信し、拡張現実感サーバ300は取得した位置情報コンテンツを端末装置100で利用可能なデータ形式に編集処理して端末装置100にリプライ送信する。   The location information content acquisition unit 313 has released location information content existing within a predetermined distance centered on the location information of the terminal device 100 acquired by the location information acquisition unit of the terminal device 100 by an information service provider or the like. A request signal for requesting the location information content server 371 is transmitted. In response to this, the location information content server 371 returns a list in which the location information content satisfying the conditions from the location information content DB 372 is extracted and transmitted to the augmented reality server 300, and the augmented reality server 300 transmits the acquired location information content to the terminal device. The data is edited into a data format that can be used at 100 and sent to the terminal device 100 as a reply.

この際、位置情報コンテンツ取得部313は、複数の位置情報コンテンツサーバ371に対して位置情報を要求する要求信号を送信することができ、この場合に拡張現実感サーバ300は複数の位置情報コンテンツサーバ371からのリストを共通フォーマットに統合処理して端末装置100にリプライ送信する。また、位置情報コンテンツの分野毎に利用する位置情報コンテンツサーバ371を登録しておけば、端末装置100から要求のあった分野についてのみ位置情報コンテンツを要求する要求信号を送信することも可能である。   At this time, the location information content acquisition unit 313 can transmit a request signal for requesting location information to the plurality of location information content servers 371, and in this case, the augmented reality server 300 has a plurality of location information content servers. The list from 371 is integrated into a common format and sent to the terminal device 100 as a reply. If a location information content server 371 used for each field of location information content is registered, a request signal for requesting location information content can be transmitted only for the field requested by the terminal device 100. .

また、ユーザDB316には別の端末装置の端末ID及び位置情報がユーザのハンドル名とともに記録されているが、かかる内容も位置情報と関連付けられたコンテンツであり、他の位置情報コンテンツと等価に取り扱うことができる。即ち、位置情報コンテンツ取得部313からユーザデータ部315に対して、端末装置100の現在位置から所定距離内の位置情報に関連付けて記録されているユーザのハンドル名を要求する要求信号を送信させ、ユーザデータ部315がこれに応じてユーザDB316から抽出したハンドル名のリストを拡張現実感サーバ300に返却送信し、拡張現実感サーバ300から端末装置100へ共通フォーマットでリプライ送信すれば、他の位置情報コンテンツとともにコンテンツとして利用可能である。   In addition, the terminal ID and position information of another terminal device are recorded in the user DB 316 together with the handle name of the user, but such contents are also contents associated with the position information and are handled equivalently to other position information contents. be able to. That is, the position information content acquisition unit 313 transmits a request signal requesting the user's handle name recorded in association with the position information within a predetermined distance from the current position of the terminal device 100 to the user data unit 315, If the user data unit 315 returns a handle name list extracted from the user DB 316 in response to the augmented reality server 300 and transmits the reply from the augmented reality server 300 to the terminal device 100 in a common format, another position can be obtained. It can be used as content together with information content.

(7)拡張現実感システムにおける端末装置の動作
引き続き、拡張現実感システム1における端末装置100の動作について、図9を用いて説明する。図9は、端末装置100の動作を示したフローチャートである。なお、ここでは、拡張現実感情報の遠距離グループを再描画するか否かを決定するための閾値θ3、中距離グループを再描画するか否かを決定するための閾値θ1、近距離グループを再描画するか否かを決定するための閾値θ2は、θ3<θ1<θ2の関係を満たしている。
(7) Operation of Terminal Device in Augmented Reality System Next, the operation of the terminal device 100 in the augmented reality system 1 will be described with reference to FIG. FIG. 9 is a flowchart showing the operation of the terminal device 100. Here, a threshold value θ3 for determining whether or not to redraw a long distance group of augmented reality information, a threshold value θ1 for determining whether or not to redraw a medium distance group, and a short distance group are set. The threshold value θ2 for determining whether or not to redraw satisfies the relationship θ3 <θ1 <θ2.

この動作は、ユーザが端末装置100の入力部103を操作して拡張現実感プログラムを起動することにより開始され、まずカメラ部106及び各種センサ(特に、位置情報取得部101及び方位センサ104)が起動され、初期画面にライブビュー表示が開始される(ステップST101)。ライブビュー表示は、常法に従って、起動されたカメラ部106の光学系により取得された被写体像から所定露光時間で受像素子により映像データを生成し、当該データを表示部102に表示させる処理を所定時間間隔で繰り返すことにより行われる。続いて、位置情報取得部101の検出値より端末装置100の現在位置に係る位置情報が取得される(ステップST102)。   This operation is started by the user operating the input unit 103 of the terminal device 100 to start the augmented reality program. First, the camera unit 106 and various sensors (particularly, the position information acquisition unit 101 and the orientation sensor 104) are operated. The live view display is started on the initial screen (step ST101). Live view display is a process in which video data is generated by an image receiving element with a predetermined exposure time from a subject image acquired by the optical system of the activated camera unit 106 and displayed on the display unit 102 according to a conventional method. It is performed by repeating at a predetermined time interval. Subsequently, the position information related to the current position of the terminal device 100 is acquired from the detection value of the position information acquisition unit 101 (step ST102).

次に、端末装置100が、ステップST102で取得した位置情報を拡張現実感サーバ300へ送信して、拡張現実感情報をリクエストするリクエスト信号を送信し(ステップST103)、拡張現実感サーバ300によりレスポンスされた端末装置100周辺の拡張現実感情報のリストを受信して、記憶部107に記録する(ステップST104)。   Next, the terminal device 100 transmits the position information acquired in step ST102 to the augmented reality server 300, transmits a request signal for requesting augmented reality information (step ST103), and the augmented reality server 300 responds. The list of augmented reality information around the terminal device 100 is received and recorded in the storage unit 107 (step ST104).

次に、端末装置100が、ステップST104で受信したリストの拡張現実感情報について、方位センサ104で検出されたカメラ部106の姿勢及び角度の情報と、ステップST102で取得された位置情報とに基づいて、リストに記載された情報の関連付けられた地点がカメラ部106の視界に入るかを個々に判定し、その結果を記憶部107に記憶された拡張現実感情報のリストに記録する(ステップST105)。   Next, for the augmented reality information of the list received in step ST104, the terminal device 100 is based on the orientation and angle information of the camera unit 106 detected by the orientation sensor 104 and the position information acquired in step ST102. Then, it is individually determined whether the point associated with the information described in the list falls within the field of view of the camera unit 106, and the result is recorded in the list of augmented reality information stored in the storage unit 107 (step ST105). ).

次に、端末装置100が、各情報の関連付けられた地点と端末装置100との距離を算出して記憶部107に記憶されたリストに記録し(ステップST106)、端末装置100との距離に応じて情報を近距離グループ、中距離グループ、長距離グループに区分してリストに記録する(ステップST107)。   Next, the terminal device 100 calculates the distance between the point associated with each piece of information and the terminal device 100 and records it in the list stored in the storage unit 107 (step ST106), and according to the distance from the terminal device 100 The information is classified into a short distance group, a medium distance group, and a long distance group and recorded in a list (step ST107).

次に、端末装置100が、端末装置100の現在位置を原点とした座標空間に、抽出された拡張現実感情報を配置したと想定して、原点の所定高さを中心点としてカメラの水平方向視野角及び垂直方向視野角並びに映像サイズに基づいて、原点から所定距離に定まる矩形平面に各拡張現実感情報を透過投影する処理を行い、矩形平面上に透過投影された位置をもって拡張現実感情報の表示位置と決定する(ステップST108)。そして、端末装置100が、表示部102の当該描画位置に拡張現実感情報を描画し、ライブビュー画面に重畳して表示する(ステップST109)。   Next, assuming that the terminal device 100 has placed the extracted augmented reality information in a coordinate space with the current position of the terminal device 100 as the origin, the horizontal direction of the camera with the predetermined height of the origin as the center point Based on the viewing angle, the vertical viewing angle, and the video size, each augmented reality information is translucently projected onto a rectangular plane determined at a predetermined distance from the origin, and the augmented reality information is transmitted and projected on the rectangular plane. The display position is determined (step ST108). Then, the terminal device 100 draws the augmented reality information at the drawing position of the display unit 102, and displays it superimposed on the live view screen (step ST109).

以上の動作により、実空間の映像に拡張現実感情報を重畳して表示する動作が行われ、ユーザに拡張現実感を提供するサービスを実現することが可能になる。以降の動作では、ユーザが端末装置100を傾けたり移動させたりしながら実空間をスキャンしている間に、拡張現実感情報を適切な位置に重畳するための処理が行われる。   With the above operation, an operation of superimposing and displaying the augmented reality information on the video in the real space is performed, and a service for providing augmented reality to the user can be realized. In the subsequent operation, while the user scans the real space while tilting or moving the terminal device 100, a process for superimposing the augmented reality information on an appropriate position is performed.

ここでは、まず端末装置100のタイマtがカウントを開始し(ステップST110)、終了指示の有無が確認される(ステップST111)。ここで終了指示があったと判断された場合、一連の動作が終了する。一方、終了指示があったと判断されなった場合、タイマtが所定値nに達したか否かが判断される(ステップST112)。ここで、タイマtが所定値nに達していないと判断された場合、ステップST111以降の動作を繰り返す(ステップST112)。   Here, first, the timer t of the terminal device 100 starts counting (step ST110), and the presence / absence of an end instruction is confirmed (step ST111). If it is determined here that an end instruction has been issued, the series of operations ends. On the other hand, if it is not determined that there has been an end instruction, it is determined whether or not the timer t has reached a predetermined value n (step ST112). Here, when it is determined that the timer t has not reached the predetermined value n, the operation after step ST111 is repeated (step ST112).

一方、ステップST112でタイマtが所定値nに達したと判断された場合、方位センサ104によりカメラ部106の姿勢及び角度が検出される(ステップST113)。続いて、ステップST113で検出されたカメラ部106の姿勢及び角度について、遠距離グループの拡張現実感情報を前回描画した時の姿勢及び角度からの変位量が算出され、変位量がθ3以上であるか否かが判断される(ステップST114)。ここでθ3以上変位していると判断された場合、遠距離グループの拡張現実感情報について、ステップST108と同様の処理により表示位置を再決定し、再描画を行う(ステップST115)。この際、前回遠距離グループの表示位置を決定するのに使用したカメラ部106の姿勢及び角度の値は記憶部107に記憶保存されているが、その値は、今回のステップST115において表示位置の再決定に使用したカメラ部106の姿勢及び角度の値に更新される。また、ステップST114でθ3以上変位していると判断されなかった場合、ステップST110に戻ってタイマをリセットして再スタートし、上記の処理を繰り返す。   On the other hand, when it is determined in step ST112 that the timer t has reached the predetermined value n, the orientation sensor 104 detects the attitude and angle of the camera unit 106 (step ST113). Subsequently, with respect to the posture and angle of the camera unit 106 detected in step ST113, the displacement amount from the posture and angle when the augmented reality information of the long distance group was previously drawn is calculated, and the displacement amount is θ3 or more. Is determined (step ST114). If it is determined that the displacement is greater than θ3, the display position of the long-distance group augmented reality information is re-determined by the same processing as in step ST108, and redrawing is performed (step ST115). At this time, the values of the posture and angle of the camera unit 106 used to determine the display position of the long-distance group last time are stored and stored in the storage unit 107. It is updated to the values of the posture and angle of the camera unit 106 used for redetermination. If it is not determined in step ST114 that the displacement is greater than θ3, the process returns to step ST110, the timer is reset and restarted, and the above processing is repeated.

ステップST114でθ3以上変位していると判断され、ステップST115で遠距離グループの再描画を行った後、中距離グループの拡張現実感情報を前回描画した時の姿勢及び角度からの変位量が算出され、変位量がθ1以上であるかが判断される(ステップST116)。ここでθ1以上変位していると判断された場合、中距離グループの拡張現実感情報について、ステップST108と同様の処理により表示位置を再決定し、再描画を行う(ステップST117)。この際、前回中距離グループの表示位置を決定するのに使用したカメラ部106の姿勢及び角度の値は記憶部107に記憶保存されているが、その値は、今回のステップST117において表示位置の再決定に使用したカメラ部106の姿勢及び角度の値に更新される。また、ステップST116でθ1以上変位していると判断されなかった場合、ステップST110に戻ってタイマをリセットして再スタートし、上記の処理を繰り返す。   In step ST114, it is determined that the displacement is greater than θ3, and after redrawing the long distance group in step ST115, the displacement amount from the posture and angle when the augmented reality information of the middle distance group was drawn last time is calculated. Then, it is determined whether the displacement amount is equal to or greater than θ1 (step ST116). If it is determined that the displacement is greater than θ1, the display position of the medium-distance group augmented reality information is re-determined by the same processing as in step ST108, and redrawing is performed (step ST117). At this time, the values of the posture and angle of the camera unit 106 used to determine the display position of the previous intermediate distance group are stored and stored in the storage unit 107, and the values are stored in the current step ST117. It is updated to the values of the posture and angle of the camera unit 106 used for redetermination. If it is not determined in step ST116 that the displacement is greater than θ1, the process returns to step ST110, the timer is reset and restarted, and the above processing is repeated.

一方、ステップST116でθ1以上変位していると判断され、ステップST117で中距離グループの再描画を行った後、短距離グループの拡張現実感情報を前回描画した時の姿勢及び角度からの変位量が算出され、変位量がθ2以上であるかが判断される(ステップST118)。ここでθ2以上変位していると判断された場合、短距離グループの拡張現実感情報について、ステップST108と同様の処理により表示位置を再決定し、再描画を行う(ステップST119)。この際、前回中距離グループの表示位置を決定するのに使用したカメラ部106の姿勢及び角度の値は記憶部107に記憶保存されているが、その値は、今回のステップST118において表示位置の再決定に使用したカメラ部106の姿勢及び角度の値に更新され、ステップST110に戻ってタイマをリセットして再スタートし、上記の処理を繰り返す。   On the other hand, it is determined in step ST116 that the displacement is equal to or more than θ1, and after redrawing the medium distance group in step ST117, the displacement amount from the posture and angle when the augmented reality information of the short distance group was previously drawn. Is calculated, and it is determined whether the displacement amount is equal to or larger than θ2 (step ST118). If it is determined that the displacement is greater than θ2, the display position of the short-distance group augmented reality information is re-determined by the same processing as in step ST108, and redrawing is performed (step ST119). At this time, the values of the posture and angle of the camera unit 106 used to determine the display position of the previous middle distance group are stored and stored in the storage unit 107, and the values are displayed at the current step ST118. The values are updated to the values of the attitude and angle of the camera unit 106 used for redetermination, and the process returns to step ST110 to reset and restart the timer, and repeat the above processing.

なお、ステップST116でθ1以上変位していると判断されなかった場合も、ステップST110に戻って上記の処理を繰り返す。なお、図9のフローチャートでは、ステップST113以降の処理を順次行なう構成としているが、ステップST113で検出されたカメラ部106の姿勢及び角度に応じて、ステップST114、ステップST116、ステップST118を同時並行で実行処理し、表示位置の再決定及び再描画が必要なグループのみ、表示位置を再決定して再描画する構成としても構わない。   Even if it is not determined in step ST116 that the displacement is greater than θ1, the process returns to step ST110 and the above processing is repeated. In the flowchart of FIG. 9, the processing after step ST113 is sequentially performed. However, step ST114, step ST116, and step ST118 are performed in parallel according to the attitude and angle of the camera unit 106 detected at step ST113. Only a group that has been subjected to execution processing and requires re-determination and re-drawing of the display position may be re-determined and re-drawn.

(8)本発明による作用及び効果
上記したような処理により、本発明の実施形態に係る端末装置100は、カメラ部106で実空間の映像を連続的に取得して表示しつつ、連続的に表示される映像に情報を重畳する拡張現実感技術において、付加情報としての拡張現実感情報を端末装置100からの距離に応じてグループ化して、カメラ部106の姿勢及び角度がグループ毎の閾値以上となった場合に表示位置の再決定及び再描画を行うものである。
(8) Operation and effect of the present invention Through the processing as described above, the terminal device 100 according to the embodiment of the present invention continuously acquires and displays the real-space video by the camera unit 106, and continuously. In the augmented reality technology that superimposes information on the displayed video, augmented reality information as additional information is grouped according to the distance from the terminal device 100, and the posture and angle of the camera unit 106 is equal to or greater than the threshold for each group. In this case, the display position is redetermined and redrawn.

そして、端末装置100から近距離のグループについて、遠距離のグループよりも閾値を大きくすることにより、不必要な表示位置の再決定及び再描画処理の発生を抑制している。従って、拡張現実感情報を常時適切な位置に重畳しつつ、姿勢・角度の変位に応じた再描画のシステム負荷を低減することができ、また過剰な再描画により表示部102の画面が見にくくなることを防止することが可能である。   Then, for a group at a short distance from the terminal device 100, the threshold value is set larger than that for the group at a long distance, thereby suppressing unnecessary display position redetermination and redrawing processing. Therefore, it is possible to reduce the system load of redrawing according to the posture / angle displacement while always superimposing augmented reality information at an appropriate position, and it is difficult to see the screen of the display unit 102 due to excessive redrawing. It is possible to prevent this.

また、上記動作のステップST115、ステップST117、及びステップST119においては、ステップST106と同様の処理で拡張現実感情報の表示位置を決定したが、表示位置を決定する方法は前述した透過投影処理を繰り返すものに限られない。例えば、現在表示している各拡張現実感情報の位置を、カメラ部106の姿勢及び角度の変化量や方向等に応じて所定量だけ一律にシフトすることにより決定する構成とすることもできる。このようにすれば、ステップST115、ステップST117、及びステップST119におけるシステム負荷をより一層軽減することが可能となる。   In steps ST115, ST117, and ST119 of the above operation, the display position of the augmented reality information is determined by the same process as in step ST106. However, the method for determining the display position repeats the above-described transmission projection process. It is not limited to things. For example, the position of each currently displayed augmented reality information can be determined by uniformly shifting the position of the camera unit 106 by a predetermined amount in accordance with the posture and angle change amount and direction of the camera unit 106. In this way, it is possible to further reduce the system load in step ST115, step ST117, and step ST119.

(9)変形例
本発明の実施形態に係る拡張現実感システム1は、上記した実施形態に限られるものではなく、種々の変形が可能である。例えば、上記した実施形態では、拡張現実感情報を3つのグループに区分して再描画の制御を行う構成を示したが、拡張現実感情報を近距離グループと遠距離グループの2つのグループに区分して再描画の制御を行なってもよいことは勿論である。また、本発明の主旨を逸脱しない範囲であれば、拡張現実感情報を4つ以上のグループに区分するよう構成としてもよい。
(9) Modified Examples The augmented reality system 1 according to the embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the above-described embodiment, the configuration is shown in which the augmented reality information is divided into three groups and the redrawing control is performed. However, the augmented reality information is divided into two groups, a short-distance group and a long-distance group. Of course, redrawing control may be performed. Further, the augmented reality information may be divided into four or more groups as long as they do not depart from the gist of the present invention.

また、上記した実施形態では、通信網150と通信接続する端末装置100について説明したが、拡張現実感情報が適切に記憶部107に記憶されているのであれば、端末装置100が通信網150と通信接続することは必須の構成要件ではない。例えば、端末装置は、自動車等の車両に搭載されるナビゲーション端末であってもよい。   In the above-described embodiment, the terminal device 100 connected to the communication network 150 has been described. However, if the augmented reality information is appropriately stored in the storage unit 107, the terminal device 100 is connected to the communication network 150. Communication connection is not an essential configuration requirement. For example, the terminal device may be a navigation terminal mounted on a vehicle such as an automobile.

本発明によれば、カメラで実空間の映像を連続的に取得して表示しつつ、この連続的に表示される映像に付加情報を重畳する処理において、カメラが移動した場合であっても、付加情報を適切な位置に重畳しつつ、付加情報を再描画する際のシステム負荷を低減することが可能な端末装置、拡張現実感システム及び端末画面表示方法を提供することができる。   According to the present invention, even when the camera moves in the process of superimposing additional information on the continuously displayed image while continuously acquiring and displaying the image of the real space with the camera, It is possible to provide a terminal device, an augmented reality system, and a terminal screen display method capable of reducing the system load when redrawing the additional information while superimposing the additional information on an appropriate position.

1…拡張現実感システム、11,31…CPU、12,32…RAM、13,33…ROM、14…操作部、15…無線通信部、16…ディスプレイ、17…アンテナ、34…通信モジュール、35…補助記憶装置、100…端末装置、101…位置情報取得部、102…表示部、103…入力部、104…方位センサ、105…通信部、106…カメラ部、107…記憶部、108…制御部、140…基地局、150…通信網、200…ネットワーク、300…拡張現実感サーバ、301…通信部、310…制御部、311…地図データ取得部、312…経路データ取得部、313…位置情報コンテンツ取得部、315…ユーザデータ部、316…ユーザDB、351…地図情報サーバ、361…経路情報サーバ、371…位置情報コンテンツサーバ、d…位置ズレ、地図情報DB…352、経路情報DB…362、位置情報コンテンツDB…372、α…角度ズレ、θ…ズレ角度。
DESCRIPTION OF SYMBOLS 1 ... Augmented reality system 11, 31 ... CPU, 12, 32 ... RAM, 13, 33 ... ROM, 14 ... Operation part, 15 ... Wireless communication part, 16 ... Display, 17 ... Antenna, 34 ... Communication module, 35 ... Auxiliary storage device 100 ... Terminal device 101 ... Position information acquisition unit 102 ... Display unit 103 ... Input unit 104 ... Direction sensor 105 ... Communication unit 106 ... Camera unit 107 ... Storage unit 108 ... Control , 140 ... base station, 150 ... communication network, 200 ... network, 300 ... augmented reality server, 301 ... communication unit, 310 ... control unit, 311 ... map data acquisition unit, 312 ... route data acquisition unit, 313 ... position Information content acquisition unit, 315 ... user data unit, 316 ... user DB, 351 ... map information server, 361 ... route information server, 371 ... location information container Tsusaba, d ... positional displacement, the map information DB ... 352, route information DB ... 362, position information content DB ... 372, alpha ... angular deviation, theta ... deviation angle.

Claims (7)

実空間の映像を連続的に取得するカメラ部と、前記カメラ部の姿勢および角度を検出する方位センサと、画面を表示する表示部と、位置情報に関連付けられた拡張現実感情報を記憶した記憶部と、前記各部の動作を制御するとともに情報処理機能を実現する制御部とを備え、前記制御部は、前記カメラ部の姿勢および角度に基づいて前記拡張現実感情報の表示位置を決定し、実空間の映像に重畳して前記表示部に表示するとともに、前記表示位置を決定してから前記カメラ部の姿勢および角度が変位した変位量を前記方位センサにより検出し、前記変位量が閾値を超えた場合に前記拡張現実感情報の前記表示位置を再決定して再描画する処理を行う端末装置であって、
前記制御部は、当該端末装置からの距離が第一所定距離以上の前記拡張現実感情報については、前記変位量が第一所定量を超えた場合に前記表示位置を再決定して再描画する処理を行うとともに、
当該端末装置からの距離が前記第一所定距離未満の前記拡張現実感情報については、前記変位量が前記第一所定量より大きい第二所定量を超えた場合に前記表示位置を再決定して再描画する処理を行うことを特徴とする端末装置。
A camera unit that continuously acquires real-space video, an orientation sensor that detects the posture and angle of the camera unit, a display unit that displays a screen, and a memory that stores augmented reality information associated with position information A control unit that controls an operation of each unit and realizes an information processing function, and the control unit determines a display position of the augmented reality information based on an attitude and an angle of the camera unit, The amount of displacement of the posture and angle of the camera unit after the display position is determined is detected by the azimuth sensor after being superimposed on the real space image and displayed on the display unit. A terminal device for performing a process of re-determining and redrawing the display position of the augmented reality information when exceeding,
The controller re-determines and redraws the display position when the displacement exceeds a first predetermined amount for the augmented reality information whose distance from the terminal device is a first predetermined distance or more. As well as processing
For the augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined when the displacement amount exceeds a second predetermined amount that is greater than the first predetermined amount. A terminal device that performs redrawing processing.
前記制御部は、前記拡張現実感情報を当該端末装置からの距離が前記第一所定距離未満のグループと、前記第一所定距離以上のグループとに区分し、グループ毎に位置決め及び描画する処理を行う、
ことを特徴とする請求項1に記載の端末装置。
The control unit divides the augmented reality information into a group having a distance from the terminal device less than the first predetermined distance and a group having the first predetermined distance or more, and performs a process of positioning and drawing for each group. Do,
The terminal device according to claim 1.
前記制御部は、当該端末装置からの距離が前記第一所定距離より大きい第二所定距離以上の前記拡張現実感情報については、前記変位量が前記第一所定量より小さい第三所定量を超えた場合に前記表示位置を再決定して再描画する処理を行う、
ことを特徴とする請求項1に記載の端末装置。
The control unit, for the augmented reality information whose distance from the terminal device is a second predetermined distance greater than the first predetermined distance, the displacement amount exceeds a third predetermined amount smaller than the first predetermined amount. The display position is re-determined and redrawn when
The terminal device according to claim 1, wherein:
前記制御部は、前記拡張現実感情報を当該端末装置からの距離が前記第一所定距離未満のグループと、前記第一所定距離以上且つ前記第二所定距離未満のグループと、前記第二所定距離以上のグループとに区分し、グループ毎に位置決め及び描画する処理を行う、
ことを特徴とする請求項3に記載の端末装置。
The control unit includes the group having a distance from the terminal device that is less than the first predetermined distance, the group that is not less than the first predetermined distance and less than the second predetermined distance, and the second predetermined distance. Divide into the above groups, and perform the process of positioning and drawing for each group.
The terminal device according to claim 3.
前記制御部が前記拡張現実感情報の表示位置を再決定する処理は、前記方位センサの検出した前記カメラ部の姿勢および角度が変位した変位量に応じて、現在の表示位置をシフトすることにより行う、
ことを特徴とする請求項1〜4のいずれか1項に記載の端末装置。
The process of re-determining the display position of the augmented reality information by the control unit is performed by shifting the current display position in accordance with the displacement amount of the attitude and angle of the camera unit detected by the direction sensor. Do,
The terminal device according to any one of claims 1 to 4, wherein:
カメラ部により実空間の映像を連続的に取得するとともに表示部により画面を表示する端末装置と、前記端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、を備える拡張現実感情報システムであって、
前記サーバは、
前記端末装置からの距離が第一所定距離以上の前記拡張現実感情報については、前記カメラ部の姿勢および角度に基づいて前記拡張現実感情報の表示位置を決定してから前記カメラ部の姿勢および角度が変位した変位量が第一所定量を超えた場合に前記表示位置を再決定して再描画する処理を行うとともに、
当該端末装置からの距離が前記第一所定距離未満の前記拡張現実感情報については、前記変位量が前記第一所定量より大きい第二所定量を超えた場合に前記表示位置を再決定して再描画する処理を行う、
サーバ制御部を備えることを特徴とする拡張現実感情報システム。
A terminal device that continuously acquires real-space video by a camera unit and displays a screen by a display unit; a server configured to be able to communicate with the terminal device and having augmented reality information associated with position information; An augmented reality information system comprising:
The server
For the augmented reality information whose distance from the terminal device is a first predetermined distance or more, the display position of the augmented reality information is determined based on the orientation and angle of the camera unit, and then the orientation of the camera unit and When the amount of displacement in which the angle is displaced exceeds a first predetermined amount, the display position is re-determined and redrawn, and
For the augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined when the displacement amount exceeds a second predetermined amount that is greater than the first predetermined amount. Do the redraw process,
An augmented reality information system comprising a server control unit.
カメラ部により実空間の映像を連続的に取得するとともに表示部により画面を表示する端末装置と、前記端末装置と通信可能に構成され、位置情報に関連付けられた拡張現実感情報を有するサーバと、を備える拡張現実感情報システムにおいて行なわれる端末画面表示方法であって、
前記サーバが、前記端末装置からの距離が第一所定距離以上の前記拡張現実感情報については、前記カメラ部の姿勢および角度に基づいて前記拡張現実感情報の表示位置を決定してから前記カメラ部の姿勢および角度が変位した変位量が第一所定量を超えた場合に前記表示位置を再決定して再描画する処理を行うとともに、
当該端末装置からの距離が前記第一所定距離未満の前記拡張現実感情報については、前記変位量が前記第一所定量より大きい第二所定量を超えた場合に前記表示位置を再決定して再描画する処理を行う、
ステップを有することを特徴とする端末画面表示方法。
A terminal device that continuously acquires real-space video by a camera unit and displays a screen by a display unit; a server configured to be able to communicate with the terminal device and having augmented reality information associated with position information; A terminal screen display method performed in an augmented reality information system comprising:
For the augmented reality information whose distance from the terminal device is a first predetermined distance or more, the server determines the display position of the augmented reality information based on the attitude and angle of the camera unit, and then the camera. Performing a process of re-determining and redrawing the display position when the displacement amount of the position and angle of the part exceeds a first predetermined amount;
For the augmented reality information whose distance from the terminal device is less than the first predetermined distance, the display position is re-determined when the displacement amount exceeds a second predetermined amount that is greater than the first predetermined amount. Do the redraw process,
A terminal screen display method comprising steps.
JP2009087162A 2009-03-31 2009-03-31 Terminal device, augmented reality system, and terminal screen display method Active JP5244012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009087162A JP5244012B2 (en) 2009-03-31 2009-03-31 Terminal device, augmented reality system, and terminal screen display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087162A JP5244012B2 (en) 2009-03-31 2009-03-31 Terminal device, augmented reality system, and terminal screen display method

Publications (2)

Publication Number Publication Date
JP2010238096A JP2010238096A (en) 2010-10-21
JP5244012B2 true JP5244012B2 (en) 2013-07-24

Family

ID=43092339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087162A Active JP5244012B2 (en) 2009-03-31 2009-03-31 Terminal device, augmented reality system, and terminal screen display method

Country Status (1)

Country Link
JP (1) JP5244012B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107037403A (en) * 2016-09-26 2017-08-11 蔚来汽车有限公司 Object relative positioning method based on augmented reality

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651386B2 (en) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 Eyeglass type display device
JP2012068481A (en) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd Augmented reality expression system and method
KR101306286B1 (en) 2010-12-17 2013-09-09 주식회사 팬택 Apparatus and method for providing augmented reality based on X-ray view
CN102752505A (en) * 2011-04-19 2012-10-24 鸿富锦精密工业(深圳)有限公司 Camera adjustment system and method
JP5733720B2 (en) * 2011-05-17 2015-06-10 株式会社日立ソリューションズ Information providing system and terminal device
JP5680481B2 (en) * 2011-05-23 2015-03-04 アルパイン株式会社 In-vehicle system
JP5857450B2 (en) * 2011-05-30 2016-02-10 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5709261B2 (en) * 2011-08-10 2015-04-30 Kddi株式会社 Information terminal, information providing system, and information providing method
EP2761440A4 (en) * 2011-09-30 2015-08-19 Intel Corp Mechanism for facilitating context-aware model-based image composition and rendering at computing devices
JP5821526B2 (en) 2011-10-27 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5838747B2 (en) * 2011-11-11 2016-01-06 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5679521B2 (en) 2012-05-18 2015-03-04 横河電機株式会社 Information display device and information display system
JP5705793B2 (en) * 2012-06-21 2015-04-22 ヤフー株式会社 Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
JP6223976B2 (en) 2012-07-23 2017-11-01 富士通株式会社 Display control program, display control method, and display control apparatus
WO2014068706A1 (en) 2012-10-31 2014-05-08 擴張世界有限公司 Image display system, electronic device, program, and image display method
JP6102944B2 (en) * 2012-12-10 2017-03-29 ソニー株式会社 Display control apparatus, display control method, and program
SG11201502707RA (en) * 2012-12-20 2015-05-28 Amadeus Sas Integrating mobile devices into a fixed communication infrastructure
JP5981371B2 (en) * 2013-03-18 2016-08-31 Kddi株式会社 Information terminal, system, program, and method for controlling display of augmented reality by posture
JP2014182597A (en) * 2013-03-19 2014-09-29 Yasuaki Iwai Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
CN106575299A (en) * 2014-08-01 2017-04-19 索尼公司 Information processing device, information processing method, and program
JP6572618B2 (en) * 2015-05-08 2019-09-11 富士通株式会社 Information processing device, information processing program, information processing method, terminal device, setting method, setting program
JP6172233B2 (en) * 2015-10-02 2017-08-02 ソニー株式会社 Image processing apparatus, image processing method, and program
JP6197849B2 (en) * 2015-10-23 2017-09-20 カシオ計算機株式会社 Image display apparatus and program
TWI617931B (en) * 2016-09-23 2018-03-11 李雨暹 Method and system for remote management of location-based space object
US10509556B2 (en) * 2017-05-02 2019-12-17 Kyocera Document Solutions Inc. Display device
CN111383282B (en) * 2018-12-29 2023-12-01 杭州海康威视数字技术股份有限公司 Pose information determining method and device
CN112348888B (en) * 2020-09-09 2023-06-20 北京市商汤科技开发有限公司 Positioning method and device of display device, display device and computer storage medium
CN113453146B (en) * 2021-05-25 2024-01-09 北京小米移动软件有限公司 Equipment interaction control method, equipment interaction control device and storage medium
JP7458362B2 (en) 2021-12-09 2024-03-29 Lineヤフー株式会社 Information processing device, information processing method, and information processing program
JP7459038B2 (en) 2021-12-09 2024-04-01 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884280A (en) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd Head mount type video camera
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method
JP4774346B2 (en) * 2006-08-14 2011-09-14 日本電信電話株式会社 Image processing method, image processing apparatus, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107037403A (en) * 2016-09-26 2017-08-11 蔚来汽车有限公司 Object relative positioning method based on augmented reality

Also Published As

Publication number Publication date
JP2010238096A (en) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5244012B2 (en) Terminal device, augmented reality system, and terminal screen display method
JP5315111B2 (en) Terminal device, information presentation system, and terminal screen display method
US9906702B2 (en) Non-transitory computer-readable storage medium, control method, and computer
US10530998B2 (en) Image processing device, imaging device, image processing method, and program
KR101627191B1 (en) Method and apparatus for determining a user input from inertial sensors
US8682606B2 (en) Generating virtual buttons using motion sensors
US9582937B2 (en) Method, apparatus and computer program product for displaying an indication of an object within a current field of view
JP5978610B2 (en) Information processing apparatus, information processing method, and program
US8619152B2 (en) Mobile terminal and operating method thereof
JP2010239568A (en) Information-presenting system, information-presenting server, communication terminal, and information-presenting method
US20110216165A1 (en) Electronic apparatus, image output method, and program therefor
CN107771310B (en) Head-mounted display device and processing method thereof
US20140152544A1 (en) Displaying system, display controller, storage medium and method
US20190387176A1 (en) Display control apparatus, display control method, and computer program
US20140152562A1 (en) Display controller, display system, storage medium and method
JP2006295827A (en) Mobile terminal instrument
JP2011242989A (en) Submission information control apparatus, submission information control system, and submission information control method
JP2016184295A (en) Display control method, display control program, and information processing apparatus
JP2011060254A (en) Augmented reality system and device, and virtual object display method
JP2009124254A (en) Photographing device
CN105324737A (en) Information processing device, control method for information processing device, program, and information storage medium
JP5432000B2 (en) Information presentation system and program
JP2010171664A (en) Personal digital assistant, information display control method, and information display control program
JP2013206365A (en) Image processor, image processing method and program
JP2018133805A (en) Display device, display system, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5244012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250