JP2011113561A - Methods for rendering graphical images - Google Patents

Methods for rendering graphical images Download PDF

Info

Publication number
JP2011113561A
JP2011113561A JP2010231775A JP2010231775A JP2011113561A JP 2011113561 A JP2011113561 A JP 2011113561A JP 2010231775 A JP2010231775 A JP 2010231775A JP 2010231775 A JP2010231775 A JP 2010231775A JP 2011113561 A JP2011113561 A JP 2011113561A
Authority
JP
Japan
Prior art keywords
graphic
flowchart
user
complexity
graphics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010231775A
Other languages
Japanese (ja)
Inventor
Thomas Ellenby
エレンビー トマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geovector Corp
Original Assignee
Geovector Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/592,239 external-priority patent/US20100127971A1/en
Application filed by Geovector Corp filed Critical Geovector Corp
Publication of JP2011113561A publication Critical patent/JP2011113561A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide methods for defining the complexity and priority of graphics rendering in mobile apparatuses. <P>SOLUTION: The methods for defining the complexity and priority of graphics rendering in mobile equipment based on various physical states and factors related to the mobile system including those measured and sensed by the mobile equipment, such as position, pointing direction and vibration rate are disclosed and described. In particular, a handheld computing system with an image type user interface includes graphical images, generated in response to instantaneous position and orientation of a handheld device for improving the value of the presented image and the overall speed of the system. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本出願は、以前出願された仮出願に依存しない新規の出願である。本出願は、2008年11月21日にカリフォルニア州、サンフランシスコのイギリス人発明者Thomas Ellenbyによって出願されたシリアル番号61/199,922号を有する米国仮出願からの利益及び優先権を主張する。   This application is a new application that does not depend on a previously filed provisional application. This application claims benefit and priority from a US provisional application having serial number 61 / 199,922, filed by British inventor Thomas Ellenby, San Francisco, Calif., On November 21, 2008.

以下における発明の開示は、一般的に、結合型携帯機器の物理的状態に頼ってレンダリングされるコンピュータ・グラフィックイメージに関する。   The disclosure of the invention below generally relates to computer graphic images rendered in dependence upon the physical state of a combined portable device.

現代のコンピュータ・システムは、しばしば、ユーザーのリクエストに応答し極めて動的なイメージを生成するのに使用される。コンピュータ化された機器のユーザーは、対象のパラメータを、例えば、対話型ユーザーインターフェースの方法で特定し、より多くの情報に対する希望を示すか、あるいは具体的により多くの一定の種類の情報に対する希望を示す。ユーザーのビューアーによってかなり特定されたパラメータに応答してイメージ(写真とコンピュータ生成とが混合した)を与える「Google Earth」として知られるすばらしいコンピュータ・アプリケーションは、多くの人々によく知られている。例では、あるユーザーがスキューバダイビングの好適な場所について知りたいならば、そのユーザーは、適切なユーザーインターフェースのチェックボックスをクリックするだけで、マップを再描写させるようにし、そのマップの詳細レベルは、以前記録された好適なスキューバダイビングの場所に関連するマーカーを含むように調整される。マップのタイプのグラフィカル・イメージの詳細レベルが、ユーザーの様々なパラメータの特定に応答すると言われている。   Modern computer systems are often used to generate highly dynamic images in response to user requests. Computerized device users can identify the parameters of interest, for example, in an interactive user interface manner, and indicate a desire for more information or specifically a desire for more certain types of information. Show. A great computer application known as “Google Earth” that gives images (a mix of photos and computer generated) in response to parameters that are fairly specified by the user's viewer is well known to many people. In the example, if a user wants to know the preferred location for scuba diving, he can simply re-draw the map by clicking on the appropriate user interface checkbox, Adjusted to include markers related to previously recorded preferred scuba diving locations. The level of detail of a map type graphical image is said to be responsive to the user's identification of various parameters.

軍事システムは、注視される検出領域内において望ましいターゲットに応答するように、長い間供給されて来ている。General Dynamicsによって開発されたPhalanxミサイル迎撃システムなどのある一定のレーダー・システムは、物標方位における変化などの要因を考慮に入れることによって入って来るターゲットを分類する。一定の方位及び閉鎖範囲を持つターゲットは、その結果、それらの範囲及びアプローチの速度に関して分類される。船に最も早く到達できるターゲットは、「最も重要」として分類され、優先して対処される。   Military systems have been supplied for a long time to respond to desired targets within the gaze detection area. Certain radar systems, such as the Phalanx missile intercept system developed by General Dynamics, classify incoming targets by taking into account factors such as changes in target orientation. Targets with constant azimuth and closed range are consequently classified with respect to their range and approach speed. The target that can reach the ship earliest is classified as “most important” and is dealt with preferentially.

当然のことながら、これらの技術のほぼ全ては、グラフィック・レンダリングに関する新しいトリック及び技術を用いて、他の全分野をリードする傾向のあるコンピュータゲームの世界において最初に出現する。ある1つの重要な発明において、「リアルタイム形状」の方法は、カリフォルニア州CarpenteriaのMetaTools Inc.のDr. Alexander Migdalによって開発された。リアルタイム形状は、グラフィックオブジェクトの詳細を、そのイメージのビューアーからの見かけの距離に応じて修正する。例えば、コンピュータゲームにおけるレースカーは、合成イメージの前景のゲームプレーヤーに向かって轟音を立てて進むとほぼ生きているような詳細を増すが、それが似たシーンの背景の中にさらに戻って行くにつれて解像度を失う。   Of course, nearly all of these technologies first appear in the world of computer games, which tend to lead all other fields, using new tricks and techniques for graphic rendering. In one important invention, the “real-time shape” method was developed by Dr. Alexander Migdal of MetaTools Inc., Carpenteria, California. Real-time shapes modify the details of a graphic object according to its apparent distance from the viewer of the image. For example, a race car in a computer game increases the details that are almost alive as it roars toward a composite image foreground game player, but it goes back into the background of a similar scene As you lose resolution.

しかし、これらのシステムの各々は、それの周囲の環境の瞬間的状態及びそのシーンに関連する装置の状態の視点においてイメージをレンダリングする能力に限られる。当該技術の装置は、それらのイメージ・レンダリング方式において携帯機器の動的パラメータを考慮に入れない。しかし、コンピュータで生成されたグラフィックイメージを、例えば、イメージが表示されている携帯機器などの、レンダリングされているシーンに関連するシステムの物理的状態に関して動的さを与えることは、かなり価値があるだろう。特に、その携帯機器の位置及び方向は、レンダリングされたイメージの詳細のレベルが位置と姿勢(方向)に対応する特定の値によって影響を受けるイメージ・レンダリング・システムに好みを提案してもよい。   However, each of these systems is limited to the ability to render an image in terms of the instantaneous state of its surrounding environment and the state of the device associated with the scene. The devices of the art do not take into account the mobile device's dynamic parameters in their image rendering scheme. However, it is quite valuable to give a computer-generated graphic image dynamic with respect to the physical state of the system relative to the scene being rendered, for example a mobile device on which the image is displayed. right. In particular, the position and orientation of the mobile device may suggest preferences to an image rendering system in which the level of detail of the rendered image is affected by specific values corresponding to the position and orientation (direction).

該技術のシステム及び発明は、特定のゴール及び目的を達成するように設計されており、それらのいくつかは優れている一方、該技術のこれらの発明は、それにもかかわらず、現在可能な新しい方法で使用することを防ぐ限度を含む。該技術の発明は、使用されておらず、ここで以下に示される教示の利点及び目的を実現するように使用することができない。   While the technology systems and inventions are designed to achieve specific goals and objectives, some of them are superior, these inventions of the technology are nevertheless possible at present Include limits to prevent use in methods. The invention of the art is not used and cannot be used here to realize the advantages and objectives of the teaching set forth below.

米国特許第5,815,411号明細書U.S. Pat.No. 5,815,411

ここで、Thomas Ellenbyは、グラフィックイメージの詳細を、表示されている環境に関連する携帯機器の物理的状態に応じて優先順位を付ける方法を含む、グラフィックイメージのレンダリングの方法の発明をもたらした。   Here, Thomas Ellenby has invented a method for rendering graphic images, including a method for prioritizing the details of a graphic image according to the physical state of the mobile device associated with the environment being displayed.

本発明の主な目的は、関連する機器の物理的状態に応じてグラフィックをレンダリングする方法を提供することである。   The main object of the present invention is to provide a method for rendering graphics depending on the physical state of the associated equipment.

本発明の目的は、該機器の形状の特質に反応する携帯・システムを提供することである。   It is an object of the present invention to provide a portable system that reacts to the shape characteristics of the device.

さらなる目的は、選択的及び可変性の詳細を用いたコンピュータ・グラフィック・レンダリングを供給することである。   A further object is to provide computer graphic rendering with selective and variable details.

さらなる理解は、望ましい実施形態の詳細な記載及び添付の図表を参照して得ることができる。示される実施形態は、本発明の実現するための特定の方法であり、全ての可能な方法は含んでいない。従って、添付の請求項によって説明されるように本開示の要旨及び範囲から外れない実施形態が存在してもよいが、ここでは具体的な例としては現れない。多数の代替的な型が可能であることも理解されるだろう。   A further understanding can be obtained by reference to the detailed description of the preferred embodiments and the accompanying diagrams. The illustrated embodiments are specific ways to implement the invention and do not include all possible ways. Thus, there may exist embodiments that do not depart from the spirit and scope of the disclosure as described by the appended claims, but do not appear here as specific examples. It will also be appreciated that many alternative types are possible.

本文献において記載されるグラフィック・レンダリングを制御するために使用されるような「重要度」又は「優先度」の概念は、例えば、携帯・システムの位置及びポイントする方向又は姿勢などの、グラフィックイメージによって表示されているシーンに関連する携帯機器のその機器のサブシステムによって決定される感知状態が、各オブジェクトの重要度の分類において考慮に入れられる点において、従来技術に共通するシステムとは異なる。さらに、選択されたグラフィック要素の重要度係数を修正するために使用される、ある特定のユーザーの習慣及び希望に基づいた使用プロフィールを生成する方法が、開示される。さらに、機器の感知状態に基づいて生成されるべきグラフィックオブジェクトの複雑度に関する限度(例えば、レンダリングされているシーンに関連する携帯・システムの位置及び/又はポイント方向)が開示される。   The concept of “importance” or “priority” as used to control the graphic rendering described in this document is a graphic image, for example, the position and orientation or orientation of the mobile system. Is different from systems common in the prior art in that the sensing state determined by the device subsystem of the portable device associated with the scene displayed by is taken into account in the classification of the importance of each object. Further disclosed is a method of generating a usage profile based on a particular user's habits and desires that is used to modify the importance factor of a selected graphic element. In addition, limits on the complexity of graphic objects to be generated based on the sensed state of the device (eg, portable system position and / or point direction relative to the scene being rendered) are disclosed.

グラフィックの複雑度及びグラフィック・レンダリング又は生成の優先順位を、増大された現実性及び既知のパフォーマンス特性を持つ他の携帯機器によって定めて制御する方法は、携帯装置及び他の入力の様々な感知状態に基づいている。これらの方法は、航空、海路及び陸路ナビゲーション、ゲーミング及び観光(増大された現実性及びその他)、ローカルな検索、スポーツ・ビューイング、及びその他の分野において、とりわけ実用性がある。携帯機器は、GPS、コンパス、及び加速計などのセンサーを、マップ表示及びゲーム・プレイなどの様々な使用のためにさらに組み入れている。位置、ポイント方向、位置変化の速度、スルー速度(slew velocity)、振動速度、その他などの機器の感知される物理的状態を使用することによって、本発明の方法は、携帯機器が最も重要なグラフィックを最初に表示し、又は生成において優先権を与えることを可能にし、その携帯機器がグラフィックを、それらの感知状態に適切な複雑度のレベルで表示することもまた可能にする。   A method for defining and controlling the complexity of graphics and the priority of graphic rendering or generation by other portable devices with increased realities and known performance characteristics, and various sensing states of portable devices and other inputs Based on. These methods are particularly useful in aviation, sea and land navigation, gaming and tourism (increased reality and others), local search, sports viewing, and other fields. Portable devices further incorporate sensors such as GPS, compass, and accelerometer for various uses such as map display and game play. By using the sensed physical state of the device, such as position, point direction, position change speed, slew velocity, vibration velocity, etc., the method of the present invention makes the graphic most important for portable devices. Can be displayed first or given priority in generation, allowing the mobile device to also display graphics at a level of complexity appropriate to their sensing state.

関連するサブシステム及びセンサーを持つビジョン・システムを示す本発明の望ましい実施形態のブロック概略図である。1 is a block schematic diagram of a preferred embodiment of the present invention showing a vision system with associated subsystems and sensors. FIG. 記載されたシステムの一般的な操作を示すフローチャートである。2 is a flow chart showing the general operation of the described system. ユニット動作によるグラフィック限度サブシステムの操作を示すフローチャート、パート1である。FIG. 3 is a flowchart showing the operation of the graphic limit subsystem by unit operation, Part 1. FIG. ユニット動作によるグラフィック限度サブシステムの操作を示すフローチャート、パート2である。FIG. 3 is a flowchart showing the operation of the graphic limit subsystem by unit operation, Part 2. FIG. 使用プロフィール・サブシステムの操作を示すフローチャート、パート1である。It is a flowchart and part 1 which show operation of a use profile subsystem. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Aである。It is Part 2A which is a flowchart showing the operation of the usage profile subsystem. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Bである。It is a flowchart and Part 2B which show operation of a use profile subsystem. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Cである。Flowchart showing operation of usage profile subsystem, part 2C. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Dである。It is Part 2D, a flowchart showing the operation of the usage profile subsystem. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Eである。Part 2E is a flowchart showing the operation of the usage profile subsystem. 使用プロフィール・サブシステムの操作を示すフローチャート、パート2Fである。Flowchart showing operation of usage profile subsystem, Part 2F. グラフィック・コントローラ・サブシステムの操作を示すフローチャート、パート1である。FIG. 3 is a flowchart showing the operation of the graphic controller subsystem, part 1. FIG. グラフィック・コントローラ・サブシステム、Graphics Hierarchyの操作を示すフローチャート、パート2である。7 is a flowchart showing the operation of the graphics controller subsystem, Graphics Hierarchy, Part 2. ディスプレイ使用サブシステムの操作を示すフローチャートである。It is a flowchart which shows operation of a display utilization subsystem. スリープ・サブシステムの操作を示すフローチャートである。It is a flowchart which shows operation of a sleep subsystem. 対象エリアの生成を描く概略図である。It is the schematic which draws the production | generation of an object area. 対象エリア及び携帯機器の視野/アドレスを描く概略図である。It is the schematic which draws the view area / address of a target area and a portable device. スナップ・モードの操作を示すフローチャート、パート1である。3 is a flowchart showing operation in a snap mode, Part 1. スナップ・モードの操作を示すフローチャート、パート2である。12 is a flowchart showing operation in a snap mode, Part 2.

特別用語の解説
本開示全体において、一般の辞書において本文献で定義される通りに定義されていないいくつかの用語について述べる。より正確な開示を提供するために、以下の用語定義が、真の広さ及び範囲がより簡単に理解されるように明確化する視点で示される。正確且つ綿密にするためのあらゆる試みがされているが、各用語に関連する全ての意味が完全に説明され得ないことが必要条件である。従って、各用語は、関連技術内の一般的な使用又は辞書の意味によって導かれ得る共通の意味もまた含むことを目的としている。示される定義は、辞書又は技術定義と矛盾する箇所においては、当業者は、使用の状況を考慮し、意図される意味を理解するように十二分な裁量を提供しなければいけない。当業者は、本教示の全体の深さを完全に理解し、全ての意図された変化形を理解するために、使用されている用語により広い意味を付けることにおけるエラーに関しては思慮があるだろう。

携帯機器
「携帯機器」は、例えばハンドヘルド計算機などの、変化し得る又はユーザーによって変更され得る位置、場所及び方向を持つ任意の機器を意味する。

重要度
「重要度」又は「重要度係数」は、様々なグラフィック要素に関連する値のことを呼ぶ。重要度係数は、レンダリングされるべきグラフィックの順位及び詳細レベルを制御する。

グラフィックオブジェクト
「グラフィックオブジェクト」又は「グラフィック」は、複数の要素を含みうるイメージ・システム全部の任意の部分サブセットを呼ぶのに使用される。

本発明の望ましい実施形態
コンピュータグラフィックスをレンダリングするためには、レンダリングされているグラフィック要素の複雑度によって一定の処理電力が必要とされる。現実の世界において、ある一定のオブジェクトを表わすために非常にシンプルな形状及び色が使用されてもよい。ホワイトハウスは、非常にシンプルな描写(グラフィック・オブジェクト)におけるシンプルな白い多角形として表わされてもよい。代わりに、160万色及び複雑なシェーディング及び照明効果を持つかなり詳しいイメージが、ホワイトハウスを表わすグラフィックオブジェクトとして使用されてもよい。
Glossary of Special Terms Throughout this disclosure, some terms that are not defined in the general dictionary as defined in this document are mentioned. In order to provide a more accurate disclosure, the following term definitions are provided in a clarifying perspective so that the true breadth and scope can be more easily understood. Every attempt has been made to be accurate and elaborate, but it is a requirement that not all the meanings associated with each term can be fully explained. Accordingly, each term is intended to include common meanings that may also be derived from common usage within the related art or dictionary meaning. Where the definitions shown conflict with dictionaries or technical definitions, one of ordinary skill in the art must consider the context of use and provide sufficient discretion to understand the intended meaning. Those skilled in the art will be aware of errors in giving broader meaning to the terms used to fully understand the overall depth of the present teachings and to understand all the intended variations. .

Portable Device “Portable device” means any device that has a location, location and orientation that can be changed or changed by a user, such as a handheld calculator.

Importance “Importance” or “importance coefficient” refers to values associated with various graphic elements. The importance factor controls the order and level of detail of the graphic to be rendered.

Graphic Object A “graphic object” or “graphic” is used to refer to any partial subset of the entire image system that can contain multiple elements.

Preferred Embodiments of the Invention Rendering computer graphics requires a certain amount of processing power depending on the complexity of the graphic elements being rendered. In the real world, very simple shapes and colors may be used to represent certain objects. The White House may be represented as a simple white polygon in a very simple depiction (graphic object). Alternatively, a fairly detailed image with 1.6 million colors and complex shading and lighting effects may be used as a graphic object representing the White House.

ここで説明されるシステムは、複雑度係数又は「複雑度数」を実際のオブジェクトを表わすためにレンダリングされ得るグラフィックに関連付ける。複雑度数がどのように生成されてよいかに関するいくつかの考察は、以下のリストに記載されるものを含む。

複雑度数(CN)
携帯機器によって生成されるグラフィックの複雑度、及び、従ってそれに関連する複雑度数(CN)は、様々な状況に基づいたシステムによって修正されてもよく、該状況は;
● そのグラフィックの地理位置に対する機器の位置(すなわち、該機器からグラフィックの位置までの範囲)。
The system described herein associates a complexity factor or “complexity number” with a graphic that can be rendered to represent an actual object. Some considerations on how complexity numbers may be generated include those listed in the following list.

Complexity number (CN)
The complexity of the graphics generated by the mobile device, and thus the complexity number (CN) associated therewith, may be modified by a system based on various situations, the situation being:
● The location of the device relative to the geographic location of the graphic (ie, the range from the device to the graphic location)

● 地理位置の方位に対するグラフィックの機器から機器への方位。   ● Graphical device-to-device orientation with respect to the geolocation orientation.

● その機器のスルーレート。   ● The slew rate of the device.

● その機器の振動
● その機器の位置の変化率
● グラフィックに関連するオブジェクトの方位の、機器に対する変化率。
● Vibration of the device ● Change rate of the position of the device ● Change rate of the orientation of the object related to the graphic with respect to the device.

● グラフィックに関連するオブジェクトのスレッド・レベル(すなわち、高圧ケーブルの詳しいイメージを生成しないで、代わりに、実際のオブジェクトよりも10倍幅広い、きらきらと輝く、明るい赤のエリアのグラフィックを生成する。)
● オブジェクトのクラスの全て又はいくつかに対するユーザーによって定められるグラフィックの限度。
● Thread level of objects related to graphics (ie, do not generate detailed images of high-voltage cables, but instead generate graphics with a bright red area that is 10 times wider than the actual object).
● Graphical limits set by the user for all or some of the object classes.

● オブジェクトの全て又はいくつかに対する、ソフトウェア/アプリケーションによって定められるグラフィックの限度。   ● Graphical limits imposed by the software / application for all or some of the objects.

● 電力消費を低減するためにグラフィック複雑度を限定する(例えば、機器の電力が低いため、処理時間を節約し、従って電力消費を節約するためにより低い解像度のグラフィックを生成する)。   ● Limit graphics complexity to reduce power consumption (eg, generate lower resolution graphics to save processing time and hence power consumption due to lower device power).

● ワイヤレスのリンクの場合、データ送信速度又はスループットが低い場合、ダウンロードされるべきグラフィック複雑度を制限する。   For wireless links, limit the graphics complexity to be downloaded if the data transmission rate or throughput is low.

● オブジェクトのクラスに対する、ユーザーによって定められたグラフィック・レベル(例えば、サンフランシスコ・ジャイアンツをロサンジェルス・ドジャーズよりも高い複雑度レベルで示す)。そのユーザーは、オブジェクトのクラスに対して最大又は最小のCNを定めることが出来ることに注目されたい。   ● A user-defined graphic level for a class of objects (for example, showing San Francisco Giants at a higher complexity level than Los Angeles Dodgers). Note that the user can define the maximum or minimum CN for a class of objects.

● 対象のエリア。オブジェクトが事前に定められた対象のエリアにある場合、CNは変更される。そのCNの変更はプラス又はマイナスであってもよい。   ● The area of interest. If the object is in a predetermined target area, the CN is changed. The change in CN may be positive or negative.

● ワイヤレス又は他のデータリンク又は媒体のポータブル(portable)又は実際の待ち時間。   ● Wireless or other data link or media portable or actual latency.

● 位置づけエラー(例えば、GPSが+/−100mのエラーがあると決定した場合、例えばナビゲーション・マーカーなどの特定のクラスのグラフィックを最も低いCNに設定し、グラフィックのサイズを定められた割合によって増加される。   ● Positioning errors (for example, if the GPS determines that there is an error of +/- 100m, set a particular class of graphics, such as navigation markers, to the lowest CN and increase the size of the graphic by a fixed percentage Is done.

如何なる所定のイメージにおいても、様々なグラフィック要素が、一定の他の要素よりも重要であってもよい。各グラフィック要素において、重要度係数又は重要度数が関連している。

重要度数(IN)
さらに、機器によって生成されるべきである特定のグラフィックの生成に対する優先度は(すなわち、「重要度」のレベル及び、従ってそれに関連する重要度数(IN));
● ソフトウェア/アプリケーションで定義される重要度。
In any given image, various graphic elements may be more important than certain other elements. In each graphic element, an importance factor or importance number is associated.

Importance (IN)
Further, the priority for the generation of a particular graphic that should be generated by the device (ie, the “importance” level and hence the associated importance number (IN));
● Importance as defined by the software / application.

● ユーザーで定義される重要度の順位(例えば、サンフランシスコ・ジャイアンツをドジャーズよりも高いレベルの複雑度で示す)。   ● User-defined importance ranking (for example, San Francisco Giants with a higher level of complexity than Dodgers).

● グラフィックに関連するオブジェクトのタイプ。海運ナビゲーションの状態では、水中の障害物が、地上のレストランよりも「重要」であるだろう。このタイプの順位付けは、機器のユーザーによって修正されてもよい。   ● The type of object associated with the graphic. Under maritime navigation conditions, underwater obstacles will be more important than restaurants on the ground. This type of ranking may be modified by the user of the device.

● グラフィック又はそのグラフィックに関連するオブジェクトの地理位置に対する該機器の位置(すなわち、該機器からオブジェクトの位置までの範囲)。   The location of the device relative to the graphic or the geographic location of the object associated with the graphic (ie, the range from the device to the location of the object).

● グラフィックに関連するオブジェクトの該機器に対する危険レベル又は緊急レベル(例えば、一定の方位で範囲を狭めて近づいてくる貨物船)
● グラフィックに関連するオブジェクトの速度。
● Danger level or emergency level of the object related to the graphic with respect to the device (for example, a cargo ship approaching with a narrow range in a certain direction)
● The speed of the object relative to the graphic.

● 機器に対するグラフィックに関連するオブジェクトの速度。   ● The speed of the object relative to the graphic for the device.

● グラフィックに関連するオブジェクトの該機器に対する動作の方向。   ● Direction of movement of objects related to graphics with respect to the device.

● 環境条件(例えば、温度、潮位、風速、海流、波の高さ、霧及び/又は雨によって減少した視界)。オブジェクト自体であり得るスコールなど、エリアにおける荒れ模様の天候のエリアに対してINを増加させる。   ● Environmental conditions (eg temperature, tide level, wind speed, ocean current, wave height, visibility reduced by fog and / or rain). Increase IN for areas of stormy weather in the area, such as squall, which can be the object itself.

● 日時(例えば、夜間ではナビゲーション・マーカーは、ナビゲータにとって重要度が増える)。   ● Date and time (for example, navigation markers are more important for navigators at night).

● 照らされていないオブジェクトが最初。夜間では、水面下の又はマークが付けられていない岩などの点灯していない障害物は、ナビゲーション・マーカーなどの通常照明で照らされた障害物よりも高いINを有する。   ● The unlit object is first. At night, unlit obstacles, such as underwater or unmarked rocks, have a higher IN than obstacles illuminated with normal lighting, such as navigation markers.

● 対象のエリア。オブジェクトが事前に定められた対象のエリアにある場合、INは変更される。そのINの変更はプラス又はマイナスであってもよい。   ● The area of interest. If the object is in a predetermined target area, IN is changed. The change in IN may be positive or negative.

などの様々な状況に基づいたシステムによって修正されてもよい。

作動中のグラフィック制御システムの一般的な説明:
1)グラフィック・コントローラ(GC)は、アプリケーション及び/又はユーザーの相互作用によって定められるように、全ての基本グラフィック要素をリコール(recall)する。その基本グラフィック要素の地理位置は、影響エリア内にあり、その影響エリアは、ユニット位置に対して定められている。グラフィック・コントローラは、次に、どのグラフィック要素が、ユニット姿勢に基づいたユニット視野/アドレス及び姿勢データにあるか決定する。GCは、また、将来のユニット視野/アドレスが何であり得るかも決定する。
It may be modified by a system based on various situations such as.

General description of the active graphics control system:
1) The graphics controller (GC) recalls all basic graphics elements as defined by application and / or user interaction. The geographical position of the basic graphic element is within the influence area, and the influence area is defined with respect to the unit position. The graphic controller then determines which graphic elements are in the unit view / address and attitude data based on unit attitude. The GC also determines what the future unit view / address can be.

2)各グラフィック要素は、アプリケーションによって定義されたベースであり、GCによって割り当てられる「重要度数」(IN)を有する。例えば、そのアプリケーションは、Whale Rockの1マイル内におけるエリアを非常に重要として定義してもよく、従って、比較的高いINを割り当ててもよい。あるいは、ユーザーは、一式の中間地点で構成されたルートを選択してもよい。これらの中間地点が影響エリアの中に来ると、それらには、比較的高いINが割り当てられる。なぜならば、その場合においてユニットは、ナビゲーション・マーカーに優先権を与えるからである。アプリケーション/ユーザーによって非常に重要又は主な対象として定義される危険エリアなどのグラフィック要素には、非常に高いINが割り当てられる。   2) Each graphic element is a base defined by the application and has an “importance” (IN) assigned by the GC. For example, the application may define the area within 1 mile of Whale Rock as very important and may therefore be assigned a relatively high IN. Alternatively, the user may select a route composed of a set of waypoints. When these waypoints come into the affected area, they are assigned a relatively high IN. This is because in that case the unit gives priority to the navigation marker. Graphic elements such as hazardous areas that are defined as very important or main objects by the application / user are assigned a very high IN.

3)ユーザー・プロフィール(UP)がアクティブな場合、GCは、対象として定義されたグラフィックのINをUPによって、例えば100%など、アプリケーションで定義された割合によって増加させる。その増加は、対象のオブジェクト/エリアのタイプによって異なってもよい。   3) If the user profile (UP) is active, the GC increases the IN of the graphic defined as the target by UP, for example by a percentage defined by the application, eg 100%. The increase may vary depending on the type of object / area of interest.

4)システムは、任意のグラフィック位置がUPで定義された対象のエリア内にあるかどうかを突き止め、ユーザー又はシステムのいずれか一方で定義されたINは、アプリケーションで定義された割合によって増加される。   4) The system determines if any graphic position is within the target area defined by UP, and the IN defined by either the user or the system is increased by the rate defined by the application .

5)アプリケーションによって定義された一式のIN低減しきい値は、そのアプリケーションによって2D又は3Dであり、ユニット位置に中心が置かれており、グラフィック要素がそのユニット位置からさらに遠くなると、INを減少させる。例えば、
0‐500m範囲=100%IN
501‐1000m範囲=80%IN
1001‐2000m範囲=60%INなどである。
5) The set of IN reduction thresholds defined by the application is 2D or 3D depending on the application and is centered on the unit position and decreases the IN when the graphic element is further away from the unit position. . For example,
0-500m range = 100% IN
501-1000m range = 80% IN
1001-2000m range = 60% IN.

6)アプリケーションによって定義された一式のIN低減しきい値は、そのアプリケーションによって2D又は3Dであり、ユニット視線からの方位に基づいてグラフィックのINを減少させる。例えば、
ユニット視線から0°‐15°=100%IN
16°‐30°=80%INなどである。
6) The set of IN reduction thresholds defined by the application is 2D or 3D depending on the application and reduces the graphic IN based on the orientation from the unit line of sight. For example,
0 ° -15 ° = 100% IN from unit line of sight
16 ° -30 ° = 80% IN.

7)GCは、最も高いINから最も低いINまで順番付けされたグラフィック階層(GH)を生成する。   7) The GC generates a graphic hierarchy (GH) ordered from the highest IN to the lowest IN.

8)ユニット振動によるグラフィック複雑度の減少の場合、スルーレート又は位置の変化率は、ユニット動作によるグラフィック限度サブシステムによって示され、GCは、示されているレベル数によってグラフィック複雑度を減少させる。   8) In the case of graphic complexity reduction due to unit vibration, the rate of slew rate or position change is indicated by the graphic limit subsystem due to unit operation, and the GC reduces the graphic complexity by the number of levels indicated.

9)アクティブであるUPが、代替のデフォルト設定又は複雑度レベルの低減など、任意の基本グラフィック要素の修正を示す場合、GCは示されるようにその基本要素を修正する。   9) If the UP that is active indicates any basic graphic element modifications, such as alternative default settings or reduced complexity levels, the GC modifies that basic element as shown.

10)GCは、全てのグラフィック複雑度数を計算する。   10) GC calculates all graphic complexity numbers.

11)CN合計が割り当てられたシステム・リソースが実行できるアプリケーションよりも大きい場合、最も低いINを持ち、最も低い複雑度レベルにないグラフィック要素のグラフィック複雑度は1レベル低減される(アプリケーションは、非常に速いグラフィック要素の生成を必要とし、イメージ生成に対して利用可能なシステム・リソースの割合を限定し、例えばデータリコールのための割合を残す)。   11) If the total CN resource allocated is greater than the application that can be run, the graphic complexity of the graphic element that has the lowest IN and not at the lowest complexity level is reduced by one level (the application is very The rate of system resources available for image generation is limited, eg leaving a rate for data recall).

12)CN合計がシステム・リソースのリミットよりも少なくなるまで(ステップ17に進む)、又は全てのグラフィック要素が最も低い複雑度レベルまで減少するまで、GCは、ステップ11及び12を繰り返す。   12) The GC repeats steps 11 and 12 until the CN total is less than the system resource limit (proceed to step 17) or until all graphic elements are reduced to the lowest complexity level.

13)GCは、全てのグラフィックCNの合計を計算する。   13) The GC calculates the sum of all graphic CNs.

14)全てのグラフィック要素が最も基本的な複雑度レベルまで低減され、CN合計がいまだにシステム・リソースの限度を越えている場合、ユニットは最も低いINを持つグラフィックをGHから除外し、CN合計を再度計算する。   14) If all graphic elements are reduced to the most basic complexity level and the CN total still exceeds the system resource limit, the unit will exclude the graphic with the lowest IN from the GH and remove the CN total Calculate again.

15)GCは、CN合計がシステム・リソース限度より低くなるまで(ステップ17へ進む)、又は全てのグラフィックがGHから削除されるまでステップ14及び15を繰り返す。   15) The GC repeats steps 14 and 15 until the CN total is below the system resource limit (proceed to step 17) or until all graphics are deleted from GH.

16)GCは、リクエストされたグラフィック要素はどれもリアルタイム・モードで表示することができないことをユーザーに伝え、スナップショット・モードに切り替える。   16) The GC informs the user that none of the requested graphic elements can be displayed in real time mode and switches to snapshot mode.

17)GCは、選択された基本グラフィック要素、及び関連する複雑度レベルを機器のレンダリング・エンジンへと伝送する。   17) The GC transmits the selected basic graphic element and the associated complexity level to the device's rendering engine.

機器の起動におけるオプションは、ユーザーがすぐに見ることができるように、定められたINしきい値内で最初に最も低いCNでオブジェクトを即時に生成することであり、次に上記で説明したような反復プロセスを経て、表示されるべきグラフィックを改良することであってもよい。

操作におけるグラフィック・コントローラ・システムの望ましい実施形態:
本開示において説明されている方法を描くためにビジョン・システムが使用される。このビジョン・システムは、傾向ディスプレイなどの伝統的な光学結合器のタイプの装置であってもよく、あるいは望ましくは、「Electro-Optic Vision Systems Which Exploit Position and Attitude」と題して発行された米国特許第5,815,411号(特許文献1)において開示されたタイプのビション・システムであってもよく、該特許は、内部位置づけ(GPS)、姿勢検知(機首磁方位センサー)及び振動(加速計)装置を含む。このビジョン・システムの開示は、本文献に参考として取り入れられる。重要度数(IN)システム及び/又はグラフィック複雑度(GC)システムは、それ自体で専用のセンサーを持つ全体的に独立した単体のシステムであることに注目すべきである。この開示は、また、ユーザー特有の使用プロフィールの開発、検出されたユニット動作によるグラフィック複雑度の現象、基本グラフィック要素のリコール及び制御、及びシステム・リソースの割り当てに関する概念を特に説明するために使用される。

ユニット動作によるグラフィック限度サブシステム108;
機器の動作、特に振動率及びスルーレートが、生成されるべき複雑度の修正を説明するために、この望ましい実施形態において使用されている一方、上記の「複雑度数(CN)」と題するセクションにおいて記載したように、他の係数が記載されている方法と同じ方法で他の実施形態において使用されても良い。
An option in starting the device is to instantly create an object first with the lowest CN within a defined IN threshold so that the user can see it immediately, and then as described above It may be a simple iterative process to improve the graphic to be displayed.

Preferred embodiment of a graphics controller system in operation:
A vision system is used to depict the method described in this disclosure. This vision system may be a traditional optical coupler type device such as a trend display, or preferably a US patent issued entitled "Electro-Optic Vision Systems Which Exploit Position and Attitude" It may be a Bichon system of the type disclosed in US Pat. No. 5,815,411, which includes an internal positioning (GPS), attitude detection (head direction sensor) and vibration (accelerometer) device. Including. The disclosure of this vision system is incorporated herein by reference. It should be noted that the importance (IN) system and / or the graphic complexity (GC) system is a totally independent, single system with its own dedicated sensor. This disclosure is also used to specifically explain concepts related to the development of user-specific usage profiles, the phenomenon of graphic complexity due to detected unit behavior, the recall and control of basic graphic elements, and the allocation of system resources. The

Graphic limit subsystem 108 by unit operation;
While the operation of the equipment, in particular the vibration rate and slew rate, is used in this preferred embodiment to explain the modification of the complexity to be generated, in the section entitled “Complexity Number (CN)” above As described, other factors may be used in other embodiments in the same manner as described.

図3及び4は、ユニット動作によるグラフィック限度サブシステム108の作動を示す。ユニット動作は、a)加速計106によって検出された振動、b)姿勢センサー105(通常は機首磁方位センサー及び/又は加速計106)によって検出されるスルーレート(ピッチ、ロール(roll)及びヨー(yaw))、c)位置センサー104(通常はGPS)によって検出される位置の変化率、のうち1つ又はそれ以上を含み得る。生成されるべきグラフィックの複雑度レベルをユニット動作に基づいて修正する方法は、それらの3つのセンサーの各々に対して非常に似ており、振動率及びスルーレートは、ここでは模範として使用される。図3は、ユニット動作によるグラフィック限度サブシステム108が、検出されたビジョン・システム107に対してどのように作動するかを示すフローチャート300である。ステップ301において、システムは、アプリケーション特有の振動限度Hを定義する。この限度は、ビジョン・システムが全てのグラフィックの複雑度を減少させ始める振動のレベルである。ステップ302において、そのシステムは、加速計106からの動作信号及びクロック101からの時間信号を受け取り、振動率を計算する。加速計は、また、ビジョン・システムの変形可能なプリズム・イメージ安定化システムに通常関連している。ステップ303において、システムは、計算された振動率がHを超えるかどうかを確認する。もしその計算された振動率がHを超えない場合は、フローチャートにおいて、図4のステップ401に進む。その計算された振動率がHを超える場合、フローチャートにおいてステップ304に進む。ステップ304において、システムは、その計算された振動率が、イメージを安定化するためのビジョン・システム安定化システムの能力を超えるかどうかを確認する。もしその計算された振動率が、イメージを安定化するためのビジョン・システム安定化システムの能力を超えない場合、フローチャートをステップ306に進む。その計算された振動率が、イメージを安定化するためのビジョン・システム安定化システムの能力を超える場合、フローチャートにおいてステップ306へ進む。ステップ306において、システムは、全てのグラフィックの複雑度レベルを1レベル分減少させる。これは、ビジョン・システム安定化システムが検出された振動に対応することができるにもかかわらず、ユーザーもほぼ確実に振動/動作しているためである。ステップ305において、システムは、全てのグラフィックの複雑度レベルを2レベル又はそれ以上のレベル分減らし、その量は、アプリケーション特有の複雑度低減振動しきい値によって定められる。次にフローチャートにおける、ステップ305及び306の両ステップから図4のステップ401に進む。図4は、ユニット動作によるグラフィック限度サブシステム108が、検出されたビジョン・システム107スルーレートに対してどのように作動するかを示すフローチャート400である。ステップ401において、システムは、アプリケーション特有のスルーレートJを定義する。このリミットは、システムが全グラフィックの複雑度を減らし始めるスルーレートである。ステップ402において、システムは、姿勢検知装置105及び/又は加速計106及びクロック101から信号を受け取り、スルーレートKを計算する。ステップ403において、システムは、計算されたスルーレートKがJを超えるかどうかを確認する。もしKがJを超えない場合、フローチャートにおいて、図5のステップ501に進み、使用プロフィール・サブシステム10をチェックする。もし、KがJを超える場合、フローチャートにおいて、ステップ404へ進む。ステップ404において、システムは、全グラフィックの複雑度レベルを1つ又はそれ以上のレベル分低減し、その量は、アプリケーション特有の複雑度低減スルーレートしきい値によって定義される。次にフローチャートにおける、図5のステップ501に進み、使用プロフィール・サブシステム109をチェックする。

使用プロフィール・サブシステム109;
図5は、使用プロフィール・サブシステム109の基本的な作動を示すフローチャート500である。ステップ501において、システムは、使用プロフィール(UP)がアクティブであるかどうかを確認する。もし、UPがアクティブである場合、フローチャートにおいてステップ502へ進む。もしUPがアクティブでない場合、フローチャートにおいてステップ503へ進む。ステップ502において、システムは、ユーザーが異なるUPに変更したかどうかを確認する。もしそのユーザーがUPを変更していない場合、フローチャートにおいてステップ508へ進む。もしそのユーザーがUPを変更した場合、フローチャートにおいてステップ503へ進む。ステップ503において、システムは、そのユーザーが既存のUPを選択したかどうかを確認する。もしそのユーザーが既存のUPをリコールした場合、フローチャートにおいて、使用プロフィール・サブシステム109が選択されたUPをロードするステップ507へ進み、次にステップ508へ進む。もしそのユーザーが既存のUPを選択していない場合、フローチャートにおいて、システムがユーザーにその新しく作成される「バージン(virgin)」UPを保存する希望に関する問い合わせをするステップ504へ進む。もしそのユーザーが新しく作成されるUPを保存する希望を示す場合、フローチャートにおいて、システムがユーザーにその新しいUPの名前をつけるように促し、その名前で保存する(ユーザーがUPに名前を付けない場合、システムはデフォルト名を割り当てる)ステップ505へ進み、次にステップ508へ進む。デフォルトUPは、基本的なパラメータのセットを含むようにアプリケーションによって事前に定義されているか、又は空白であってもよい。もしユーザーが、新しく作成されるUPを保存することを希望しない場合、フローチャートにおいて、グラフィック・コントローラ・サブシステム・フローチャート1200の始まりである図12のステップ1201へと進む。ステップ508において、システムは、システム使用を監視し、アクティブなUPをそれに応じて更新する。ステップ508は、図6‐11において拡張されている。
3 and 4 illustrate the operation of the graphics limit subsystem 108 by unit operation. The unit operation includes: a) vibration detected by the accelerometer 106, b) slew rate (pitch, roll and yaw) detected by the attitude sensor 105 (usually the nose heading sensor and / or the accelerometer 106). (Yaw)), c) one or more of the rate of change of position detected by the position sensor 104 (usually GPS). The method of modifying the complexity level of the graphic to be generated based on unit behavior is very similar for each of those three sensors, and vibration rate and slew rate are used here as examples. . FIG. 3 is a flow chart 300 illustrating how the unit-based graphics limit subsystem 108 operates on the detected vision system 107. In step 301, the system defines an application specific vibration limit H. This limit is the level of vibration at which the vision system begins to reduce the complexity of all graphics. In step 302, the system receives the operating signal from the accelerometer 106 and the time signal from the clock 101 and calculates the vibration rate. Accelerometers are also commonly associated with vision system deformable prism image stabilization systems. In step 303, the system checks whether the calculated vibration rate exceeds H. If the calculated vibration rate does not exceed H, the process proceeds to step 401 in FIG. 4 in the flowchart. When the calculated vibration rate exceeds H, the process proceeds to step 304 in the flowchart. In step 304, the system checks whether the calculated vibration rate exceeds the vision system stabilization system's ability to stabilize the image. If the calculated vibration rate does not exceed the vision system stabilization system's ability to stabilize the image, the flowchart proceeds to step 306. If the calculated vibration rate exceeds the vision system stabilization system's ability to stabilize the image, proceed to step 306 in the flowchart. In step 306, the system reduces the complexity level of all graphics by one level. This is because even though the vision system stabilization system can respond to the detected vibration, the user is also almost certainly vibrating / operating. In step 305, the system reduces the complexity level of all graphics by two or more levels, the amount being defined by an application-specific complexity reduction vibration threshold. Next, the process proceeds from step 305 and step 306 in the flowchart to step 401 in FIG. FIG. 4 is a flowchart 400 illustrating how the unit-based graphics limit subsystem 108 operates for a detected vision system 107 slew rate. In step 401, the system defines an application specific slew rate J. This limit is the slew rate at which the system begins to reduce the complexity of the entire graphic. In step 402, the system receives signals from attitude detector 105 and / or accelerometer 106 and clock 101 and calculates slew rate K. In step 403, the system checks whether the calculated slew rate K exceeds J. If K does not exceed J, go to step 501 of FIG. 5 in the flowchart to check the usage profile subsystem 10. If K exceeds J, the process proceeds to step 404 in the flowchart. In step 404, the system reduces the complexity level of the entire graphic by one or more levels, the amount being defined by an application specific complexity reduction slew rate threshold. Next, the flow proceeds to step 501 of FIG. 5 in the flowchart to check the usage profile subsystem 109.

Usage profile subsystem 109;
FIG. 5 is a flowchart 500 illustrating the basic operation of the usage profile subsystem 109. In step 501, the system checks whether the usage profile (UP) is active. If UP is active, go to step 502 in the flowchart. If UP is not active, go to step 503 in the flowchart. In step 502, the system checks whether the user has changed to a different UP. If the user has not changed the UP, the process proceeds to step 508 in the flowchart. If the user changes UP, the process proceeds to step 503 in the flowchart. In step 503, the system checks whether the user has selected an existing UP. If the user recalls an existing UP, in the flowchart, the usage profile subsystem 109 proceeds to step 507 where the selected UP is loaded, and then proceeds to step 508. If the user has not selected an existing UP, then in the flowchart, the system proceeds to step 504 where the system queries the user regarding the desire to save the newly created “virgin” UP. If the user indicates that he wants to save a newly created UP, in the flowchart the system will prompt the user to name the new UP and save it with that name (if the user does not name the UP) , The system assigns a default name) to step 505 and then to step 508. The default UP may be predefined by the application to include a basic set of parameters or may be blank. If the user does not wish to save the newly created UP, the flow proceeds to step 1201 of FIG. 12, which is the beginning of the graphic controller subsystem flowchart 1200 in the flowchart. In step 508, the system monitors system usage and updates the active UP accordingly. Step 508 is expanded in FIGS. 6-11.

図6‐11は、フローチャート500のステップ508の作動を示すフローチャート、600、700、800、900、1000、及び1100である。ステップ601において、システムは、ユーザーが2D又は3Dの対象エリアをシステム位置に対して定義しているかどうかを確認する。言いかえれば、ユーザーが対象のユニットに対して常に同じ位置にあるエリアを定義しているかどうかである。そのようなエリアの例は、システムが中央にある警報区域リングである。ユーザーがユニットに対して2D又は3Dの対象のエリアを定義した場合、フローチャートにおいて、システムがこの対象エリアにアクティブなUPを加えるステップ602へ進み、次にステップ603へと進む。ユーザーが、そのユニットに対して2D又は3Dの対象エリアを定義していない場合、フローチャートにおいてステップ603へ進む。ステップ603において、システムは、ユーザーが対象のポイントを定義したかどうかを確認する。このポイントは、実世界での位置を有し、ユニット位置に対して固定されていない。ユーザーが、対象のポイントを定義していない場合、フローチャートにおいてステップ701へ進む。ユーザーが対象のポイントを示した場合、フローチャートにおいて、システムがそのユーザーがその対象ポイントに対する関連のしきい値を定義したかどうかを確認するステップ604へ進む。このしきい値は、対象でもあるポイントに対してエリアを定義する。ある一例は、Whale Rockを対象として定義し、しきい値の500mをWhale Rockに関連付けることで、ユーザーは、Whale Rock及びその500m以内における全てのオブジェクトを対象にすることを示す。そのユーザーが、関連するしきい値を定義していない場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ605へ進み、次にステップ701へと進む。そのユーザーが、関連するしきい値を定義している場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ605へ進み、次にステップ701へと進む。   6-11 are flowcharts 600, 700, 800, 900, 1000, and 1100 illustrating the operation of step 508 of flowchart 500. FIG. In step 601, the system checks whether the user has defined a 2D or 3D target area for the system location. In other words, is the user defining an area that is always in the same position relative to the target unit? An example of such an area is a warning zone ring with the system in the center. If the user has defined a 2D or 3D target area for the unit, in the flowchart, the system proceeds to step 602 where it adds an active UP to this target area, and then proceeds to step 603. If the user has not defined a 2D or 3D target area for the unit, the process proceeds to step 603 in the flowchart. In step 603, the system checks whether the user has defined the point of interest. This point has a real-world position and is not fixed relative to the unit position. If the user has not defined the target point, the process proceeds to step 701 in the flowchart. If the user indicates a point of interest, in the flowchart, the system proceeds to step 604 where the user determines whether the user has defined an associated threshold for that point of interest. This threshold defines an area for points that are also objects. One example defines Whale Rock as the target and associates the threshold of 500m with Whale Rock, indicating that the user targets Whale Rock and all objects within 500m. If the user has not defined an associated threshold, the flow proceeds to step 605 where the system updates the active UP accordingly, and then proceeds to step 701. If the user has defined an associated threshold, then in the flowchart, go to step 605 where the system updates the active UP accordingly, then go to step 701.

ステップ701において、システムは、ユーザーが対象とする進路などのライン/ルートを定義したかどうかを確認する。ラインは、直線又は曲線であってもよく、ルートは、端と端が接続されたいくつかのライン・セグメントで構成されるものとして定義される。ユーザーが、対象のライン/ルートを定義していない場合、フローチャートにおいてステップ704へ進む。ユーザーがライン/ルートを定義している場合、フローチャートにおいて、システムがそのユーザーが関連するしきい値をその対象のライン/ルートに対して定義しているかどうかを確認するステップ702へ進む。このしきい値は、対象でもあるライン/ルートに対するエリアを定義する。一例は、ニュージーランドのオークランドからベイオブアイランズまでのルートを対象と定義すること及び関連するしきい値を200mと定義することによって、ユーザーは、定義されたルートの200m以内において静止している及び動作している全てのオブジェクトを対象にすることを示す。ユーザーが、関連するしきい値を定義していない場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ703へ進み、次にステップ704へと進む。ユーザーが、関連するしきい値を定義している場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ703へ進み、次にステップ704へと進む。ステップ704において、システムは、ユーザーが対象の2D又は3Dエリアを定義しているかどうかを確認する。もしユーザーが対象の2D又は3Dエリアを定義していない場合、フローチャートにおいて、ステップ801へ進む。もしユーザーが対象の2D又は3Dエリアを定義していない場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ706へ進み、次にステップ801へと進む。もしユーザーが対象の2D又は3Dエリアを定義している場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ706へ進み、次にステップ801へと進む。   In step 701, the system checks whether the user has defined a line / route such as a target route. A line may be a straight line or a curve, and a route is defined as consisting of several line segments connected end to end. If the user does not define the target line / route, the process proceeds to step 704 in the flowchart. If the user has defined a line / route, the flow proceeds to step 702 where the system checks to see if the user has defined an associated threshold for that target line / route. This threshold defines the area for the line / route that is also the target. One example is that by defining a route from Auckland, New Zealand to Bay of Islands, and defining an associated threshold of 200m, the user is stationary and operating within 200m of the defined route Indicates that all objects that are currently being processed are targeted. If the user has not defined an associated threshold, the flow proceeds to step 703 where the system updates the active UP accordingly, and then proceeds to step 704. If the user has defined an associated threshold, the flow proceeds to step 703 where the system updates the active UP accordingly, and then proceeds to step 704. In step 704, the system checks whether the user has defined the target 2D or 3D area. If the user has not defined the target 2D or 3D area, the process proceeds to step 801 in the flowchart. If the user has not defined the target 2D or 3D area, then in the flowchart, go to step 706 where the system updates the active UP accordingly, then go to step 801. If the user has defined the target 2D or 3D area, then in the flowchart, go to step 706 where the system updates the active UP accordingly, then go to step 801.

ステップ801において、システムは、ユーザーがグラフィックオブジェクトの特定のタイプを対象として定義しているかどうかを確認する。ユーザーが特定のタイプのグラフィックを対象として定義している場合、フローチャートにおいて、システムがアクティブなUPをそれに応じて更新するステップ802へ進み、次にステップ803へと進む。ユーザーが、特定のタイプのグラフィックを対象として定義していない場合、フローチャートにおいて、ステップ803へ進む。ステップ803において、システムは、グラフィック・ユーザー・インターフェース(GUI)のタイプに対して新しいデフォルト設定を特定しているかどうかを確認する。これは、そのユーザーがGUIのタイプのデフォルト設定を変更し、その設定がそのユーザーのUPの一部になることを可能にする。将来、その設定は、そのユーザーに対するGUIのタイプに対するデフォルト設定として使用される。言いかえれば、そのユーザーは、そのGUIを一度修正し、新しいデフォルトとして保存し、システムは、そのタイプの全てのGUIを自動的にその設定に持ち出す。ユーザーがGUIのデフォルト設定をお変更している場合、フローチャートにおいて、UPがそれに応じて更新されるステップ804へ進み、次にステップ805へと進む。そのユーザーがGUIのタイプのデフォルト設定を経能していない場合、フローチャートにおいてステップ805へ進む。ステップ805において、システムは、ユーザーが特定のタイプのグラフィックの複雑度レベルを1つ又はそれ以上のレベルの分によって低減し、この低減を好みとして示したかどうかを確認する。もしそのユーザーが、特定のタイプのグラフィックの複雑度レベルを低減し、これを好みとして示した場合、フローチャートにおいて、そのシステムが該アクティブなUPをそれに応じて更新するステップ806へ進み、次にステップ901へと進む。そのユーザーが、特定のタイプのグラフィックの複雑度レベルを低減し、これを好みとして示していない場合、フローチャートにおいてステップ901へ進む。   In step 801, the system checks whether the user has defined a specific type of graphic object. If the user has defined a specific type of graphic as a target, then in the flowchart, go to step 802 where the system updates the active UP accordingly, and then go to step 803. If the user has not defined a specific type of graphic, the process proceeds to step 803 in the flowchart. In step 803, the system checks to see if it has specified a new default setting for the type of graphic user interface (GUI). This allows the user to change the default setting for the GUI type, and that setting becomes part of the user's UP. In the future, that setting will be used as the default setting for the type of GUI for that user. In other words, the user modifies the GUI once and saves it as a new default, and the system automatically brings all GUIs of that type to that setting. If the user has changed the GUI default settings, proceed to step 804 where UP is updated accordingly in the flowchart, and then proceed to step 805. If the user has not entered the GUI type default setting, go to step 805 in the flowchart. In step 805, the system determines whether the user has reduced the complexity level of a particular type of graphic by one or more levels and indicated this reduction as a preference. If the user has reduced the complexity level of a particular type of graphic and indicated this as a preference, then in the flowchart, go to step 806 where the system updates the active UP accordingly, then step Proceed to 901. If the user has reduced the complexity level of a particular type of graphic and has not indicated this as a preference, the flow proceeds to step 901 in the flowchart.

図9は、システムが、そのシステムの姿勢読み込みを監視することによってユニットに対する対象のエリアをどのように生成するかを示すフローチャート900である。これらのエリアは、ユーザーによって定義されない。ステップ901において、使用プロフィール・サブシステム109は、姿勢検知装置105から姿勢読み込みを受け取る。ステップ902において、システムは、そのシステムの姿勢が、アプリケーションによって定義された時間において、アプリケーションによって定義された許容範囲内において静止しているか(すなわち、変化していないか)どうかを確認する。そのシステム姿勢が静止していない場合、フローチャートにおいてステップ1001へ進む。そのシステム姿勢が静止している場合、フローチャートにおいて、システムがビジョン・システム107の視野を計算するステップ903へ進み、次にステップ904へと進む。ステップ904において、システムは、計算された視野及び関連する姿勢を読み込み、そのようなデータのリストの一番上に保存する。このリストにおけるエントリー数は、アプリケーションによって定義される。そのリストが満杯である場合、最も底のエントリーがそのリストから除外され、後で、より高い容量、該装置の外部にあり得るディスク又はフラッシュなどのより低い速度のメモリでの使用のために保存されてもよい。次に、フローチャートにおいて、システムが、そのリストにおいて2つよりも多くのエントリーが存在するかどうか確認するステップ905へ進む。そのリストに2つよりも多くのエントリーがない場合、フローチャートにおいてステップ1001へ進む。そのリストに2つより多くのエントリーが存在する場合、フローチャートにおいて、システムが、そのリストのエントリーの姿勢読み込みを比較するステップ906へ進み、次にステップ907へと進む。ステップ907において、システムは、エントリーの姿勢読み込みのいずれかが、アプリケーションで定義された許容範囲内に一致するかどうかを確認する。それらの姿勢読み込みのいくつか又は全てがそのシステムに一致しない場合、ステップ1001へ進む。それらの姿勢読み込みのいくつか又は全てがそのシステムに一致する場合、ステップ908へ進む。ステップ908において、システムは、一致する姿勢読み込みの平均値を計算し、その平均姿勢読み込みに中心が置かれた視野(FOV)を計算する。その視野は、平均姿勢読み込みに関連する全ての視野にわたる。システムは次に、平均姿勢読み込み及び関連するFOVをそのようなデータのリストから除去する。フローチャートは次に、システムが、ユニットに関して新しく計算された対象のFOVをアクティブなUPに追加する。次にフローチャートをステップ1001へ進む。   FIG. 9 is a flow chart 900 illustrating how the system generates a target area for a unit by monitoring the system's attitude reading. These areas are not defined by the user. In step 901, usage profile subsystem 109 receives a posture reading from posture detector 105. In step 902, the system checks whether its attitude is stationary (ie, not changing) within the tolerances defined by the application at the time defined by the application. If the system posture is not stationary, the process proceeds to step 1001 in the flowchart. If the system pose is stationary, the system proceeds to step 903 where the system calculates the vision system 107 field of view, and then proceeds to step 904 in the flowchart. In step 904, the system reads the calculated field of view and associated pose and stores it at the top of the list of such data. The number of entries in this list is defined by the application. If the list is full, the bottom entry is removed from the list and later saved for use in higher capacity, lower speed memory such as disk or flash that may be external to the device May be. Next, in the flowchart, the system proceeds to step 905 where it checks to see if there are more than two entries in the list. If there are no more than two entries in the list, go to step 1001 in the flowchart. If there are more than two entries in the list, in the flowchart, the system proceeds to step 906 where the attitude readings of the entries in the list are compared, and then proceeds to step 907. In step 907, the system checks to see if any of the entry's attitude reads match within the tolerance defined by the application. If some or all of these posture readings do not match the system, go to step 1001. If some or all of those posture readings match the system, go to step 908. In step 908, the system calculates the average value of the matching pose readings and calculates the field of view (FOV) centered on the average pose reading. The field of view spans all fields of view associated with average posture reading. The system then removes the average attitude reading and associated FOV from the list of such data. In the flowchart, the system then adds the newly calculated target FOV for the unit to the active UP. Next, the flowchart proceeds to step 1001.

図10は、システムがユニットに関していない対象エリアをシステムの姿勢及び位置読み込みを監視することによってどのように生成するかを示すフローチャート1000である。これらのエリアは、静止した実世界の位置を有し、ユーザーによって定義されない。ステップ1001において、使用プロフィール・サブシステム109は、姿勢検知装置105からの姿勢読み込み及び位置検知装置304からの位置読み込みを受け取る。ステップ1002において、システムは、そのシステムが、アプリケーションで定義された期間の間、アプリケーションで定義された許容範囲内において静止しているか(すなわち、変化していないか)どうかを確認する。そのシステムが静止していない場合、フローチャートにおいてステップ1101へ進む。そのシステムが静止している場合、フローチャートにおいて、システムがビジョン・システム107の視野(FOV)を計算するステップ1003へ進み、次にフローチャートにおけるステップ1004へと進む。ステップ1004において、システムは、計算されたFOV及び関連する位置及び姿勢読み込みをそのようなデータのリストの一番上に保存する。このリストにおけるエントリーの数は、アプリケーションによって定義される。そのリストが満杯である場合、一番底のエントリーがリストから除去され、より高い容量、該機器の外部であり得るディスク又はフラッシュなどのより低いスピード・メモリーにおいて後に使用するために保存されてもよい。次に、フローチャートにおいて、システムがそのリストに2つよりも多くのエントリーが存在するかどうかを確認するステップ1005へ進む。そのリストに2つよりも多くのエントリーが無い場合、フローチャートにおいてステップ1101へ進む。そのリストに2つよりも多くのエントリーがある場合、フローチャートにおいて、システムがそのリスト上のFOVの交差を計算するステップ1006へと進み、次にステップ1007へと進む。ステップ1007において、システムは、アプリケーションで定義された数のFOVが共通の3Dエリアにおいて交差する。図16は、それぞれ異なる位置1601、1602、1603からの3つの視野1604、1605、1606の交差点1607を平面において示す。影が付けられたエリアは、共通の交差するエリアである。ステップ1007では1つよりも多くの共通の交差エリアがあってもよいことに注目されたい。そのシステムが、十分な記載されたFOVが共通のエリアにおいて交差しないことを確認する場合、フローチャートにおいてステップ1101へ進む。もしそのシステムが、十分な記載されたFOVが共通エリアにおいて交差する場合、フローチャートにおいて、共通交差のエリアの境界線がそのユニットによって計算されるステップ1008へ進み、次に、計算された共通交差のエリアがアクティブなUPに対象の3Dエリアとして追加されるステップ1009へと進む。フローチャートは、次に、ステップ1101へと分岐する。   FIG. 10 is a flowchart 1000 illustrating how the system generates target areas that are not associated with a unit by monitoring system attitude and position readings. These areas have a stationary real world location and are not defined by the user. In step 1001, the usage profile subsystem 109 receives the posture reading from the posture detection device 105 and the position reading from the position detection device 304. In step 1002, the system checks whether the system is stationary (ie, has not changed) within the application-defined tolerance for a period defined by the application. If the system is not stationary, the process proceeds to step 1101 in the flowchart. If the system is stationary, in the flowchart, the system proceeds to step 1003 where the field of view (FOV) of the vision system 107 is calculated, and then proceeds to step 1004 in the flowchart. In step 1004, the system stores the calculated FOV and associated position and orientation readings at the top of the list of such data. The number of entries in this list is defined by the application. If the list is full, the bottom entry may be removed from the list and saved for later use in higher capacity, lower speed memory such as disk or flash that may be external to the device. Good. Next, in the flowchart, the system proceeds to step 1005 where the system checks to see if there are more than two entries in the list. If there are no more than two entries in the list, go to step 1101 in the flowchart. If there are more than two entries in the list, in the flowchart, the system proceeds to step 1006 where the system calculates the intersection of FOVs on the list, and then proceeds to step 1007. In step 1007, the system intersects the application defined number of FOVs in a common 3D area. FIG. 16 shows in a plane the intersection 1607 of three fields of view 1604, 1605, 1606 from different positions 1601, 1602, 1603, respectively. The shaded area is a common intersecting area. Note that there may be more than one common intersection area at step 1007. If the system confirms that enough listed FOVs do not intersect in the common area, it proceeds to step 1101 in the flowchart. If the system has enough listed FOVs intersecting in the common area, then in the flowchart, go to step 1008 where the boundary of the common intersection area is calculated by the unit, and then the calculated common intersection Proceed to step 1009 where the area is added to the active UP as the target 3D area. The flowchart then branches to step 1101.

図11は、そのシステムが、図9及び10において示されるような、システムで生成された対象のエリア又はシステムで生成された関連の対象FOVを、どのようにアクティブなUPから除外するかを示すフローチャート1100である。ステップ1100において、システムは、ビジョン・システム107の視野が、システムで定義された全ての対象エリア及びシステムで定義された全ての対象FOVをアプリケーションで定義された期間内に交差しているかを確認する。もし全てのそのようなエリアがビジョン・システム107によってアプリケーションで定義された期間内に交差されている場合、フローチャートにおいて、グラフィック・コントローラ・サブシステム・フローチャート1200の始まりであるステップ1201へ進む。もし全てのそのようなエリアが、該定義された期間内にビジョン・システム107によって交差されていない場合、フローチャートにおいて、その交差されていないエリア又はFOVがアクティブなUPから除外されるステップ1102へ進み、次に、グラフィック・コントローラ・サブシステム・フローチャート1200の始まりであるステップ1201へと進む。

グラフィック・コントローラ・サブシステム110;
グラフィック・コントローラ・サブシステム110は、システムがどのように基本グラフィック要素をリコールするか、及び各グラフィックがどの複雑度レベルで生成されるかを制御する。各基本グラフィック要素は、1)そのグラフィックの場所を任意の基準座標システムに対して定義した位置、2)そのグラフィックの方向を任意の基準座標システムに対して定義した姿勢、及び3)各グラフィック複雑度レベルに対するモデル及び複雑度数(CN)、で構成される。そのモデルは、そのグラフィックの形状、スケール及び内容を定義するには十分である。そのグラフィックは、そのモデルによって定義されるように、2D又は3Dであってもよく、動画でさえあってもよいことに注目されたい。各グラフィックは、それに関連する多くのグラフィック複雑度レベルを有する。これらは、例えばより複雑な、本格的なラスター・イメージから、そのグラフィックの意味を分け与えるのに最小限必要な複雑度、例えば、対象のオブジェクトのタイプに関連するシンプルなベクトル・イメージ又はアイコンにまで及ぶ。いくつかのイメージは、たった1つの複雑度レベルを持ってもよい一方、その他のイメージは多くの複雑度レベルを持つ。各グラフィック複雑度レベルに関連する複雑度数は、そのレベルでグラフィックを生成するのに必要な計算の数を定義する。これらの異なる複雑度レベルは、以下に記載されるように、システム・リソースをグラフィック生成のために割り当てるときに、グラフィック・コントローラ・サブシステム110によって使用される。
FIG. 11 illustrates how the system excludes the system-generated target area or the related target FOV generated in the system, as shown in FIGS. 9 and 10, from active UPs. It is a flowchart 1100. In step 1100, the system checks to see if the vision system 107 field of view intersects all target areas defined in the system and all target FOVs defined in the system within a period defined by the application. . If all such areas have been crossed within the application defined period by the vision system 107, the flow proceeds to step 1201, which is the beginning of the graphics controller subsystem flowchart 1200 in the flowchart. If all such areas have not been crossed by the vision system 107 within the defined period, go to step 1102 where the non-crossed area or FOV is excluded from active UP in the flowchart. The process then proceeds to step 1201, which is the beginning of the graphics controller subsystem flowchart 1200.

Graphic controller subsystem 110;
The graphics controller subsystem 110 controls how the system recalls basic graphics elements and at what level of complexity each graphic is generated. Each basic graphic element consists of 1) a position that defines the location of the graphic with respect to an arbitrary reference coordinate system, 2) an orientation that defines the direction of the graphic with respect to an arbitrary reference coordinate system, and 3) each graphic complexity It consists of a model for the degree level and a complexity number (CN) The model is sufficient to define the shape, scale and content of the graphic. Note that the graphic may be 2D or 3D, or even animated, as defined by the model. Each graphic has a number of graphic complexity levels associated with it. These can range from, for example, more complex, full-fledged raster images to the minimum complexity required to share the meaning of the graphic, for example, simple vector images or icons related to the type of object of interest. It reaches. Some images may have only one complexity level, while other images have many complexity levels. The complexity number associated with each graphic complexity level defines the number of calculations required to generate a graphic at that level. These different complexity levels are used by the graphics controller subsystem 110 when allocating system resources for graphics generation, as described below.

各グラフィックには、重要度数(IN)が割り当てられ、そのINは、アプリケーションで定義される。例えば、海運ナビゲーション・アプリケーションにおいて、ナビゲーション・マーカーに関連するグラフィックは、比較的高いINを有するが、同じエリアをカバーする観光アプリケーションにおいては、それらのナビゲーション・マーカーは、より低い重要度を持ち、従って、それらに関連するグラフィックは、より低いINを有する。アプリケーションによって割り当てられるINは、アプリケーションが1つの作動モードから他のモードへ切り替えると、変化し得る。上記の例を使用して、そのアプリケーションは、その領域に対して2つの作動モード、ナビゲーション・モード及び観光モードを持つものであってもよい。そのINは、グラフィック・コントローラ・サブシステム110によって、以下に記載されるようにグラフィック生成のためにシステム・リソースを割り当てるときに使用される。   Each graphic is assigned an importance level (IN), which is defined by the application. For example, in shipping navigation applications, graphics associated with navigation markers have a relatively high IN, but in tourism applications that cover the same area, those navigation markers have lower importance and therefore The graphics associated with them have a lower IN. The IN assigned by the application can change when the application switches from one mode of operation to another. Using the above example, the application may have two modes of operation, navigation mode and tourism mode for the area. The IN is used by the graphics controller subsystem 110 when allocating system resources for graphics generation as described below.

ユニット位置又は実世界の位置を有する影響エリアは、ソフトウェア/アプリケーション/マイクロ・コード/ユーザーによって定義されてもよい。この影響エリアは、2次元又は3次元形状、例えば円形又は球状であってもよい。影響エリアは、例えば、見える水平線であってもよい。その影響エリアは、基本グラフィック要素の位置が、グラフィック・コントローラ・サブシステム110によってリコールされなければいけないエリアを定義する。   An affected area with unit location or real world location may be defined by software / application / microcode / user. This influence area may be a two-dimensional or three-dimensional shape, for example circular or spherical. The affected area may be a visible horizontal line, for example. The affected area defines the area where the location of the basic graphic element must be recalled by the graphic controller subsystem 110.

図12は、グラフィック・コントローラ(GC)サブシステム110の作動を示すフローチャート1200である。ステップ1201において、システムは、ビジョン・システムが以前生成されたグラフィックを有するかどうかを確認する。もしグラフィックが生成されているいる場合、フローチャートにおいて、そのシステムが、ビジョン・システムの位置又は姿勢が、グラフィックが生成されて以来変化しているかどうかを確認するステップ1202へ進む。もし、その位置又は姿勢が変化している場合、フローチャートにおいてステップ1204へ進む。もし、その位置又は姿勢が変化していない場合、フローチャートにおいて、そのシステムが、ユーザー又はビジョン・システム自体がそのグラフィックを追加又は修正したかどうかを確認するステップ1203へ進む。そのグラフィックが修正又は追加されていない場合、フローチャートにおいて、以前生成されたグラフィックがビジョン・システム107のディスプレイへと伝送されるステップ1214へ進み、次に図14のステップ1401へと進み、ディスプレイ使用サブシステム111をチェックする。そのグラフィックが修正又は追加された場合、フローチャートにおいてステップ1204へ進む。ステップ1204において、GCは、図13に示されるようにグラフィック階層(GH)を生成し、フローチャートは、次に、ステップ1205へ分岐する。ステップ1205において、GCは、ユニット動作によるグラフィック限度サブシステム108が、全体としてグラフィック複雑度における減少を示したかどうかを確認する。そのような減少が示された場合、フローチャートにおいて、GCがGHをそれに応じて修正するステップ1206へ進み、次に、ステップ1207へと進む。そのような減少が示されていない場合、フローチャートにおいてステップ1207へ進む。ステップ1207において、GCは、アクティブなUPが、GHにおける任意の基本グラフィック要素の代替的なデフォルト設定又は複雑度レベルの低減などの修正を示しているかどうかを確認する。そのような修正が示されている場合、フローチャートにおいて、GCがGHをそれに応じて修正するステップ1208へ進み、次にステップ1209へと進む。そのような修正が示されていない場合、フローチャートにおいて、ステップ1209へ進む。ステップ1209において、GCは、GHにおける基本グラフィック要素に対する全ての複雑度数の合計を、それらの現在の複雑度数で計算し、フローチャートにおいて、システムが、CN合計がゼロであるかどうかをチェックするステップ1216へ進む。CN合計がゼロに等しい場合、すなわち全ての基本グラフィック要素が、例えば過度な動作によってそのグラフィック階層から除外されている場合、フローチャートにおいて、システムがユーザーに、スナップショット・モードに切り替えることを伝え、静止イメージを捕らえ、その静止イメージを捕らえる時間にシステム位置及び姿勢を捕らえるステップ1217へ進み、次に、図13のステップ1301へと進み、新しいGHを生成する。もし、CN合計がゼロに等しくない場合、フローチャートにおいて、システムが、GHにおける全てのグラフィックをそれらの現在の複雑度レベルで生成するのに必要なリソースが、利用可能なシステム・リソースを超えていないかどうかを確認するステップ1210へ進む。グラフィック生成に利用可能なリソースは、プロセッサ速度、利用可能なメモリ、バッテリー状態/利用可能な電力、電力使用量、データ伝送速度、事前に定義されたグラフィック及び事前にロードされたアイコン一式などであってもよい。もし、必要なリソースが割り当てられたシステム・リソースを超える場合、フローチャートにおいてステップ1211へ進む。もし、必要なリソースが、割り当てられたシステム・リソースを超えない場合、フローチャートにおいて、GCがグラフィックを生成するステップ1215へ進み、次に、図14のステップ1401へと進み、ディスプレイ使用サブシステム111をチェックする。ステップ1211において、GCは、GHにおける全ての基本グラフィック要素がそれらの最も低い複雑度レベル設定にあるかどうかを確認する。GHにおける全ての基本グラフィック要素が、それらの最も低い複雑度レベルにない場合、フローチャートにおいて、GCが複雑度レベルを低減することによってGH、及び、従って最も低いINを持つ基本要素のうち1レベル分最も低い複雑度レベルにない基本要素のCNを修正するステップ1212へ進み、次に、ステップ1209へと進みCN合計をもう一度計算する。GHにおける全ての基本グラフィック要素がそれらの最も低い複雑度レベルにある場合、フローチャートにおいて、GCが最も低いINを持つ基本要素をGHから消去するステップ1213へ進み、次にステップ1209へと進み、CN合計をもう一度計算する。   FIG. 12 is a flowchart 1200 illustrating the operation of the graphics controller (GC) subsystem 110. In step 1201, the system checks whether the vision system has previously generated graphics. If a graphic has been generated, in the flowchart, the system proceeds to step 1202 where it checks to see if the position or orientation of the vision system has changed since the graphic was generated. If the position or orientation has changed, the process proceeds to step 1204 in the flowchart. If the position or orientation has not changed, in the flowchart the system proceeds to step 1203 where the user or the vision system itself checks to see if the graphic has been added or modified. If the graphic has not been modified or added, the flow proceeds to step 1214 where the previously generated graphic is transmitted to the display of the vision system 107 and then to step 1401 of FIG. Check system 111. If the graphic has been modified or added, go to step 1204 in the flowchart. In step 1204, the GC generates a graphic hierarchy (GH) as shown in FIG. 13, and the flowchart then branches to step 1205. In step 1205, the GC checks whether the graphics limit subsystem 108 due to unit operation has shown a decrease in overall graphics complexity. If such a decrease is indicated, then in the flowchart, go to step 1206 where the GC modifies GH accordingly, and then go to step 1207. If no such decrease is indicated, the process proceeds to step 1207 in the flowchart. In step 1207, the GC checks whether the active UP indicates a modification such as an alternate default setting or complexity level reduction for any basic graphic element in GH. If such a modification is indicated, the flow proceeds to step 1208 where the GC modifies GH accordingly, and then proceeds to step 1209. If no such correction is indicated, go to step 1209 in the flowchart. In step 1209, the GC calculates the sum of all complexity numbers for the basic graphic elements in GH with their current complexity numbers, and in the flowchart the system checks whether the CN sum is zero step 1216. Proceed to If the CN sum is equal to zero, i.e. all basic graphic elements have been excluded from its graphic hierarchy, for example by excessive action, in the flow chart tell the user that the system will switch to snapshot mode and The process proceeds to step 1217 to capture the image and capture the system position and orientation at the time to capture the still image, and then proceeds to step 1301 in FIG. 13 to generate a new GH. If the CN sum is not equal to zero, in the flowchart, the resources needed by the system to generate all graphics in GH at their current complexity level do not exceed the available system resources It proceeds to step 1210 to check whether or not. Resources available for graphics generation include processor speed, available memory, battery status / available power, power usage, data transmission rate, predefined graphics and a pre-loaded set of icons. May be. If the necessary resources exceed the allocated system resources, the process proceeds to step 1211 in the flowchart. If the required resources do not exceed the allocated system resources, in the flowchart, go to step 1215 where the GC generates graphics, then go to step 1401 in FIG. To check. In step 1211, the GC checks to see if all basic graphic elements in GH are at their lowest complexity level setting. If all the basic graphic elements in GH are not at their lowest complexity level, the GC will reduce the complexity level in the flow chart so that one level of the basic element with GH and hence the lowest IN Proceed to step 1212 to modify the CN of the base element that is not at the lowest complexity level, then proceed to step 1209 to calculate the CN total again. If all the basic graphic elements in GH are at their lowest complexity level, then in the flowchart go to step 1213 where the GC has the lowest IN with the lowest IN and go to step 1213, then go to step 1209, where CN Calculate the total again.

図13は、GCがグラフィック階層(GH)をどのように生成するかを示すフローチャートである。ステップ1201において、GCは、全ての基本グラフィック要素を、アプリケーション及びユーザー対話によって定義されるようにリコールし、それらの位置は、影響エリア内にあり、その影響エリアは、アプリケーション又はユーザーでシステム位置に対して定義されており、次に、どのグラフィックが、システム姿勢及び視野データに基づいて、ビジョン・システム107の視野内にあるかを決定する。図17は、ビジョン・システム107の場所1701の平面ビュー、定義された影響エリア1702の限度、基本グラフィック要素の位置1703、視線1704及び視野/アドレス1705を示す。もし機器が、ビジョン・システムでなく、例えば携帯電話である場合、その機器はビジョン・システムの視野に似たアドレス・フィールドを持っても良い。このアドレスのフィールドは、例えばその携帯電話の最も長い寸法の軸を持つ30°で広がる円錐形であってもよい。図17はまた、つい最近視野1705から出た、又はもうすぐその視野に入る基本グラフィック要素が追跡される「ディスプレイ・バッファ」領域1706を示す。フローチャートは、次に、各グラフィックが、GCによって割り当てられるアプリケーションで定義された基本「重要度数」(IN)を有するステップ1302へ進む。例えば、そのアプリケーションは、Whale Rockの1マイル内のエリアを非常に重要として定義してもよく、従って、それに比較的高いINを割り当ててもよい。あるいは、ユーザーは、一式の中間点で構成されるルートを選択しても良い。これらの中間点は、影響エリアに入ってくると、それらには、比較的高いINが割り当てられる。なぜならば、ユニットがナビゲーション・マーカーに優先権を与えるからである。危険エリアなどの、アプリケーション/ユーザーによって非常に重要又は主な対象として定義されるグラフィックには、非常に高いINが割り当てられる。フローチャートは、次に、GCがリコールされたグラフィックのいずれかが、アクティブなUPによって対象として定義されているかどうかを確認するステップ1303へと進む。もしグラフィックが対象として定義されている場合、フローチャートにおいて、それらのグラフィックのINがアプリケーションで定義された割合によって増加されるステップ1304へ進み、次に、ステップ1305へと進む。グラフィックが対象として定義されていない場合、フローチャートにおいてステップ1305へ進む。ステップ1305において、GCは、グラフィックの位置のいずれかが、ユーザー又はシステムのいずれか一方で定義された対象エリア内にあるかどうかを確認する。グラフィックの位置のいずれかが、対象エリア内にある場合、フローチャートにおいて、GCが対象エリアのグラフィックのIN をアプリケーションで定義された割合によって増加させるステップ1306へ進み、次にステップ1307へと進む。ステップ1307において、GCは、任意のグラフィックの位置までの範囲が第1範囲IN低減しきい値を超えるかどうかを確認する。そのようなしきい値システムの例は、0‐500m=100%IN、501‐1000m=80%IN、1001m‐1500m=60%INなどであってもよい。いずれかのグラフィックの位置までの範囲が第1範囲IN低減しきい値を超える場合、フローチャートにおいて、それらのグラフィックのINがアプリケーションで設定された範囲IN低減しきい値に従って低減されるステップ1308へ進み、次にステップ1309へと進む。いずれかのグラフィックの位置までの範囲が第1範囲IN低減しきい値を超えない場合、フローチャートにおいてステップ1309へ進む。ステップ1309において、GCは、ビジョン・システム107視線からいずれかのグラフィックの位置への方位が、第1範囲IN低減しきい値を超えるかどうかを確認する。いずれかのグラフィックの位置への方位が、第1範囲IN低減しきい値を超えない場合、フローチャートにおいてステップ1311へ進む。ステップ1311において、GCは、最も高いINから最も低いINまで優先の順番で記載されている基本グラフィック要素で構成されるグラフィック階層(GH)を生成する。次に、フローチャートはステップ1312へ進む。ステップ1312において、システムは、スナップショット・モードがアクティブであるかどうかを確認する。スナップショット・モードがアクティブである場合、フローチャートにおいて、図18のステップ1801へ進む。スナップショット・モードがアクティブでない場合、フローチャートにおいて図12のステップ1205へ進む。

スナップショット・モード
スナップショット・モードは、システムが、過度な機器の動作などの状況の場合にもユーザーに情報を表示することを可能にし、イメージのリアルタイムの生成を可能にしない。これは、静止イメージ及び関連する位置及び姿勢を捕らえ、グラフィック階層を生成し、そのGHにおける最も低い基本要素のセットの割合の複雑度レベルを低減し、合成イメージを生成することによってなされる。合成イメージの生成は、リアルタイム操作においてイメージ生成するのに通常可能な時間よりも多くの時間を取ってもよい。このモードは、通常、図12のステップ1216及び1217に示されるように自動的にアクティブにされてもよいが、リクエストに応じてユーザーによってもアクティブにされてもよい。
FIG. 13 is a flowchart showing how the GC generates a graphic hierarchy (GH). In step 1201, the GC recalls all basic graphic elements as defined by the application and user interaction, their location is within the affected area, and the affected area is at the system location at the application or user. And then determine which graphics are in the vision system 107 field of view based on the system pose and field of view data. FIG. 17 shows a plan view of the location 1701 of the vision system 107, the limits of the defined influence area 1702, the position of the basic graphic element 1703, the line of sight 1704, and the field of view / address 1705. If the device is not a vision system but a mobile phone, for example, the device may have an address field similar to the vision system field of view. This address field may be, for example, a cone extending at 30 ° with the longest dimension axis of the mobile phone. FIG. 17 also shows a “display buffer” area 1706 in which the basic graphic elements that have just left the view 1705 or that will soon enter the view are tracked. The flowchart then proceeds to step 1302 where each graphic has a basic “importance number” (IN) defined in the application assigned by the GC. For example, the application may define the area within a mile of Whale Rock as very important and may therefore assign a relatively high IN to it. Alternatively, the user may select a route composed of a set of intermediate points. As these midpoints enter the affected area, they are assigned a relatively high IN. This is because the unit gives priority to the navigation marker. Graphics that are defined as very important or main objects by the application / user, such as hazardous areas, are assigned a very high IN. The flowchart then proceeds to step 1303 where a check is made to see if any of the GC recalled graphics are defined as targets by the active UP. If graphics are defined as targets, then in the flowchart, the IN of those graphics is incremented by the rate defined by the application, proceeding to step 1304, and then proceeding to step 1305. If the graphic is not defined as a target, the process proceeds to step 1305 in the flowchart. In step 1305, the GC checks whether any of the graphic locations are within the defined area of interest, either by the user or the system. If any of the graphic positions is within the target area, then in the flowchart, the GC proceeds to step 1306 where the IN of the graphic in the target area is increased by a rate defined by the application, and then proceeds to step 1307. In step 1307, the GC checks whether the range to the position of any graphic exceeds the first range IN reduction threshold. Examples of such threshold systems may be 0-500m = 100% IN, 501-1000m = 80% IN, 1001m-1500m = 60% IN, etc. If the range to the location of any graphic exceeds the first range IN reduction threshold, proceed to step 1308 in the flowchart where those graphic INs are reduced according to the range IN reduction threshold set in the application. Then, the process proceeds to Step 1309. If the range up to any graphic position does not exceed the first range IN reduction threshold value, the process proceeds to step 1309 in the flowchart. In step 1309, the GC checks whether the orientation from the vision system 107 line of sight to the position of any graphic exceeds a first range IN reduction threshold. If the orientation to the position of any graphic does not exceed the first range IN reduction threshold value, the process proceeds to step 1311 in the flowchart. In step 1311, the GC generates a graphic hierarchy (GH) composed of basic graphic elements described in a priority order from the highest IN to the lowest IN. The flowchart then proceeds to step 1312. In step 1312, the system checks whether the snapshot mode is active. If the snapshot mode is active, the process proceeds to step 1801 in FIG. 18 in the flowchart. If the snapshot mode is not active, the process proceeds to step 1205 in FIG. 12 in the flowchart.

Snapshot mode Snapshot mode allows the system to display information to the user even in situations such as excessive equipment operation and does not allow real-time generation of images. This is done by capturing still images and associated positions and orientations, generating a graphic hierarchy, reducing the complexity level of the lowest set of primitives in that GH, and generating a composite image. The generation of the composite image may take more time than is normally possible to generate an image in real-time operation. This mode may typically be automatically activated as shown in steps 1216 and 1217 of FIG. 12, but may also be activated by the user upon request.

図18は、スナップショット・モードにおけるビジョン・システム107の作動の一部を示すフローチャート1800である。ステップ1801において、システムは、GHのより低い割合にある基本要素のグラフィック複雑度を最も低いレベルに低減する。例えば80%のこの割合は、アプリケーションによって定義される。これは、合成イメージの生成を、GHによって最も重要なグラフィックだけを生成することによって速くするためになされ、それらの最大の複雑度レベルで生成される。フローチャートは、次に、システムが、最も時間を必要とする合成イメージをレンダリングする。それは、「リアルタイム」の時間枠において、その枠は必要でないからである。次に、図14のステップ1401へ進み、ディスプレイ使用サブシステム111をチェックする。   FIG. 18 is a flowchart 1800 showing a portion of the operation of vision system 107 in snapshot mode. In step 1801, the system reduces the graphics complexity of the underlying elements at a lower rate of GH to the lowest level. For example, this percentage of 80% is defined by the application. This is done to speed up the generation of composite images by generating only the most important graphics with GH, and at their maximum complexity level. The flowchart then renders the composite image that the system requires the most time. This is because in a “real time” time frame, that frame is not necessary. Next, the process proceeds to step 1401 in FIG. 14, and the display usage subsystem 111 is checked.

図19は、スナップショット・モードにおけるビジョン・システム107の追加の作動を示すフローチャート1900である。ステップ1901において、システムは、ユーザーが監視モードをアクティブにしたかどうかを確認する。監視モードがアクティブにされた場合、フローチャートにおいて図7のステップ702に進み、タイム・トリガー206の監視を開始する。監視モードがアクティブにされていない場合、フローチャートにおいて、システムが、ビジョン・システム107が全体としてオフになっているかどうかを確認するステップ1302へ進む。ビジョン・システム107がオフになっている場合、フローチャートにおいて、全てのシステムが非アクティブにされビジョン・システム107がシャットダウンするステップ1903へ進む。ビジョン・システムがオフになっていない場合、フローチャートにおいて、システムが、ユーザーがスナップショット・モードをアクティブにしたかどうかを確認するステップ1904へ進む。スナップショット・モードが非アクティブになっている場合、フローチャートにおいて図7のステップ702へ進み、ユニット動作によるグラフィック限度サブシステム108をチェックする。スナップショット・モードが非アクティブになっていない場合、フローチャートにおいて、システムが、ユーザーが新しい静止イメージを捕らえると示したかどうかを確認するステップ1905へ進む。新しいイメージが示された場合、フローチャートにおいて、システムが、その新しい静止イメージを捕らえ、そのイメージを捉えた時間でのシステムの位置及び姿勢を捕らえるステップ1906へ進み、次に図13のステップ1301へ進み新しいGHを生成する。新しいイメージが示されていない場合、フローチャートにおいて、図14のステップ1401へ進み、ディスプレイ使用サブシステム111をチェックする。

ディスプレイ使用サブシステム111;
図14は、ディスプレイ使用サブシステム111の作動を示すフローチャート1400である。このサブシステムは、ユーザーが実際にビジョン・システムのディスプレイを見ているのかを検出し、それに応じてディスプレイをアクティブ又は非アクティブにするように動作することが可能である。スクリーンの背面照明をウォームアップするなどの活動のいくつかは、全く非アクティブになることは無く、その代わりにビジョン・システムが全体としてアクティブでいる間アクティブのままでいることに注目されたい。ステップ1401において、システムは、1つ/複数のディスプレイがアクティブであるかどうかを確認する。その/それらのディスプレイがアクティブである場合、フローチャートにおいてステップ1402へ進み。その/それらのディスプレイがアクティブでない場合、フローチャートにおいて、ステップ1403へ進む。ステップ1402において、システムは、オブジェクトがアプリケーション/ユーザーで定義されたディスプレイ起動範囲しきい値内にあるかどうかを確認する。これは、低電力ソニック、発光レーザー又は他の似た範囲の装置の使用によってなされる。ユーザーは、例えば矯正レンズ又はサングラスの着用者がそのサブシステムを使用できるようにし、且つディスプレイをアクティブにすることができるように、この起動しきい値を修正してもよい。これは、望ましいディスプレイ起動範囲しきい値がユーザー使用プロぎールの一部であることにおいて、もう一歩さらに踏み込んでもよい。オブジェクトがディスプレイ起動範囲しきい値内で検出された場合、フローチャートにおいて、ディスプレイがアクティブのままでいるステップ1405へ進み、次に1407へと進む。オブジェクトがディスプレイ起動範囲しきい値内で検出されない場合、フローチャートにおいて、ディスプレイが非アクティブにされるステップ1404へ進み、次にステップ1407へと進む。ステップ1403において、システムは、オブジェクトがアプリケーション/ユーザーで定義されたディスプレイ起動範囲しきい値内にあるかどうかを確認する。オブジェクトが、ディスプレイ起動範囲敷地内に検出される場合、フローチャートにおいて、ディスプレイがアクティブにされるステップ1406へ進み、次にステップ1407へと進む。オブジェクトがディスプレイ起動範囲しきい値内に検出されない場合、フローチャートにおいてステップ1407へ進む。スナップショット・モードがアクティブである場合、フローチャートにおいて図19のステップ1901へ進む。スナップショット・モードがアクティブでない場合、フローチャートは、図15のステップ1501へ進み、スリープ・サブシステム112をチェックする。

スリープ・サブシステム112;
図15は、スリープ・サブシステム112の作動を示すフローチャート1500である。このサブシステムは、ビジョン・システムの位置又は姿勢がユーザー又はアプリケーションで定義された期間において変化しない場合、システムを監視モードに戻すために使用可能にされる。
FIG. 19 is a flowchart 1900 illustrating additional operation of the vision system 107 in snapshot mode. In step 1901, the system checks whether the user has activated the monitoring mode. When the monitoring mode is activated, the process proceeds to step 702 in FIG. 7 in the flowchart, and monitoring of the time trigger 206 is started. If the monitoring mode is not activated, in the flowchart, the system proceeds to step 1302 where it is determined whether the vision system 107 is turned off overall. If the vision system 107 is turned off, proceed to step 1903 in the flowchart where all systems are deactivated and the vision system 107 is shut down. If the vision system is not turned off, in the flowchart, the system proceeds to step 1904 where the user determines whether the user has activated the snapshot mode. If the snapshot mode is inactive, proceed to step 702 of FIG. 7 in the flowchart to check the graphic limit subsystem 108 by unit operation. If the snapshot mode has not been deactivated, the flow proceeds to step 1905 where the system checks to see if the user has indicated that the user will capture a new still image. If a new image is shown, in the flowchart, the system captures the new still image and proceeds to step 1906 where the system's position and orientation at the time the image was captured is followed by step 1301 in FIG. Generate new GH. If no new image is shown, the flow proceeds to step 1401 of FIG. 14 to check the display usage subsystem 111 in the flowchart.

Display usage subsystem 111;
FIG. 14 is a flowchart 1400 illustrating the operation of the display usage subsystem 111. This subsystem is operable to detect whether the user is actually looking at the vision system display and to activate or deactivate the display accordingly. Note that some activities, such as warming up the screen backlighting, never become inactive, but instead remain active while the vision system is active overall. In step 1401, the system checks whether one / multiple displays are active. If the / their displays are active, go to step 1402 in the flowchart. If the / their displays are not active, go to step 1403 in the flowchart. In step 1402, the system checks if the object is within the display activation range threshold defined by the application / user. This is done through the use of low power sonic, light emitting lasers or other similar range devices. The user may modify this activation threshold so that, for example, a corrector or sunglasses wearer can use the subsystem and activate the display. This may go a step further in that the desired display activation range threshold is part of the user usage strategy. If the object is detected within the display activation range threshold, in the flowchart, proceed to step 1405 where the display remains active, and then proceed to 1407. If the object is not detected within the display activation range threshold, proceed to step 1404 where the display is deactivated in the flowchart, and then proceed to step 1407. In step 1403, the system checks if the object is within the display activation range threshold defined by the application / user. If the object is detected within the display activation range premises, proceed to step 1406 where the display is activated in the flowchart, and then proceed to step 1407. If the object is not detected within the display activation range threshold, go to step 1407 in the flowchart. If the snapshot mode is active, the process proceeds to step 1901 in FIG. 19 in the flowchart. If the snapshot mode is not active, the flowchart proceeds to step 1501 of FIG. 15 to check the sleep subsystem 112.

Sleep subsystem 112;
FIG. 15 is a flowchart 1500 illustrating the operation of the sleep subsystem 112. This subsystem is enabled to return the system to the monitoring mode if the position or orientation of the vision system does not change in a user or application defined period.

また、初期のグラフィック複雑度低減は、CPU又はアプリケーション・プロセッサによって、例えば加速計などのセンサーからの高い振動率を示す読み込みに基づいて実施されてもよい。例えば、各クラスのオブジェクトに対する所定の振動率におけるCN低減の表が、GCシステムが計算を開始する前にCNを限定するためにCPUによって使用されてもよく、そうすることによって時間及び電力が節約される。   The initial graphic complexity reduction may also be performed by the CPU or application processor based on readings indicating high vibration rates from sensors such as accelerometers, for example. For example, a table of CN reduction at a given vibration rate for each class of objects may be used by the CPU to limit the CN before the GC system starts computing, thereby saving time and power Is done.

検出された機器の加速は、また、ビジョン・システムなどの装置のボアサイト(bore-site)の決定された方向を、装置の加速を直角の面において監視し、場所、アプリケーション、ユーザーなどによって定義される事前に設定されたルールのセットに基づいて補うことによって、改良するためにも使用されてよい。一例は、脇道にある車において使用されるビジョン・システムである。通常の車両懸架装置の作動を仮定すると、自動車の上方向の直角の加速は、下方向の加速よりもずっと突然であり、従って、システムは、平均がとられ、安定化された装置のボアサイトを決定する場合に上方向の動作の割合でのみ読み込むだろう。   Detected device acceleration is also defined by the location, application, user, etc., by monitoring the determined direction of the bore-site of a device such as a vision system in a plane perpendicular to the device acceleration It can also be used to refine by supplementing based on a pre-configured set of rules. An example is a vision system used in a car on a side street. Assuming normal vehicle suspension operation, the car's upward normal acceleration is much more sudden than the downward acceleration, so the system is averaged and stabilized equipment boresight Will only read at a rate of upward movement when determining.

上記の例は、これらの発明の装置及び方法の望ましい型を説明する具体的な実施形態に向けられる。完全性のために、装置及びそれが有する要素並びに方法及びそれが含むステップのより一般的な説明が、以下に示されている。   The above examples are directed to specific embodiments illustrating the desired type of devices and methods of these inventions. For completeness, a more general description of the apparatus and the elements and methods it contains and the steps it contains is given below.

当業者は、グラフィック・システムがどのように形成され、合成イメージのグラフィック要素が、生成されるイメージの関連するハンドヘルド・システムの瞬間的状態の視点におけるグラフィックの重要度及び複雑度に関する好みで生成されるかを完全に理解するであろう。本発明は、明確且つ簡潔な言語で、発明者が期待する最適のモードを含む、ある望ましい型を参照して、かなり詳しく説明されているが、他の型も可能である。従って、本発明の要旨及び範囲は、それらの含まれる望ましい型の記載によって限定されるべきではなく、むしろここに添付された請求項によって限定されるべきである。
Those skilled in the art will know how the graphic system is formed and the graphic elements of the composite image are generated with preferences regarding the importance and complexity of the graphic in terms of the instantaneous state of the associated handheld system of the generated image. You will understand completely. Although the present invention has been described in considerable detail in a clear and concise language and with reference to certain desirable types, including the optimal mode that the inventor expects, other types are possible. Therefore, the spirit and scope of the present invention should not be limited by the descriptions of the preferred types contained therein, but rather by the claims appended hereto.

101…クロック
104…位置センサー
105…姿勢センサー
106…加速計
107…ビジョン・システム
108…ユニット動作によるグラフィック限度サブシステム
1601…位置
1602…位置
1603…位置
1604…視野
1605…視野
1606…視野
1607…3つの視野の交差点
1701…場所
1702…影響エリア
1703…基本グラフィック要素の位置
1704…視線
1705…視野/アドレス・フィールド
1706…「ディスプレイ・バッファ」区域
101 ... clock
104 ... Position sensor
105 ... Attitude sensor
106 ... Accelerometer
107 ... Vision System
108 ... Graphic limit subsystem by unit operation
1601 ... Position
1602 ... Position
1603 ... Position
1604 ... Field of view
1605 ... Field of view
1606 ... Field of view
1607 ... intersection of three fields of view
1701… Location
1702… Affected area
1703: Position of basic graphic elements
1704 ... Gaze
1705 ... Field of view / address field
1706 “Display Buffer” area

Claims (3)

グラフィックイメージをレンダリングする方法であり、慣性測定装置によって決定されるものを含む自由に動作可能な携帯ユニットの物理的状態に応答する、方法。   A method for rendering a graphic image, the method being responsive to a physical state of a freely operable portable unit, including one determined by an inertial measurement device. 前記自由に動作可能な携帯ユニットの位置及びポインティング方向に応答する、請求項1に記載の方法。   The method of claim 1, wherein the method is responsive to a position and pointing direction of the freely movable portable unit. 請求項1に記載の方法であり:
携帯機器の位置を決定するステップ、
携帯機器のポインティング姿勢を決定するステップ、
複数のグラフィック要素を含むイメージを生成し、該グラフィック要素の順番及び詳細は、位置及び姿勢として測定される値によってレンダリングされる、ステップ、
をさらに含む方法。
The method of claim 1, wherein:
Determining the position of the mobile device;
Determining a pointing posture of the mobile device;
Generating an image including a plurality of graphic elements, wherein the order and details of the graphic elements are rendered by values measured as position and orientation;
A method further comprising:
JP2010231775A 2009-11-21 2010-10-14 Methods for rendering graphical images Pending JP2011113561A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/592,239 US20100127971A1 (en) 2008-11-21 2009-11-21 Methods of rendering graphical images
US12/592,239 2009-11-21

Publications (1)

Publication Number Publication Date
JP2011113561A true JP2011113561A (en) 2011-06-09

Family

ID=44242462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010231775A Pending JP2011113561A (en) 2009-11-21 2010-10-14 Methods for rendering graphical images

Country Status (1)

Country Link
JP (1) JP2011113561A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281889A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Device and method for displaying map
JPH10207351A (en) * 1997-01-20 1998-08-07 Nissan Motor Co Ltd Navigation system and medium which stores navigation program using the system
JP2006227744A (en) * 2005-02-15 2006-08-31 Mitsubishi Electric Corp Information generation device, retrieval device, distribution device and information distribution system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281889A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Device and method for displaying map
JPH10207351A (en) * 1997-01-20 1998-08-07 Nissan Motor Co Ltd Navigation system and medium which stores navigation program using the system
JP2006227744A (en) * 2005-02-15 2006-08-31 Mitsubishi Electric Corp Information generation device, retrieval device, distribution device and information distribution system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500287006; 嶋田茂, 外2名: '"空間要約による携帯ナビゲーションシステムの構成方式とその評価"' 情報処理学会論文誌 第44巻, 第12号, 20031215, p.3002-3013, 社団法人情報処理学会 *
JPN6014029378; 嶋田茂, 外2名: '"空間要約による携帯ナビゲーションシステムの構成方式とその評価"' 情報処理学会論文誌 第44巻, 第12号, 20031215, p.3002-3013, 社団法人情報処理学会 *

Similar Documents

Publication Publication Date Title
US20100127971A1 (en) Methods of rendering graphical images
US10521944B2 (en) Repositioning user perspectives in virtual reality environments
US10551834B2 (en) Method and electronic device for controlling unmanned aerial vehicle
JP7455846B2 (en) Object jump control method, apparatus, computer device and computer program
JP7058842B2 (en) Markpoint location display method, electronic devices and computer readable storage media
AU2018274971B2 (en) Augmented video system providing enhanced situational awareness
US10708704B2 (en) Spatial audio for three-dimensional data sets
US9766712B2 (en) Systems and methods for orienting a user in a map display
EP3832605B1 (en) Method and device for determining potentially visible set, apparatus, and storage medium
US11328489B2 (en) Augmented reality user interface including dual representation of physical location
WO2022227915A1 (en) Method and apparatus for displaying position marks, and device and storage medium
WO2014148040A1 (en) Three-dimensional map display device
US20160012754A1 (en) Three-dimensional map display device
JP2011113561A (en) Methods for rendering graphical images
US20140153896A1 (en) Information-processing system, information-processing device, storage medium, and method
JP2015118578A (en) Augmented reality information detail
CN112154389A (en) Terminal device and data processing method thereof, unmanned aerial vehicle and control method thereof
WO2021125190A1 (en) Information processing device, information processing system, and information processing method
US20230309207A1 (en) Illumination light control based on orientation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141015

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141114

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150224