JP5336277B2 - オリエンテーション装置およびそれに用いられる座標生成方法 - Google Patents
オリエンテーション装置およびそれに用いられる座標生成方法 Download PDFInfo
- Publication number
- JP5336277B2 JP5336277B2 JP2009160166A JP2009160166A JP5336277B2 JP 5336277 B2 JP5336277 B2 JP 5336277B2 JP 2009160166 A JP2009160166 A JP 2009160166A JP 2009160166 A JP2009160166 A JP 2009160166A JP 5336277 B2 JP5336277 B2 JP 5336277B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- coordinate space
- orientation device
- image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/219—Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1062—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to a type of game, e.g. steering wheel
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/303—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
- A63F2300/305—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
Description
a)前記ライトガン8の照準を前記ディスプレイ91のスクリーン910上の目標点911に合わせ、前記イメージセンサ82が前記ディスプレイ91のスクリーン910上に提示されたイメージの照準部分を取り込むことができるように、かつ前記タイマ81が前記ディスプレイ91のスクリーン910上に提示されたイメージに関して前記目標点911を走査した走査時間を求めることができるように、前記ライトガン8を操作する工程;および
b)工程a)で求めた走査時間に関して前記目標点911の座標を求める工程。
A)第1座標空間を規定する目標物の上に少なくとも3つの参照マークを設ける工程と、
B)第2座標空間を規定する前記オリエンテーション装置(3)の照準を前記目標物上の目標点に合わせ、前記センサが前記参照マークを含む前記目標物のイメージを取り込むことができるように、前記オリエンテーション装置を操作する工程と、
C)前記工程B)で取り込んだイメージ中の前記参照マークの、第2座標空間上での座標を求める工程と、
D)前記工程C)で決定した前記参照マークの座標について前記第1座標空間への平面投影変換計算を行い、変換行列を得る工程と、
E)前記オリエンテーション装置のイメージ取り込み軸を、前記工程D)で得た前記変換行列と、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物の前記第1座標空間上の所定の点を前記第2座標空間上へマッピングすることによって得られる軸補正値とに基づいて補正する工程と、
F)前記工程E)で補正したイメージ取り込み軸と、前記工程D)で得た前記変換行列と、前記工程B)で取り込んだイメージとを参照して、前記第1座標空間上での前記目標点の座標を求める工程とからなることを第1の特徴とし、またこの特徴に加えて、前記記工程B)において前記オリエンテーション装置の照準を前記参照マークの1つに合わせ、その合わせた参照マークを前記第2座標空間上へマッピングすることによって前記軸補正値を得ることを第2の特徴とする。
A)第1座標空間を規定すると共に4つのコーナを有する目標物の上に、それらコーナとはそれぞれ別個の座標を有する少なくとも3つの参照マークを設ける工程と、
B)第2座標空間を規定する前記オリエンテーション装置の照準を前記目標物上の任意の点に合わせ、前記センサが前記参照マークを含む前記目標物のイメージを取り込むことができるように、前記オリエンテーション装置を操作する工程と、
C)前記オリエンテーション装置の照準を前記目標物の各コーナに順番に合わせ、前記参照マークを含むと共に照準を合わせたコーナの各々に対応する前記目標物の4つのイメージを前記センサが取り込むことができるように、前記オリエンテーション装置を前記順番で操作する工程と、
D)前記オリエンテーション装置の照準を前記目標物上の目標点に合わせ、前記センサが前記参照マークを含む前記目標物のイメージを取り込むことができるように、前記オリエンテーション装置を操作する工程と、
E)前記工程B)で取り込んだ前記目標物の、前記参照マークを含むイメージに基づいて得られる、前記目標物の前記第1座標空間と前記オリエンテーション装置の前記第2座標空間との間の座標空間相関と、前記工程D)で取り込んだイメージと、前記工程C)で取り込んだ4つのイメージとを参照して前記目標点の、前記第1座標空間上での座標を求める工程とからなることを第3の特徴とし、この第3の特徴に加えて、前記参照マークの1つが、前記工程B)の前記目標物上の前記任意の点としての役割を果たし、前記第1座標空間上の前記任意の点を前記第2座標空間上へマッピングすることによって、前記第2座標空間を前記第1座標空間と相関させるための軸補正値を得ることを第4の特徴とする。
前記オリエンテーション装置が、
該オリエンテーション装置の照準を前記目標物上の目標点に合わせながら操作するときに、前記参照マークを含む前記目標物のイメージを取り込むことができるセンサと、
前記センサセンサにより取り込まれた前記目標物の、前記参照マークを含むイメージに基づいて得られる、前記目標物の前記第1座標空間と前記オリエンテーション装置の前記第2座標空間との間の座標空間相関、並びに前記センサにより取り込まれたイメージを参照して、前記目標点の、前記第1座標空間上での座標を求めるように操作可能なプロセッサとを備え、
該プロセッサが、
前記センサが取り込んだイメージ中の前記参照マークの、前記第2座標空間上での座標を求める工程と、
前記工程で求めた前記参照マークの座標について前記第1座標空間への平面投影変換計算を行い、変換行列を得る工程と、
前記オリエンテーション装置のイメージ取り込み軸を、前記変換行列と、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物の前記第1座標空間上の所定の点を前記第2座標空間上へマッピングすることによって得られる軸補正値とに基づいて補正する工程と、
前記オリエンテーション装置の照準を前記目標点に合わせながら操作した時に前記センサに取り込んだ、前記参照マークを含む前記目標物のイメージと、前記変換行列と、補正したイメージ取り込み軸とを参照して、前記目標点の、前記第1座標空間上での座標を求める工程とを行うことを第5の特徴とする。
前記オリエンテーション装置が、
該オリエンテーション装置の照準を前記目標物上の目標点に合わせながら操作するときに、前記参照マークを含む前記目標物のイメージを取り込むことができるセンサと、
該センサに接続されて、前記目標物の前記第1座標空間と前記オリエンテーション装置の前記第2座標空間との間の座標空間相関、並びに前記センサにより取り込まれたイメージを参照して、前記目標点の、前記第1座標空間上での座標を求めるように操作可能なプロセッサとを備えるシステムであって、
前記オリエンテーション装置の照準を前記目標物上の任意の点に合わせることによって、前記センサが前記参照マークを含む前記目標物のイメージを取り込み可能であると共に、前記オリエンテーション装置の照準を前記目標物の各コーナに順番に合わせることによって、前記センサが前記参照マークを含むと共に照準を合わせたコーナの各々に対応する前記目標物の4つのイメージを取り込み可能であり、
前記プロセッサが、
A)前記オリエンテーション装置の照準を前記目標物上の任意の点に合わせることによって前記センサにより取り込まれた前記目標物の、前記参照マークを含むイメージに基づいて、前記第2座標空間を前記第1座標空間と相関させて前記座標空間相関を設定する工程と、
B)前記工程A)で設定した座標空間相関を参照し、更に前記オリエンテーション装置の照準を前記目標点に合わせることによって取り込んだ前記目標物の、前記参照マークを含むイメージと、前記オリエンテーション装置の照準を前記目標物の各コーナに順番に合わせることによって取り込んだ4つのイメージとを参照して、前記目標点の、前記第1座標空間上での座標を求める工程とを行うことを第6の特徴とし、また前記第5又は第6の特徴に加えて、ディスプレイおよび前記オリエンテーション装置に接続されたコントローラを更に備え、該コントローラは、前記オリエンテーション装置の前記プロセッサが求めた前記目標点の、前記第1座標空間上での座標に応じて前記ディスプレイのスクリーンに提示されるイメージを制御することを第7の特徴とする。
前記オリエンテーション装置の照準を前記目標物上の目標点に合わせながら操作するときに、前記参照マークを含む前記目標物のイメージを取り込むようになっているセンサと、そのセンサに接続されるプロセッサとを備え、
前記プロセッサは、前記センサにより取り込まれた前記目標物の、前記参照マークを含むイメージに基づいて得られる、前記目標物の前記第1座標空間と前記オリエンテーション装置の前記第2座標空間との間の座標空間相関と、前記オリエンテーション装置の照準を前記目標点に合わせながら操作した時に該センサに取り込まれた前記目標物の、前記参照マークを含むイメージと、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物の前記第1座標空間上の所定の点を前記第2座標空間上へマッピングすることによって得られる軸補正値とを参照して、前記目標点の、前記第1座標空間上での座標を求めるように操作可能であることを第8の特徴とする。
図2は、本発明によるオリエンテーション装置の好適な実施例を内蔵するシステムの模式図であり;
図3は、好適な実施例の模式的ブロック図であり;
図4Aは、本発明によるオリエンテーション装置を用いた座標生成方法の第1の好適な実施例を示すフローチャートであり;
図4Bは、本発明によるオリエンテーション装置を用いた座標生成方法の第1の好適な実施例を示すもう一つのフローチャートであり;
図5は、前記オリエンテーション装置により照準される目標点を示す図であり;
図6は、前記オリエンテーション装置により決定された軸補正値を示す図であり;
図7Aは、本発明によるオリエンテーション装置を用いた座標生成方法の第2の好適な実施例を示すフローチャートであり;
図7Bは、本発明によるオリエンテーション装置を用いた座標生成方法の第2の好適な実施例を示すもう一つのフローチャートであり;
図8は、前記オリエンテーション装置が照準する任意の点を示す図であり;
図9は、前記オリエンテーション装置により得られた投影変換行列(Hinner )を示す図であり;
図10は、前記オリエンテーション装置により得られた他の投影変換行列(Hany )を示す図である。
サブ工程471:工程46で取り込んだイメージにおける前記参照マーク111,112,113,114の座標を求める;
サブ工程472:サブ工程471で求めた前記参照マーク111,112,113,114の座標について平面投影変換計算を行い、変換行列(Hany )を得る;
サブ工程473:サブ工程472で得た変換行列(Hany )と工程44で得た軸補正値(Xref )に基づいて前記オリエンテーション装置3のコントローラ・モジュール32のセンサ321のイメージ取込み軸6’(図6参照)を補正する;および
サブ工程474:補正したイメージ取込み軸6’に関して目標点(Pany )の相対座標を求める。
の後、フローは工程85に戻る。
サブ工程871:工程76で取り込んだイメージ中の前記参照マーク111,112,113,114の座標を求める;
サブ工程872:図9に示すように、サブ工程871で求めた参照マークの座標について平面投影変換計算を行い、変換行列(Hinner )を得る;
サブ工程873:工程78,80,82,84で取り込んだイメージ中の参照マーク111,112,113,114の座標を求める;
サブ工程874:サブ工程873で求めた前記参照マーク111,112,113,114の座標について平面投影変換計算を行い、変換行列(Ha ,Hb ,Hc ,Hd )を得る;
サブ工程875:工程86で取り込んだイメージ中の参照マーク111,112,113,114の座標を求める;
サブ工程876:図10に示すように、サブ工程875で求めた参照マークの座標について平面投影変換計算を行い、変換行列(Hany )を得る;
サブ工程877:サブ工程872で得た変換行列(Hinner )、サブ工程874で得た変換行列(Ha ,Hb ,Hc ,Hd )、サブ工程876で得た変換行列(Hany )、工程74で得た軸補正値(Xref )に基づいて、前記オリエンテーション装置のイメージ取込み軸を補正する;および
サブ工程878:補正したイメージ取込み軸に関して目標点(Pany )の相対座標を求める。
11 目標物
100 システム
110 スクリーン
111,112,113,114 参照マーク
321 センサ
322 プロセッサ
P 目標点
Claims (8)
- センサ(321)を備えたオリエンテーション装置(3)を使用して座標生成を実行する方法であって、
A)第1座標空間を規定する目標物(11)の上に少なくとも3つの参照マーク(111〜114)を設ける工程と、
B)第2座標空間を規定する前記オリエンテーション装置(3)の照準を前記目標物(11)上の目標点(Pany )に合わせ、前記センサ(321)が前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むことができるように、前記オリエンテーション装置(3)を操作する工程と、
C)前記工程B)で取り込んだイメージ中の前記参照マーク(111〜114)の、第2座標空間上での座標を求める工程と、
D)前記工程C)で決定した前記参照マーク(111〜114)の座標について前記第1座標空間への平面投影変換計算を行い、変換行列(H any )を得る工程と、
E)前記オリエンテーション装置(3)のイメージ取り込み軸(6’)を、前記工程D)で得た前記変換行列(H any )と、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物(11)の前記第1座標空間上の所定の点(111)を前記第2座標空間上へマッピングすることによって得られる軸補正値(Xref )とに基づいて補正する工程と、
F)前記工程E)で補正したイメージ取り込み軸(6’)と、前記工程D)で得た前記変換行列(H any )と、前記工程B)で取り込んだイメージとを参照して、前記第1座標空間上での前記目標点(Pany )の座標を求める工程とからなることを特徴とする方法。 - 前記工程B)において前記オリエンテーション装置(3)の照準を前記参照マーク(111〜114)の1つに合わせ、その合わせた参照マーク(111)を前記第2座標空間上へマッピングすることによって前記軸補正値(Xref )を得ることを特徴とする請求項1に記載の方法。
- センサ(321)を備えたオリエンテーション装置(3)を使用して座標生成を実行する方法であって、
A)第1座標空間を規定すると共に4つのコーナ(A〜D)を有する目標物(11)の上に、それらコーナ(A〜D)とはそれぞれ別個の座標を有する少なくとも3つの参照マーク(111〜114)を設ける工程と、
B)第2座標空間を規定する前記オリエンテーション装置(3)の照準を前記目標物(11)上の任意の点(111)に合わせ、前記センサ(321)が前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むことができるように、前記オリエンテーション装置(3)を操作する工程と、
C)前記オリエンテーション装置(3)の照準を前記目標物(11)の各コーナ(A〜D)に順番に合わせ、前記参照マーク(111〜114)を含むと共に照準を合わせたコーナ(A〜D)の各々に対応する前記目標物(11)の4つのイメージを前記センサ(321)が取り込むことができるように、前記オリエンテーション装置(3)を前記順番で操作する工程と、
D)前記オリエンテーション装置(3)の照準を前記目標物(11)上の目標点(Pany )に合わせ、前記センサ(321)が前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むことができるように、前記オリエンテーション装置(3)を操作する工程と、
E)前記工程B)で取り込んだ前記目標物(11)の、前記参照マーク(111〜114)を含むイメージに基づいて得られる、前記目標物(11)の前記第1座標空間と前記オリエンテーション装置(3)の前記第2座標空間との間の座標空間相関と、前記工程D)で取り込んだイメージと、前記工程C)で取り込んだ4つのイメージとを参照して前記目標点(Pany )の、前記第1座標空間上での座標を求める工程とからなることを特徴とする方法。 - 前記参照マーク(111〜114)の1つが、前記工程B)の前記目標物(11)上の前記任意の点(111)としての役割を果たし、
前記第1座標空間上の前記任意の点(111)を前記第2座標空間上へマッピングすることによって、前記第2座標空間を前記第1座標空間と相関させるための軸補正値(Xref )を得ることを特徴とする請求項3に記載の方法。 - 第1座標空間を規定する目標物(11)と、
前記目標物(11)上に設けた少なくとも3つの参照マーク(111〜114)と、
前記第1座標空間に相関する第2座標空間を規定するオリエンテーション装置(3)とを備えたシステム(100)であって、
前記オリエンテーション装置(3)が、
該オリエンテーション装置(3)の照準を前記目標物(11)上の目標点(Pany )に合わせながら操作するときに、前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むことができるセンサ(321)と、
前記センサ(321)により取り込まれた前記目標物(11)の、前記参照マーク(111〜114)を含むイメージに基づいて得られる、前記目標物(11)の前記第1座標空間と前記オリエンテーション装置(3)の前記第2座標空間との間の座標空間相関、並びに前記センサ(321)により取り込まれたイメージを参照して、前記目標点(Pany )の、前記第1座標空間上での座標を求めるように操作可能なプロセッサ(322)とを備え、
該プロセッサ(322)が、
前記センサ(321)が取り込んだイメージ中の前記参照マーク(111〜114)の、前記第2座標空間上での座標を求める工程と、
前記工程で求めた前記参照マーク(111〜114)の座標について前記第1座標空間への平面投影変換計算を行い、変換行列(H any )を得る工程と、
前記オリエンテーション装置(3)のイメージ取り込み軸(6’)を、前記変換行列(H any )と、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物(11)の前記第1座標空間上の所定の点(111)を前記第2座標空間上へマッピングすることによって得られる軸補正値(Xref )とに基づいて補正する工程と、 前記オリエンテーション装置(3)の照準を前記目標点(P any )に合わせながら操作した時に前記センサ(321)に取り込んだ、前記参照マーク(111〜114)を含む前記目標物(11)のイメージと、前記変換行列(H any )と、補正したイメージ取り込み軸(6’)とを参照して、前記目標点(Pany )の、前記第1座標空間上での座標を求める工程とを行うことを特徴とするシステム。 - 第1座標空間を規定する目標物(11)と、
4つのコーナ(A〜D)を有する前記目標物(11)上に設けられて該4つのコーナ(A〜D)の座標とはそれぞれ別個の座標を有する少なくとも3つの参照マーク(111〜114)と、
前記第1座標空間に相関する第2座標空間を規定するオリエンテーション装置(3)とを備えてなり、
前記オリエンテーション装置(3)が、
該オリエンテーション装置(3)の照準を前記目標物(11)上の目標点(Pany )に合わせながら操作するときに、前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むことができるセンサ(321)と、
該センサ(321)に接続されて、前記目標物(11)の前記第1座標空間と前記オリエンテーション装置(3)の前記第2座標空間との間の座標空間相関、並びに前記センサ(321)により取り込まれたイメージを参照して、前記目標点(Pany )の、前記第1座標空間上での座標を求めるように操作可能なプロセッサ(322)とを備えるシステム(100)であって、
前記オリエンテーション装置(3)の照準を前記目標物(11)上の任意の点に合わせることによって、前記センサ(321)が前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込み可能であると共に、前記オリエンテーション装置(3)の照準を前記目標物(11)の各コーナ(A〜D)に順番に合わせることによって、前記センサ(321)が前記参照マーク(111〜114)を含むと共に照準を合わせたコーナ(A〜D)の各々に対応する前記目標物(11)の4つのイメージを取り込み可能であり、
前記プロセッサ(322)が、
A)前記オリエンテーション装置(3)の照準を前記目標物(11)上の任意の点に合わせることによって前記センサ(321)により取り込まれた前記目標物(11)の、前記参照マーク(111〜114)を含むイメージに基づいて、前記第2座標空間を前記第1座標空間と相関させて前記座標空間相関を設定する工程と、
B)前記工程A)で設定した座標空間相関を参照し、更に前記オリエンテーション装置(3)の照準を前記目標点(P any )に合わせることによって取り込んだ前記目標物(11)の、前記参照マーク(111〜114)を含むイメージと、前記オリエンテーション装置(3)の照準を前記目標物(11)の各コーナ(A〜D)に順番に合わせることによって取り込んだ4つのイメージとを参照して、前記目標点(Pany )の、前記第1座標空間上での座標を求める工程とを行うことを特徴とするシステム。 - ディスプレイ(11)および前記オリエンテーション装置(3)に接続されたコントローラを更に備え、
該コントローラは、前記オリエンテーション装置(3)の前記プロセッサ(322)が求めた前記目標点(Pany )の、前記第1座標空間上での座標に応じて前記ディスプレイ(11)のスクリーン(110)に提示されるイメージを制御することを特徴とする請求項5又は6に記載のシステム。 - 第1座標空間を規定すると共に少なくとも3つの参照マーク(111〜114)を設けた目標物(11)を備えるシステム(100)に用いられ、前記第1座標空間に相関する第2座標空間を規定するオリエンテーション装置(3)であって、
前記オリエンテーション装置(3)の照準を前記目標物(11)上の目標点(Pany )に合わせながら操作するときに、前記参照マーク(111〜114)を含む前記目標物(11)のイメージを取り込むようになっているセンサ(321)と、
そのセンサ(321)に接続されるプロセッサ(322)とを備え、
前記プロセッサ(322)は、前記センサ(321)により取り込まれた前記目標物(11)の、前記参照マーク(111〜114)を含むイメージに基づいて得られる、前記目標物(11)の前記第1座標空間と前記オリエンテーション装置(3)の前記第2座標空間との間の座標空間相関と、前記オリエンテーション装置(3)の照準を前記目標点(P any )に合わせながら操作した時に該センサ(321)に取り込まれた前記目標物(11)の、前記参照マーク(111〜114)を含むイメージと、前記第2座標空間を前記第1座標空間に相関させるための軸補正値であって前記目標物(11)の前記第1座標空間上の所定の点(111)を前記第2座標空間上へマッピングすることによって得られる軸補正値(X ref )とを参照して、前記目標点(Pany )の、前記第1座標空間上での座標を求めるように操作可能であることを特徴とするオリエンテーション装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW094115044 | 2005-05-10 | ||
TW094115044A TWI281623B (en) | 2005-05-10 | 2005-05-10 | Orientation point orientating method of orientation device and device thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006112971A Division JP4602281B2 (ja) | 2005-05-10 | 2006-04-17 | オリエンテーション装置に用いられる座標生成方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010000362A JP2010000362A (ja) | 2010-01-07 |
JP2010000362A5 JP2010000362A5 (ja) | 2010-08-05 |
JP5336277B2 true JP5336277B2 (ja) | 2013-11-06 |
Family
ID=37419863
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006112971A Expired - Fee Related JP4602281B2 (ja) | 2005-05-10 | 2006-04-17 | オリエンテーション装置に用いられる座標生成方法 |
JP2009160166A Expired - Fee Related JP5336277B2 (ja) | 2005-05-10 | 2009-07-06 | オリエンテーション装置およびそれに用いられる座標生成方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006112971A Expired - Fee Related JP4602281B2 (ja) | 2005-05-10 | 2006-04-17 | オリエンテーション装置に用いられる座標生成方法 |
Country Status (3)
Country | Link |
---|---|
US (3) | US7857703B2 (ja) |
JP (2) | JP4602281B2 (ja) |
TW (1) | TWI281623B (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101231577B1 (ko) * | 2004-08-12 | 2013-02-08 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디스플레이를 제어하기 위한 방법과 시스템, 포인팅 디바이스 및 디스플레이 제어 인터페이스 |
JP5355097B2 (ja) | 2007-01-12 | 2013-11-27 | 株式会社カプコン | 表示制御装置、制御方法、プログラム、及びこのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20090040308A1 (en) * | 2007-01-15 | 2009-02-12 | Igor Temovskiy | Image orientation correction method and system |
TWI354220B (en) * | 2007-12-17 | 2011-12-11 | Pixart Imaging Inc | Positioning apparatus and related method of orient |
US8368753B2 (en) * | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
EP2140916B1 (en) * | 2008-06-30 | 2018-10-31 | Nintendo Co., Ltd. | Coordinate calculation apparatus and storage medium having coordinate calculation program stored therein |
EP2140915B1 (en) | 2008-06-30 | 2019-03-06 | Nintendo Co., Ltd. | Orientation calculation apparatus, storage medium having orientation calculation program stored therein, game apparatus, and storage medium having game program stored therein |
EP2228110B1 (en) * | 2009-03-09 | 2017-08-30 | Nintendo Co., Ltd. | Coordinate calculation apparatus and storage medium having coordinate calculation program stored therein |
CN101840281B (zh) * | 2009-03-20 | 2012-12-05 | 原相科技股份有限公司 | 感测系统及其取得指示物的位置的方法 |
DE102009021375A1 (de) * | 2009-05-14 | 2010-11-18 | Marc Leppla | Sensor zum Messen einer Lichtgröße und Verfahren zum Kalibrieren eines Monitors |
US9026261B2 (en) * | 2009-06-08 | 2015-05-05 | Tendril Networks, Inc. | Methods and systems for managing energy usage in buildings |
TWI441042B (zh) | 2011-07-01 | 2014-06-11 | Pixart Imaging Inc | 互動影像系統、互動控制裝置及其運作方法 |
CN102866772B (zh) * | 2011-07-07 | 2016-02-17 | 原相科技股份有限公司 | 互动影像系统、互动控制装置及其运作方法 |
US9255813B2 (en) * | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
US9210339B2 (en) * | 2011-12-09 | 2015-12-08 | Hewlett-Packard Development Company, L.P. | Generation of images based on orientation |
TWI458532B (zh) * | 2012-05-16 | 2014-11-01 | Hon Hai Prec Ind Co Ltd | 光線槍指向位置確定系統及方法 |
TWI484376B (zh) * | 2012-08-09 | 2015-05-11 | Pixart Imaging Inc | 互動系統及遙控裝置 |
TWI468997B (zh) | 2013-01-09 | 2015-01-11 | Pixart Imaging Inc | 具有較大可操作範圍的指向系統及影像系統 |
CN103941848A (zh) * | 2013-01-21 | 2014-07-23 | 原相科技股份有限公司 | 影像互动系统及其影像显示装置 |
TWI488075B (zh) * | 2013-03-21 | 2015-06-11 | Teco Image Sys Co Ltd | 遙控系統及其控制裝置 |
WO2015056819A1 (ko) * | 2013-10-15 | 2015-04-23 | 오성복 | 피씨게임용 제어장치 |
CN104731373B (zh) * | 2013-12-18 | 2017-12-15 | 原相科技股份有限公司 | 手持式指向装置以及其光标定位方法 |
CN105469089B (zh) * | 2015-11-19 | 2016-09-14 | 广州玖的数码科技有限公司 | 一种多人光枪定位方法和装置 |
US20170282057A1 (en) * | 2016-03-30 | 2017-10-05 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for determining homing position of game gun on display screen |
CN108874181B (zh) * | 2017-05-08 | 2023-05-09 | 富泰华工业(深圳)有限公司 | 具有激光笔标记功能的电子装置及激光笔标记方法 |
CN112838968B (zh) * | 2020-12-31 | 2022-08-05 | 青岛海尔科技有限公司 | 一种设备控制方法、装置、系统、存储介质及电子装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2661118B2 (ja) * | 1988-03-24 | 1997-10-08 | アイシン精機株式会社 | 画像処理装置を利用した物体座標と視覚座標の換算方法 |
JPH0635607A (ja) * | 1992-07-15 | 1994-02-10 | Olympus Optical Co Ltd | 遠隔指示入力装置 |
JPH07121293A (ja) * | 1993-10-26 | 1995-05-12 | Nippon Telegr & Teleph Corp <Ntt> | 表示画面をアクセスするリモートコントローラ |
JPH0838741A (ja) * | 1994-08-04 | 1996-02-13 | Taito Corp | 射撃ゲーム装置 |
JP3422383B2 (ja) * | 1994-09-05 | 2003-06-30 | 株式会社タイトー | 射撃ゲーム装置におけるビデオ画面とガンの相対位置を検出する方法及び装置 |
US6146278A (en) * | 1997-01-10 | 2000-11-14 | Konami Co., Ltd. | Shooting video game machine |
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
JPH11305935A (ja) * | 1998-04-24 | 1999-11-05 | Image Tec Kk | 位置検出システム |
US6275214B1 (en) * | 1999-07-06 | 2001-08-14 | Karl C. Hansen | Computer presentation system and method with optical tracking of wireless pointer |
US20010010514A1 (en) * | 1999-09-07 | 2001-08-02 | Yukinobu Ishino | Position detector and attitude detector |
JP3554517B2 (ja) * | 1999-12-06 | 2004-08-18 | 株式会社ナムコ | ゲーム用の装置、位置検出用の装置及び情報記憶媒体 |
JP3847057B2 (ja) * | 2000-05-24 | 2006-11-15 | アルプス電気株式会社 | 指示位置検出装置及び前記装置を用いたゲーム用コントローラ |
JP4581204B2 (ja) * | 2000-09-11 | 2010-11-17 | ソニー株式会社 | 位置解析装置及び位置解析方法、並びに、エンターテインメント装置 |
US6704000B2 (en) * | 2000-11-15 | 2004-03-09 | Blue Iris Technologies | Method for remote computer operation via a wireless optical device |
JP3686919B2 (ja) * | 2000-12-06 | 2005-08-24 | 株式会社ニコン技術工房 | ゲーム装置、ゲーム処理方法及び可読記憶媒体 |
JP2002298145A (ja) | 2001-04-02 | 2002-10-11 | Nikon Gijutsu Kobo:Kk | 位置検出装置及び姿勢検出装置 |
US6727896B2 (en) * | 2001-08-01 | 2004-04-27 | Microsoft Corporation | Correction of alignment and linearity errors in a stylus input system |
JP2003083715A (ja) * | 2001-09-12 | 2003-03-19 | Omron Corp | 指示位置検出方法、指示位置検出装置およびガンコントローラ型ゲーム機 |
JP2005533628A (ja) * | 2002-07-25 | 2005-11-10 | アンダミロ カンパニー リミテッド | シューティング・ゲーム機及びその実行方法 |
JP4024124B2 (ja) * | 2002-10-15 | 2007-12-19 | 株式会社タムラ製作所 | 位置特定装置、その方法およびそのプログラム |
TW569479B (en) * | 2002-12-20 | 2004-01-01 | Ind Tech Res Inst | White-light LED applying omnidirectional reflector |
JP2005021562A (ja) * | 2003-07-01 | 2005-01-27 | Namco Ltd | 位置検出システム、ゲーム装置、プログラム及び情報記憶媒体 |
JP2005021458A (ja) | 2003-07-03 | 2005-01-27 | Tamura Seisakusho Co Ltd | 指示位置特定装置とその方法ならびに画像表示システム |
JP4673570B2 (ja) * | 2004-03-31 | 2011-04-20 | 株式会社セガ | 画像生成装置、画像表示方法及びプログラム |
US7852317B2 (en) * | 2005-01-12 | 2010-12-14 | Thinkoptics, Inc. | Handheld device for handheld vision based absolute pointing system |
-
2005
- 2005-05-10 TW TW094115044A patent/TWI281623B/zh not_active IP Right Cessation
-
2006
- 2006-03-28 US US11/392,089 patent/US7857703B2/en not_active Expired - Fee Related
- 2006-04-17 JP JP2006112971A patent/JP4602281B2/ja not_active Expired - Fee Related
-
2008
- 2008-01-11 US US12/008,596 patent/US7611412B2/en not_active Expired - Fee Related
-
2009
- 2009-07-06 JP JP2009160166A patent/JP5336277B2/ja not_active Expired - Fee Related
- 2009-09-04 US US12/554,715 patent/US8206221B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4602281B2 (ja) | 2010-12-22 |
JP2010000362A (ja) | 2010-01-07 |
US7611412B2 (en) | 2009-11-03 |
US8206221B2 (en) | 2012-06-26 |
US20060258465A1 (en) | 2006-11-16 |
JP2006314777A (ja) | 2006-11-24 |
TW200638975A (en) | 2006-11-16 |
US20080113799A1 (en) | 2008-05-15 |
US20100016078A1 (en) | 2010-01-21 |
US7857703B2 (en) | 2010-12-28 |
TWI281623B (en) | 2007-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5336277B2 (ja) | オリエンテーション装置およびそれに用いられる座標生成方法 | |
JP2010000362A5 (ja) | ||
WO2021103347A1 (zh) | 投影仪的梯形校正方法、装置、系统及可读存储介质 | |
TWI393072B (zh) | 廣角感測器陣列模組及其影像校正方法、運作方法與應用 | |
JP3620537B2 (ja) | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 | |
CN100426129C (zh) | 图像处理系统、投影机及图像处理方法 | |
JP3844076B2 (ja) | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 | |
KR100710946B1 (ko) | 화상 처리 시스템, 프로젝터 및 화상 처리 방법 | |
JP2008165800A (ja) | カーソル制御方法及び装置 | |
JP3690402B2 (ja) | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 | |
JP2006295290A (ja) | プロジェクタのための歪み補正処理 | |
WO2006025191A1 (ja) | マルチプロジェクションシステムにおける幾何補正方法 | |
WO2007149322A2 (en) | System and method for displaying images | |
JP2005124131A (ja) | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 | |
JP6056290B2 (ja) | 画像処理装置、プロジェクター、及び画像処理方法 | |
JP4905059B2 (ja) | 指示システム、指示プログラム及び指示装置 | |
JP2001331269A (ja) | 指示位置検出装置及び前記装置を用いたゲーム用コントローラ | |
JP2009049862A (ja) | 投射画像の形状歪補正支援システム、投射画像の形状歪補正支援方法、及びプロジェクタ | |
WO2018189880A1 (ja) | 情報処理装置、情報処理システム、および画像処理方法 | |
JP2000081950A (ja) | 画像処理装置、画像処理方法、及び提供媒体、並びにプレゼンテーションシステム | |
JP2003208260A (ja) | ポインティング装置 | |
WO2024080234A1 (ja) | 投影装置、補正装置、投影システム、補正方法及びコンピュータプログラム | |
JP2006109088A (ja) | マルチプロジェクションシステムにおける幾何補正方法 | |
JP6700955B2 (ja) | 投影装置及び投影方法 | |
JP6642032B2 (ja) | プロジェクター及びプロジェクターの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120530 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120823 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120828 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120925 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120928 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20121026 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20121031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130801 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |