JP2013105466A - Display device, display method, and program - Google Patents
Display device, display method, and program Download PDFInfo
- Publication number
- JP2013105466A JP2013105466A JP2011251147A JP2011251147A JP2013105466A JP 2013105466 A JP2013105466 A JP 2013105466A JP 2011251147 A JP2011251147 A JP 2011251147A JP 2011251147 A JP2011251147 A JP 2011251147A JP 2013105466 A JP2013105466 A JP 2013105466A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- area
- target
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 72
- 238000011835 investigation Methods 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 abstract description 15
- 238000012545 processing Methods 0.000 description 24
- 230000010365 information processing Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムに関する。 The present invention relates to a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of a camera on a screen.
近年、カメラによって撮影された現実世界の画像上に仮想物体を重畳させる拡張現実(AR:Augmented Reality)の表示技術が開発され、ゲームやコミュニケーションツール等として実用化が進められている。例えば、特許文献1には、AR技術を利用して仮想物体を現実世界の画像の中に重畳させる際に、仮想物体の色を現実世界の画像に合わせて補正することにより、現実世界と調和した仮想物体を表示する技術が開示されている。 In recent years, augmented reality (AR) display technology that superimposes a virtual object on a real-world image photographed by a camera has been developed and is being put to practical use as a game, a communication tool, or the like. For example, in Patent Document 1, when a virtual object is superimposed on a real-world image using AR technology, the color of the virtual object is corrected according to the real-world image, thereby harmonizing with the real world. A technique for displaying a virtual object is disclosed.
上記のようなAR技術では、通常、撮影された画像内の対象、すなわちカメラの視野内に収まった対象について、仮想物体が重畳されることで、当該視野内の対象についての種々の情報が付加提示されるものであった。しかし一方で、カメラの視野内に収まった対象だけでなく、視野外に位置する対象についても、仮想物体を対応付けて表示させ、情報を得たい場合がある。例えば、付近にある建物等の情報を得たい場合に、その建物がカメラの視野に収まるようにカメラの向きを調整しなければ情報が得られないのでは、ユーザの手間がかかるだけでなく、ユーザがその建物の正確な位置を知らない場合等に対応できないことになる。 In the AR technology as described above, usually, a virtual object is superimposed on a target in a captured image, that is, a target that falls within the field of view of the camera, thereby adding various information about the target in the field of view. It was what was presented. However, on the other hand, there are cases where it is desired to obtain information by displaying a virtual object in association with not only an object that falls within the visual field of the camera but also an object that is located outside the visual field. For example, when you want to get information about nearby buildings, etc., if you do not adjust the camera orientation so that the building fits in the camera's field of view, you will not be able to get the information. This is not possible when the user does not know the exact location of the building.
本発明は、上記のような課題を解決するもので、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することを目的とする。 The present invention solves the above-described problems, and provides a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of the camera on the screen. The purpose is to do.
上記目的を達成するため、本発明の第1の観点に係る表示装置は、検知部、取得部、生成部、表示部を備える表示装置であって、以下のように構成する。 In order to achieve the above object, a display device according to a first aspect of the present invention is a display device including a detection unit, an acquisition unit, a generation unit, and a display unit, and is configured as follows.
検知部は、カメラの位置および向きを検知する。 The detection unit detects the position and orientation of the camera.
すなわち、表示装置は、現実世界を撮影するカメラを備え、検知部が、当該カメラの位置および向きを検知する。例えば、ユーザが携帯可能な機器にカメラが搭載されている場合には、当該カメラの位置と向きは、ユーザの移動や操作に伴って様々に変化しうる。この場合、検知部は、カメラの位置と向きが様々に変化するたびに、カメラの現在の位置と現在の向きを検知する。 That is, the display device includes a camera that captures the real world, and the detection unit detects the position and orientation of the camera. For example, when a camera is mounted on a device that can be carried by the user, the position and orientation of the camera can change variously as the user moves and operates. In this case, the detection unit detects the current position and the current direction of the camera every time the position and the direction of the camera change variously.
ここで、「カメラの位置」とは、現実世界におけるカメラの位置であり、例えば、緯度・経度によって表される。そして、「カメラの向き」とは、上記「カメラの位置」におけるカメラの視線の向きであり、例えば、東西南北を基準とした方位角によって表される。なお、「カメラの位置」は、三次元空間における鉛直方向の位置も含め、例えば、緯度・経度に加えてさらに高度によって表されてもよい。また、「カメラの向き」は、三次元空間における鉛直方向の向きも含め、例えば、東西南北を基準とした方位角に加えてさらに水平面を基準とした仰角によって表されてもよい。 Here, the “camera position” is the position of the camera in the real world, and is represented by, for example, latitude and longitude. The “camera direction” is the direction of the line of sight of the camera at the “camera position”, and is represented by, for example, an azimuth angle based on east, west, south, and north. Note that the “camera position” may be represented by an altitude in addition to the latitude and longitude, including the position in the vertical direction in the three-dimensional space. Further, the “camera direction” may be expressed by an elevation angle with reference to the horizontal plane in addition to the azimuth angle with reference to the east, west, south, and north directions, including the vertical direction in the three-dimensional space.
なお、カメラは、表示装置と一体となっていることが典型的であるが、表示装置から分離されてもよい。例えば、カメラと、当該カメラが撮影した画像を表示する表示部とが、別の装置に分けられていてもよい。 The camera is typically integrated with the display device, but may be separated from the display device. For example, a camera and a display unit that displays an image captured by the camera may be divided into different devices.
取得部は、検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する。 The acquisition unit acquires the position of the target in the investigation area determined by the detected position and orientation of the camera.
ここで、「調査領域」とは、現実世界の三次元空間内における領域であって、上記検知部が検知したカメラの位置および向きに基づいて定められる領域である。例えば、調査領域として、カメラの位置を頂点とし、カメラの向きに開いた角錐や円錐等の立体によって囲まれた領域、カメラの位置を含む球状の立体によって囲まれた領域、カメラの位置からカメラの向きに所定の距離だけ離れた位置にある所定の立体によって囲まれた領域、等が挙げられる。取得部は、このような調査領域内にある目標物の位置を取得する。 Here, the “survey area” is an area in the real world three-dimensional space, and is an area determined based on the position and orientation of the camera detected by the detection unit. For example, as an investigation area, an area surrounded by a solid body such as a pyramid or a cone opened at the camera direction as a vertex, an area surrounded by a spherical solid including the camera position, and a camera from the camera position An area surrounded by a predetermined solid at a position separated by a predetermined distance in the direction of. The acquisition unit acquires the position of the target in such a survey area.
ここで、「目標物」とは、現実世界に存在する建物、施設、設備等であって、ユーザがその位置を知りたいと考えるものである。例えば、目標物として、ゲームセンター、コンビニエンスストア、自動販売機、バス停、等が挙げられる。取得部は、このような目標物のうち、上記のような調査領域内にある目標物についての位置の情報を取得する。 Here, the “target” is a building, facility, equipment, or the like that exists in the real world, and the user wants to know its position. For example, a game center, a convenience store, a vending machine, a bus stop, etc. are mentioned as a target. An acquisition part acquires the information of the position about the target in the above investigation areas among such targets.
生成部は、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。 The generation unit draws a captured image obtained by the camera capturing a visual field region determined by the position and orientation of the camera in a photographic region within the projection plane, and the position of the acquired target is obtained by predetermined projection conversion. A display image is generated by drawing a mark representing the target at a position projected in the report area in the projection plane.
すなわち、生成部は、仮想の投影面を用意し、カメラによる現実世界の撮影画像と、目標物を表すマークと、をこの投影面に描画することで、後述する表示部が表示装置の画面に表示するための表示画像を生成する。ここで、投影面内における二次元領域のうち、カメラによる現実世界の撮影画像が描画される領域を写真領域といい、目標物を表すマークが描画される領域を報告領域というものとする。 That is, the generation unit prepares a virtual projection plane, and draws a real-world captured image by the camera and a mark representing the target on the projection plane, so that the display unit described later is displayed on the screen of the display device. A display image for display is generated. Here, out of the two-dimensional areas in the projection plane, an area where a real-world photographed image is drawn by a camera is called a photo area, and an area where a mark representing a target is drawn is called a report area.
このうち、カメラによる現実世界の撮影画像は、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる。ここで、「視野領域」とは、カメラの視野を定める三次元空間内における領域であって、例えば典型的には、カメラの位置を頂点とし、カメラの向きに開いた四角錐状の立体により定められる。このような視野領域内に収まった現実世界の建物や施設等が、仮想の投影面内の写真領域に投影されることで、カメラによる撮影画像として描画される。 Among these, a real-world photographed image by the camera is obtained by the camera photographing a field of view defined by the position and orientation of the camera. Here, the “field of view” is a region in the three-dimensional space that defines the field of view of the camera. For example, typically, the field of view is a quadrangular pyramid that has the camera position at the top and opens in the direction of the camera. Determined. A real-world building, facility, or the like that falls within such a visual field area is projected onto a photographic area within a virtual projection plane, thereby being drawn as a photographed image by a camera.
一方、カメラによる撮影画像に加えて投影面に描画される目標物を表すマークは、上記取得部によって取得された調査領域内にある目標物の位置が、所定の投影変換により投影されることにより得られる。ここで、「所定の投影変換」とは、三次元の調査領域内の任意の位置を、投影面内の二次元の報告領域内のいずれかの位置に対応付けるものである。この投影変換によって、調査領域内にある目標物の位置が投影面に投影され、投影された位置にこの目標物を表すマークが描画される。 On the other hand, the mark representing the target drawn on the projection plane in addition to the image taken by the camera is projected by the predetermined projection transformation of the position of the target in the investigation area acquired by the acquisition unit. can get. Here, the “predetermined projection transformation” refers to associating an arbitrary position in the three-dimensional survey area with any position in the two-dimensional report area in the projection plane. By this projection conversion, the position of the target in the investigation area is projected onto the projection plane, and a mark representing the target is drawn at the projected position.
表示部は、生成された表示画像を画面に表示する。 The display unit displays the generated display image on the screen.
すなわち、表示部は、上記生成部が生成した表示画像を、表示装置に備えられたモニタ等の画面に表示する。表示画像には、カメラによる撮影画像と目標物を表すマークが描画されているため、ユーザは、どこに目標物があるのかを、撮影画像を基準として、知ることができる。 That is, the display unit displays the display image generated by the generation unit on a screen such as a monitor provided in the display device. Since the displayed image is drawn with a camera image and a mark representing the target, the user can know where the target is based on the captured image.
そして、報告領域は、写真領域を含む。 The report area includes a photographic area.
すなわち、目標物を表すマークが描画される報告領域は、カメラによる撮影画像が描画される写真領域を包含するように、投影面内の二次元領域を占める。報告領域として写真領域より広い領域がとられることで、生成部は、カメラの視野よりも広い範囲についての目標物の位置を表示画像として生成することができるようになる。例えばカメラの視野内に位置する目標物については、そのマークはカメラによる撮影画像に重ねて描画され、カメラの視野外に位置する目標物については、そのマークはカメラによる撮影画像から外れた領域に描画される、ということが典型的である。 In other words, the report area in which the mark representing the target is drawn occupies a two-dimensional area in the projection plane so as to include a photograph area in which an image captured by the camera is drawn. By taking an area wider than the photographic area as the report area, the generation unit can generate the position of the target for a range wider than the field of view of the camera as a display image. For example, for a target located within the field of view of the camera, the mark is drawn on the image captured by the camera, and for a target located outside the field of view of the camera, the mark is located outside the image captured by the camera. It is typically drawn.
また、調査領域は、視野領域に含まれない部分を有する。 The investigation area has a portion that is not included in the visual field area.
すなわち、上記取得部によって目標物の位置が取得される調査領域は、カメラの視野領域に含まれない部分、すなわちカメラの視野外の三次元空間を有する。例えば、カメラの視野領域が四角錐状の立体により定められる場合には、調査領域は、この四角錐状の立体には含まれない外側の領域を有することになる。 That is, the investigation area where the position of the target is acquired by the acquisition unit has a portion that is not included in the visual field area of the camera, that is, a three-dimensional space outside the visual field of the camera. For example, when the field of view of the camera is defined by a quadrangular pyramid solid, the survey area has an outer region that is not included in the quadrangular pyramid solid.
このような構成により、本発明の表示装置は、カメラの視野領域に含まれない領域についても目標物の位置を取得し、カメラによる撮影画像と共に表示画像に表示する。これにより、目標物がカメラの視野から外れていたとしても、その目標物が、カメラの撮影画像を基準としてどのあたりの位置にあるのかを、ユーザに認識させることができる。 With such a configuration, the display device of the present invention acquires the position of the target for an area that is not included in the visual field area of the camera, and displays it on the display image together with the image captured by the camera. Thereby, even if the target is out of the field of view of the camera, the user can recognize which position the target is on the basis of the captured image of the camera.
また、本発明の表示装置において、
調査領域は、カメラの位置の近傍で視野領域を含む
ように構成することができる。
In the display device of the present invention,
The survey area can be configured to include a field of view area near the camera position.
すなわち、調査領域は、上述したように視野領域に含まれない部分を有するが、ここではより具体的に、調査領域は、カメラの位置の近傍で視野領域を含むように、視野領域に含まれない部分を有する。ここで、「カメラの位置の近傍で視野領域を含む」とは、カメラの位置からの距離が所定の距離以内に収まるような近傍の範囲において、調査領域が視野領域を包含する、ということである。すなわち、調査領域は、カメラの位置から遠方では必ずしも視野領域を包含しなくてもよいが、カメラの位置から所定の距離以内の近傍では視野領域を包含するような三次元空間内の領域となる。表示装置は、このようなカメラの位置からの距離が所定の距離以内の範囲においては、カメラの視野領域の外側に位置する目標物の位置も取得し、その目標物を表すマークをカメラによる撮影画像と共に表示画像として画面に表示する。 That is, the survey area has a portion that is not included in the visual field area as described above, but more specifically, here, the survey area is included in the visual field area so as to include the visual field area in the vicinity of the position of the camera. Has no part. Here, “including the visual field region near the camera position” means that the investigation region includes the visual field region in a nearby range where the distance from the camera position is within a predetermined distance. is there. That is, the survey area does not necessarily include the visual field area far from the camera position, but becomes a region in the three-dimensional space that includes the visual field area in the vicinity within a predetermined distance from the camera position. . The display device also acquires the position of the target located outside the visual field area of the camera within such a range that the distance from the camera position is within a predetermined distance, and the mark representing the target is captured by the camera. It is displayed on the screen as a display image together with the image.
このような構成により、本発明の表示装置は、カメラの位置の近傍で視野領域を含むように調査領域をとる。これにより、目標物がユーザの近傍にあるにもかかわらず、カメラの視野に入っていないためにその位置を取得し逃しまう、ということをなるべく防ぐことができ、より効果的に目標物の位置をユーザに提供することができる。 With such a configuration, the display device of the present invention takes an investigation region so as to include a visual field region in the vicinity of the position of the camera. As a result, it is possible to prevent the target from being missed because it is not in the field of view of the camera even though the target is in the vicinity of the user. Can be provided to the user.
また、本発明の表示装置において、
所定の投影変換は、視野領域を写真領域に投影する投影変換に一致する
ように構成することができる。
In the display device of the present invention,
The predetermined projection transformation can be configured to match the projection transformation that projects the field of view onto the photographic region.
すなわち、生成部は、調査領域にある目標物の位置を投影面内の報告領域に投影する際の所定の投影変換として、カメラによる撮影画像を描画する際の、カメラの視野領域を投影面内の写真領域に投影する投影変換と同じ投影変換を用いる。同じ投影変換が用いられることで、生成部は、カメラの視野内の目標物については、カメラによる撮影画像に重ねてその位置を示すことができ、さらにカメラの視野から外れた位置にある目標物についても、カメラによる撮影画像を基準としてどの位置にあるのかを示す表示画像を生成することができるようになる。 That is, the generation unit sets the field of view of the camera in the projection plane as the predetermined projection conversion when projecting the position of the target in the survey area onto the report area in the projection plane. The same projection transformation as that projected onto the photograph area is used. By using the same projection transformation, the generation unit can indicate the position of the target in the camera field of view by superimposing it on the image captured by the camera, and further, the target in a position outside the camera field of view. With respect to the above, it is possible to generate a display image indicating the position at which the image taken by the camera is used as a reference.
例えば、カメラの視野から左側へ外れた位置にある目標物は、表示画像内において、撮影画像の描画位置に対し、視野から外れた分だけ左側へ外れた位置に描画され、カメラの視野から右側へ外れた位置にある目標物は、表示画像内において、撮影画像の描画位置に対し、視野から外れた分だけ右側へ外れた位置に描画される。 For example, a target that is off the camera's field of view to the left is drawn in the display image at a position deviated to the left by the amount deviated from the field of view of the captured image. The target at the position deviated from the image is drawn in a position deviated to the right by the amount deviated from the field of view with respect to the drawing position of the captured image in the display image.
このような構成により、本発明の表示装置は、カメラの視野内の建物等の撮影に用いた投影変換と同じ投影変換を用いて、カメラの視野外の目標物の位置も表示画像内に表示する。これにより、カメラの視野内の目標物については、撮影された建物等に対応させてその位置をユーザに提供でき、さらにカメラの視野から外れた目標物についても、カメラの撮影画像を基準としてどの位置にあるのかをユーザに認識させることができる。 With such a configuration, the display device of the present invention displays the position of the target outside the field of view of the camera in the display image using the same projection transformation as that used for photographing a building or the like within the field of view of the camera. To do. As a result, the target in the camera field of view can be provided to the user in correspondence with the filmed building, etc., and the target that is out of the camera field of view can be selected based on the captured image of the camera. The user can recognize whether the position is present.
また、本発明の表示装置において、
視野領域は、第1の錐体により定められ、
調査領域は、第2の錐体により定められ、
第1の錐体の軸と、第2の錐体の軸とは、重なり、
第2の錐体は、第1の錐体を包含する
ように構成することができる。
In the display device of the present invention,
The field of view is defined by the first cone,
The survey area is defined by the second cone,
The axis of the first cone and the axis of the second cone overlap,
The second cone can be configured to encompass the first cone.
すなわち、カメラの視野領域と目標物の位置が取得される調査領域とは、それぞれ第1の錐体と第2の錐体という、2つの錐体(四角錐、円錐等の錐状の三次元立体)よって定められる。まず、カメラの視野領域を定める第1の錐体は、カメラの位置を頂点とし、カメラの向きへ伸びる直線を軸とする錐体であって、錐体の頂角はカメラの画角(視野角)に対応したものとなる。一般的に、カメラの視野は、水平画角と垂直画角の2つの画角を有する四角錐によって定められる場合が多いが、必ずしも四角錐に限らず、カメラの視野領域を定める第1の錐体は、四角錐以外の角錐、円錐、または、楕円錐等であってもよい。 In other words, the field-of-view area of the camera and the survey area from which the position of the target is acquired are two cones, a first cone and a second cone (three-dimensional cones such as a quadrangular pyramid and a cone). 3D). First, the first cone defining the field of view of the camera is a cone with the camera position at the apex and a straight line extending in the direction of the camera as the axis, and the apex angle of the cone is the angle of view of the camera (field of view). Corner). In general, the field of view of a camera is often determined by a quadrangular pyramid having two angles of view, a horizontal field of view and a vertical field of view. However, the field of view is not necessarily limited to a quadrangular pyramid, and the first cone that defines the field of view of the camera. The body may be a pyramid other than a quadrangular pyramid, a cone, an elliptical cone, or the like.
また、目標物の位置が取得される調査領域を定める第2の錐体は、第1の錐体と共通の軸を有する錐体であって、第1の錐体を包含するように、すなわちカメラの視野領域全体に覆い被さるように、配置される。すなわち、調査領域としてカメラの視野領域よりも広い領域がとられることになり、カメラの視野領域の外側にある目標物についても、その位置が取得され、表示画像に含まれるようになる。 In addition, the second cone that defines the survey area from which the position of the target is acquired is a cone having a common axis with the first cone, and includes the first cone, that is, It is arranged so as to cover the entire field of view of the camera. That is, an area wider than the visual field area of the camera is taken as the investigation area, and the position of the target outside the visual field area of the camera is acquired and included in the display image.
このような構成により、本発明の表示装置は、カメラの視野領域を定める第1の錐体を包含するような第2の錐体により調査領域を定め、当該調査領域内にある目標物の位置を取得する。これにより、カメラの視野外にある目標物の位置についても表示画像に表示され、あたかもカメラの視野を実際の視野よりも広げて撮影したかのように、実際のカメラの視野から外れた位置にある目標物の位置も、ユーザに認識させることができる。 With such a configuration, the display device of the present invention defines the survey area with the second cone that includes the first cone that defines the field of view of the camera, and the position of the target in the survey area. To get. As a result, the position of the target outside the field of view of the camera is also displayed in the display image, and the position of the target is out of the field of view of the actual camera, as if the field of view was taken wider than the actual field of view. The user can also recognize the position of a certain target.
また、本発明の表示装置において、
視野領域は、錐体により定められ、
調査領域は、二次曲面により定められ、
錐体の軸と、二次曲面の軸のいずれかとは、重なる
ように構成することができる。
In the display device of the present invention,
The field of view is defined by a cone,
The survey area is defined by a quadric surface,
The axis of the cone and one of the axes of the quadric surface can be configured to overlap.
すなわち、カメラの視野領域は、上記と同様に、カメラの位置を頂点とし、カメラの向きへ伸びる直線を軸とする錐体(四角錐、円錐等の錐状の三次元立体)よって定められる。一方で、目標物の位置が取得される調査領域は、上記のように第2の錐体として定められるのではなく、カメラの視野領域を定める錐体と共通の軸をそのいずれかの軸として有する二次曲面によって定められる。 That is, the camera field-of-view region is defined by a cone (three-dimensional solid such as a quadrangular pyramid or a cone) having a vertex at the camera position and a straight line extending in the direction of the camera as described above. On the other hand, the investigation area from which the position of the target is acquired is not determined as the second cone as described above, but is set to one of the axes common to the cone that defines the field of view of the camera. Determined by the quadric surface.
ここで二次曲面とは、例えば、球面、楕円面、放物面、双曲面等のような三次元空間内の曲面であり、二次曲面の軸のいずれかとは、例えば楕円面であれば3つの対称軸のいずれかをいい、あるいは放物面であればその中心軸のことをいう。このような二次曲面により定められる調査領域内にある目標物の位置が、取得部によって取得され、取得された目標物の位置を表すマークが描画された表示画像が生成されることになる。 Here, the quadric surface is a curved surface in a three-dimensional space such as a spherical surface, an ellipsoid, a paraboloid, a hyperboloid, etc., and any of the axes of the quadric surface is, for example, an ellipsoid It means one of the three symmetry axes, or the central axis if it is a paraboloid. The position of the target in the investigation area defined by such a quadric surface is acquired by the acquisition unit, and a display image on which a mark representing the acquired position of the target is drawn is generated.
このような構成により、本発明の表示装置は、目標物の位置を取得する調査領域として、二次曲面により定められる領域をとる。これにより、例えば上記第2の錐体により定めた調査領域に比べて、表示画像として表示する対象とすべき目標物の位置を、より柔軟に取得することができるようになる。 With such a configuration, the display device of the present invention takes an area defined by a quadric surface as an investigation area for acquiring the position of the target. Thereby, the position of the target to be displayed as a display image can be acquired more flexibly than, for example, the survey area defined by the second cone.
上記目的を達成するため、本発明の第2の観点に係る表示方法は、検知部、取得部、生成部、表示部を備える表示装置が実行する表示方法であって、検知工程、取得工程、生成工程、表示工程を備える。 In order to achieve the above object, a display method according to a second aspect of the present invention is a display method executed by a display device including a detection unit, an acquisition unit, a generation unit, and a display unit, and includes a detection step, an acquisition step, A generation process and a display process are provided.
検知工程では、検知部が、カメラの位置および向きを検知する。
取得工程では、取得部が、検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する。
生成工程では、生成部が、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。
表示工程では、表示部が、生成された表示画像を画面に表示する。
そして、報告領域は、写真領域を含む。
また、調査領域は、視野領域に含まれない部分を有する。
In the detection step, the detection unit detects the position and orientation of the camera.
In the acquisition step, the acquisition unit acquires the position of the target in the investigation area determined by the detected position and orientation of the camera.
In the generation step, the generation unit draws a captured image obtained by the camera capturing a visual field region determined by the position and orientation of the camera in a photographic region in the projection plane, and the position of the acquired target is predetermined A display image is generated by drawing a mark representing the target object at a position projected in the report area in the projection plane by the projection conversion.
In the display step, the display unit displays the generated display image on the screen.
The report area includes a photographic area.
The investigation area has a portion that is not included in the visual field area.
上記目的を達成するため、本発明の第3の観点に係るプログラムは、コンピュータを、上記の表示装置として機能させ、コンピュータに、上記の表示方法の各工程を実行させるように構成する。 In order to achieve the above object, a program according to a third aspect of the present invention is configured to cause a computer to function as the above display device and to cause the computer to execute each step of the above display method.
また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読み取り可能な情報記憶媒体に記録することができる。 The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配付・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配付・販売することができる。 The program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.
本発明によれば、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することができる。 According to the present invention, it is possible to provide a display device, a display method, and a program suitable for effectively displaying the position of a target outside the visual field of the camera on the screen.
以下に本発明の実施形態を説明する。以下では、理解を容易にするため、携帯ゲーム機型の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素を均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。 Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using an information processing apparatus of a portable game machine type will be described, but the embodiment described below is for explanation, It is not intended to limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.
本発明に係る表示装置が実現されうる情報処理装置として、例えば、携帯ゲーム機の他、携帯型の電話機、携帯型のカメラやスマートフォン等の電子機器等、その他の様々な情報処理装置が挙げられる。 Examples of the information processing apparatus in which the display device according to the present invention can be realized include various other information processing apparatuses such as a portable game machine, a portable phone, an electronic device such as a portable camera and a smartphone. .
(実施形態1)
図1は、本発明の実施形態に係る表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、図1を参照して説明する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus in which a display device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.
情報処理装置1は、処理制御部10、コネクタ11、カートリッジ12、無線通信部13、通信コントローラ14、サウンドアンプ15、スピーカ16、操作キー17、GPS処理部18、カメラ19、第1の表示部20、第2の表示部21、タッチパネル22を備える。
The information processing apparatus 1 includes a
処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、VRAM(Video Random Access Memory)10cと、WRAM(Work RAM)10dと、LCD(Liquid Crystal Display)コントローラ10eと、タッチパネルコントローラ10fとを備える。
The
CPUコア10aは、情報処理装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。
The
画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10cに格納する。
The
VRAM 10cは、表示用の情報を記憶するフレームメモリであり、画像処理部10b等により加工された画像情報を記憶する。
The
WRAM 10dは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
The
LCDコントローラ10eは、画像表示部20を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10eは、VRAM 10cに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、画像表示部20に出力する。また、LCDコントローラ10eは、画像表示部20に所定の指示アイコン等を表示する。
The
タッチパネルコントローラ10fは、タッチペンやユーザの指によるタッチパネル22への接触(タッチ)を検出する。例えば、画像表示部20に所定の指示アイコン等が表示されている状態で、タッチパネル22上の接触や解放(離れること)の検知、およびそれらの位置を検出する。
The
コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。
The
カートリッジ12は、ROM(Read Only Memory)12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The
The
The
無線通信部13は、他の情報処理装置の無線通信部との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。なお、無線通信部13は、所定のアクセスポイントとの間で、無線LAN通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
The
通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他の情報処理装置の処理制御部との間で行われる通信の仲立ちをする。また、情報処理装置1を、近傍の無線アクセスポイント等を介してインターネットに接続する場合には、無線LAN(Local Area Network)に準拠したプロトコルに従って、処理制御部10と無線アクセスポイント等との間で行われる無線通信の仲立ちをする。
The
サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。また、スピーカ16は、たとえば、ステレオスピーカ等からなり、サウンドアンプ15で増幅された音声信号に従って、所定の効果音や楽曲音等を出力する。
The
操作キー17は、情報処理装置1に適宜配置されたキースイッチ等から構成され、ユーザの操作に従って、所定の指示入力を受け付ける。操作キー17には、音量を調節するためのボタンや、つまみ等も含まれる。各操作キー17には、圧力センサが配備され、いずれのキーが押圧操作されているかを検知することができる。ユーザは、このような操作キー17を押圧操作することで、情報処理装置1への各種操作指示を入力する。
The
GPS処理部18は、GPS(Global Positioning System)衛星と情報のやり取りを行い、情報処理装置1の位置座標(例えば緯度・経度や高度)の情報を取得する。また、GPS処理部18は、コンパス等の方位センサを備え、情報処理装置1の向き(例えば東西南北を基準とした方位角)の情報を取得する。さらに、GPS処理部18は、重力センサ等によって重力方向を検知し、情報処理装置1が重力方向に対してどの程度傾いているかというような、傾きの情報も取得する。
The
カメラ19は、情報処理装置1の上部シャーシに組み込まれており、第1の表示部20の背面方向を撮影する。例えば、カメラ19は、第1の表示部20に表示するための風景画像を撮影する。なお、カメラ19は、一例として、単焦点のレンズ及び、所定画素数の撮像素子(CMOSやCCD等)を含んで構成され、所定の焦点距離(画角α)にて、その光軸方向を中心とした画像を撮影する。
The
第1の表示部20および、第2の表示部21は、LCD等からなり、LCDコントローラ10eの制御によって、画像データを適宜表示する。また、第2の表示部21は、ユーザ等がタッチパネル22に接触することで選択指示を入力するのに必要な選択ボタン(アイコン)等を適宜表示する。
The
タッチパネル22は、第2の表示部21の前面に重畳して配置され、タッチペンやプレイヤの指による入力を検出する。例えば、タッチパネル22は、抵抗膜方式のタッチセンサパネル等からなり、タッチペン等による押圧(押下)を検知し、その座標に応じた情報(信号等)を出力する。あるいは、タッチパネル22は、感圧式のタッチセンサパネルからなり、タッチペン等の圧力を検知するものであってもよい。
The
図2は、本発明の実施の形態に係る表示装置が実現される典型的な情報処理装置1の外観を示す模式図である。この情報処理装置1は、一例として、携帯型のゲーム機器であり、図2(a)に示すように、上部シャーシJsと下部シャーシKsに各部位がそれぞれ組み込まれている。上部シャーシJsと下部シャーシKsとは、接合部が軸支されており、通常のノート型のパソコン等のように、開閉可能となっている。 FIG. 2 is a schematic diagram showing an external appearance of a typical information processing apparatus 1 in which the display device according to the embodiment of the present invention is realized. As an example, the information processing apparatus 1 is a portable game machine, and each part is incorporated in an upper chassis Js and a lower chassis Ks as shown in FIG. The upper chassis Js and the lower chassis Ks are pivotally supported at the joint, and can be opened and closed like a normal notebook type personal computer.
例えば、上部シャーシJsには、第1の表示部20等が組み込まれている。一方、下部シャーシKsには、第2の表示部21やタッチパネル22等が組み込まれている。また、図2(b)に示すように、上部シャーシJsの裏面側には、カメラ19が組み込まれている。カメラ19は、上部シャーシJsを開いた状態で、第1の表示部20の背面方向を撮影する。なお、カメラ19は、一例として、単焦点のレンズを備え、人間の視角(注視した際の視角)よりもある程度広い画角αの範囲を撮影可能となっている。
For example, the
図3は、情報処理装置1を用いて実現される本発明の表示装置の機能構成を表す図である。表示装置300は、検知部301、取得部302、生成部303、表示部304を備える。
FIG. 3 is a diagram showing a functional configuration of the display device of the present invention realized by using the information processing device 1. The
なお、表示装置300は、記憶部等も適宜備えてもよい。ここで記憶部は、例えば各種RAM等の機能によって実現され、現在時刻、ユーザが行った入力の内容や入力の時刻等、表示装置の動作に必要な種々のデータを記憶する。
Note that the
検知部301は、カメラ19の位置および向きを検知する。すなわち、検知部301は、GPS衛星とのやり取りを行うことにより、現実世界におけるカメラ19の位置を検知し、さらに、方位センサの機能を用いることで、当該検知した位置におけるカメラ19の向きを検知する。そして、検知部301は、検知したカメラ19の位置および向きを取得部302へ供給する。このような検知部301は、例えばCPUコア10aの制御のもと、GPS処理部18やWRAM 10d等の各部が協働することによって実現される。
The
取得部302は、検知されたカメラ19の位置および向きにより定められる調査領域内にある目標物の位置を取得する。すなわち、取得部302は、検知部301によって検知されたカメラ19の位置および向きの情報を受け取り、当該位置および向きによって定められる三次元の調査領域内にある目標物の位置を取得する。そして、取得部302は、取得した目標物の位置を生成部303へ供給する。このような取得部302は、例えばCPUコア10aがWRAM 10d等の各部と協働することで実現される。
The
生成部303は、カメラ19の位置および向きにより定められる視野領域をカメラ19が撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。すなわち、生成部303は、取得部302によって取得された目標物の位置を受け取り、カメラ19による撮影画像と共に、目標物の位置を所定の投影変換により投影面に投影することで、カメラ19の撮影画像と当該目標物を表すマークとを組み合わせた表示画像を生成する。そして、生成部303は、生成した表示画像を表示部304へ供給する。このような生成部303は、例えばCPUコア10aの制御のもと、画像処理部10bやVRAM 10c等の各部が協働することによって実現される。
The
表示部304は、生成された表示画像を画面に表示する。すなわち、表示部304は、生成部303によって生成された表示画像を受け取り、第1の表示部20に表示画像を表示する。このような表示部304は、例えばCPUコア10aの制御のもと、LCDコントローラ10eやVRAM 10c等の各部が協働することによって実現される。
The
以下、表示装置300が目標物の位置を取得し、その位置を画面に表示する様子を具体的に説明する。ここで、具体的に目標物は、ユーザがプレイしたいと考えるゲーム機が備えられたゲームセンターであるとする。すなわち、ユーザが、あるゲームをプレイしたいと思い、そのゲーム機が設置されたゲームセンターがどこにあるのかについての情報を、表示装置300を用いて得る場合について、以下説明する。
Hereinafter, how the
図4は、表示装置300をもったユーザが現実世界の市街地にいる様子を示す図である。この市街地には、複数の建物が中央の通りに面して並んで立てられており、建物の脇には、樹木や車がある。ユーザ400は、この通りの中央の位置401に立っており、表示装置300のカメラ19が通りの奥の向き402へと向くように、表示装置300を把持している。このユーザ400の位置401は、上空を周回しているGPS衛星420の機能により、ユーザ400が把持する表示装置300の位置401として検知される。
FIG. 4 is a diagram illustrating a state in which a user having the
この通りに面した建物のうち、ビル405aとビル405bには、ユーザ400がプレイしたいと考えているゲーム機が設置されたゲームセンター、すなわち目標物410a,410bがある。一方で、ユーザ400は、そのゲームをプレイできるゲームセンター、すなわち目標物410a,410bが、どの建物に入っているかについては知らないものとする。
Among the buildings facing the street, the
このとき、ユーザ400が、目標物410の位置を知りたいと思い、その旨の指示を、タッチパネル22等の入力装置を用いて表示装置300に入力すると、まず表示装置300の検知部301が、GPS処理部18の機能により、カメラ19の位置401と向き402を検知する。具体的に、検知部301は、GPS衛星420と情報のやり取りを行い、カメラ19の現在の位置401を検知する。また、検知部301は、GPS処理部18に備えられた方位センサと重力センサによって、カメラ19の向き402、すなわち表示装置300が現在どの方位に向けられ、重力方向からどの程度傾けられているか、を検知する。このとき、検知部301は、カメラ19の位置401として、緯度・経度・高度の情報を取得し、カメラ19の向き402として、東西南北を基準とした方位角情報および水平面を基準とした仰角の情報を取得する。
At this time, when the
図5は、ユーザ400の真上から見たときの、検知されたカメラ19の位置401および向き402により定められるカメラ19の視野領域を示す図である。ユーザ400が把持する表示装置300に備えられたカメラ19の視野領域500は、カメラ19の位置401からカメラ19の向き402へ、カメラ19の画角αの範囲に放射状に伸びる視線によって形作られる。すなわち、図5の斜線で示した部分のように、視野領域500は、頂点であるカメラ19の位置401からカメラ19の向き402へ伸びる直線を軸とし、カメラ19の画角αに対応する頂角をもつ四角錐510により定められる。
FIG. 5 is a diagram showing the field of view of the
このとき、ユーザ400の周囲に存在している2つの目標物410a,410bのうち、ビル405a内にある目標物410aは視野領域500内に入っているが、ビル405b内にある目標物410bは視野領域500内には入っていない。すなわち、ユーザ400が通りの奥の向き402へカメラ19を向けているため、通りの奥に位置している目標物410aは視野領域500内に収まっているが、ユーザ400のすぐ左横にある目標物410bは、視野領域500から外れてしまっている。
At this time, of the two
そのため、ユーザ400により近い位置にあるにもかかわらず、目標物410bが視野領域500に入るようにカメラ19の向き402を向けていないため、カメラ19による撮影画像には、目標物410bが入ったビル405bは映し出されないことになり、ユーザ400は、撮影画像に表示された建物の中からは、より遠方にある目標物410aの位置しか知ることができないことになる。そこで、本実施形態の表示装置300は、より近くにある目標物410bを見逃してしまうことをなるべく避けるため、カメラ19の視野領域500から外れた目標物410の位置についても、その位置を画面に表示し、ユーザ400に提供できるようにする。
For this reason, since the orientation of the
図6は、ユーザ400の真上から見たときの、カメラ19の視野領域500を包含する調査領域を示す図である。この調査領域600は、カメラ19の視野領域500を定める四角錐510と同じく、カメラ19の位置401を頂点およびカメラ19の向き402へ伸びる直線を軸とし、四角錐510を包含するような別の四角錐610により定められる。すなわち、図6の斜線で示した部分のように、調査領域600は、視野領域500を定める第1の四角錐510を包含する第2の四角錐610により定められる三次元空間内の領域となり、画角αにより定められるカメラ19の視野領域500に対し、あたかもカメラ19の画角をさらに広げたような領域となる。
FIG. 6 is a diagram illustrating a survey area including the
表示装置300の取得部302は、視野領域500内にある目標物410aの位置に加え、このようなカメラ19の視野領域500の外側にまで及ぶ調査領域600内にある目標物410bの位置も取得する。すなわち、検知部301によってカメラ19の位置401および向き402が検知されると、取得部302は、検知されたカメラ19の位置401および向き402により定められる調査領域600が占める空間を求め、それぞれの目標物410の位置が、この調査領域600内に収まっているか否かを判断し、収まっていると判断した目標物410の位置を取得する。
The
具体的に図6では、ユーザ400の左横にある目標物410bは、カメラ19の視野領域500からは外れているが、調査領域600内には収まっているため、視野領域500内の目標物410aと共に、取得部302によってその位置が取得されることになる。
Specifically, in FIG. 6, the
なお、調査領域600内に収まっているか否かの判断に用いられるそれぞれの目標物410の位置の情報は、あらかじめ表示装置300内の各種記憶部に記憶され、必要に応じて取得部302に読み出されてもよいし、あるいは、外部のサーバ等に記憶されており、例えばゲームAをプレイしたいユーザ400にはゲームAのゲーム機が設置されたゲームセンターの位置情報が、またゲームBをプレイしたいユーザ400にはゲームBのゲーム機が設置されたゲームセンターの位置情報が、必要に応じて無線通信部13を通じて取得されるものであってもよい。
Information on the position of each target 410 used for determining whether or not it is within the
このようにして調査領域600内にある目標物410の位置が取得されると、次に表示装置300の生成部303が、取得された目標物410の位置を表示するための表示画像を、カメラ19による撮影画像に対応させて生成する。
When the position of the target 410 in the
図7は、カメラ19の視野領域500内の位置と調査領域600内の目標物の位置とを仮想の投影面に投影する様子を示す図である。この図7は、図6と同様、カメラ19の視野領域500とこれを包含する調査領域600について、ユーザ400の真上から見たときの様子を示している。
FIG. 7 is a diagram showing a state in which the position of the
表示画像を生成するため、生成部303は、仮想の投影面700を、VRAM 10c等の記憶部に用意する。具体的には図7に示すように、生成部303は、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置、すなわちz=aの位置に投影面700をとる。そして、投影面700内には、カメラ19による撮影画像が描画される写真領域701と、この写真領域701を包含するように、取得された目標物410を表すマークが描画される報告領域702と、が用意される。
In order to generate a display image, the
ここで、写真領域701は、カメラ19による撮影画像(いわゆる写真)を描画するための二次元領域である。生成部303は、この写真領域701に、カメラ19の視野領域500内に収められた建物や樹木等の位置を投影することで、カメラ19による撮影画像を描画する。すなわち、生成部303は、原点であるカメラ19の位置401から画角αの範囲で放射状に伸びる視線を投影線とし、この投影線に沿って、視野領域500内の位置を投影面700に投影する。具体的に座標を用いて説明すると、三次元座標が(x,y,z)で表される視野領域500内の任意の位置が、z=aの投影面700上では、xy座標が(x(a/z),y(a/z))で表される位置に投影されることになる。
Here, the
一方、報告領域702は、調査領域600内に位置する目標物410について、対応するマークを描画することでその位置をユーザ400に報告するための二次元領域であり、写真領域701を包含するように、投影面700内のより広い二次元領域がとられる。生成部303は、この報告領域702に、取得部302によって取得された目標物410a,410bの位置を、視野領域500内の建物や樹木等を投影した際と同じ投影変換を用いて、投影する。すなわち、目標物410a,410bの位置は、原点であるカメラ19の位置401から放射状に伸びる投影線に沿って、投影面700内の報告領域702に投影される。
On the other hand, the
具体的に、三次元座標が(x1,y1,z1)で表される位置にある目標物410aは、投影線705aに沿って、xy座標が(x1(a/z1),y1(a/z1))で表される投影面700内の位置に投影される。同様に、三次元座標が(x2,y2,z2)で表される位置にある目標物410bは、投影線705bに沿って、xy座標が(x2(a/z2),y2(a/z2))で表される投影面700内の位置に投影される。
Specifically, the
そして、生成部303は、投影された目標物410a,410bの位置に、目標物410a,410bを表すマーク710a,710bを描画し、写真領域701に描画した撮影画像とあわせることで、表示画像を生成する。
Then, the
図8は、生成された表示画像を示す図である。この図8に示すように、表示画像800は、投影面700内の写真領域701に描画されたカメラ19による撮影画像810と、投影面700内の報告領域702に描画された目標物410a,410bを表すマーク710a,710b(具体的に図8では星形のマーク)と、から構成される。表示装置300の表示部304は、このような表示画像800を、第1の表示部20等の画面に表示する。
FIG. 8 is a diagram showing the generated display image. As shown in FIG. 8, the
すなわち、表示画像800には、撮影画像810として、カメラ19の視野領域500内に収められた建物、樹木、車等が、ユーザ400の位置401から見たような様子で描画され、そこに目標物410a,410bを表すマーク710a,710bが重ねて描画されることで、表示画像800を見たユーザ400は、撮影画像810を基準として目標物410a,410bがどこの位置にあるのかを認識することができるようになる。
That is, in the
具体的に、図8に示すように、カメラ19の視野領域500内に位置する目標物410aを表すマーク710aは、この目標物410aが入っているビル405aが描画された撮影画像810内の位置に描画される。一方で、カメラ19の視野領域500の外側に位置する目標物410bを表すマーク710bは、この目標物410bが入っているビル405bが撮影画像810内に描画されていないため、撮影画像810内には描画されず、撮影画像810の範囲から左側に外れた位置に描画される。
Specifically, as shown in FIG. 8, the
これにより、ユーザ400は、カメラ19の視野領域500内に位置する目標物410aについて、撮影画像810を見ながら、撮影されたビル405a内にあるということを知ることができる。さらに、ユーザ400は、カメラ19の視野領域500外に位置する目標物410bについても、どの建物の中に入っているまでは知ることができないが、現在の位置401と向き402を基準としてどの辺りにあるのかについては知ることができる。そのため、ユーザ400は、より近い位置にある目標物410bの位置を見逃すことなく得ることができる。
Thereby, the
すなわち、所望のゲームをプレイできるゲームセンターを探しているユーザ400は、たまたまカメラ19をそちらの方向に向けていなかったから等の理由によって、より近いゲームセンター(目標物410b)の位置の情報を見逃すことなく得ることができ、わざわざ遠方にあるゲームセンター(目標物410a)にまで行く必要がなくなる。
That is, the
図9は、本実施形態の表示装置300に係る処理の流れを示すフローチャートである。ここまで説明してきた本実施形態において実現される処理の流れまとめて、以下に説明する。
FIG. 9 is a flowchart showing a flow of processing according to the
表示装置300の処理が開始されると、各種初期化処理を行った後、まず表示装置300は、ユーザ400から目標物410の位置を表示する旨の指示を受け付けたか否かを判定する(ステップS901)。すなわち、表示装置300は、目標物410の位置を知りたいと思ったユーザ400からの目標物410の位置を表示させるための指示が、タッチパネル22等の入力装置を介して入力されたか否かを判定する。
When the processing of the
ユーザ400からの指示を受け付けていない場合(ステップS901;NO)、処理はステップS901に留まり、ユーザ400からの指示を受け付けるまで待機する。
When the instruction from the
一方、ユーザ400からの指示を受け付けると(ステップS901;YES)、次に検知部301が、カメラ19の位置401および向き402を検知する(ステップS902)。すなわち、検知部301は、GPS衛星420と交信を行うことでカメラ19の現在の位置401を求め、また方位センサによってカメラ19の現在の向き402を求める。
On the other hand, when an instruction from the
カメラ19の位置401および向き402が検知されると、次に、取得部302が、調査領域600内にある目標物410の位置を取得する(ステップS903)。
When the
すなわち、取得部302は、検知されたカメラ19の現在の位置401および向き402により定められる調査領域600を求め、これらの中に位置する目標物410の位置を取得する。具体的には図6に示したように、調査領域600は、カメラ19の視野領域500を定める四角錐510を包含する第2の四角錐610として定められる。そして、この調査領域600内に位置する目標物410の位置が取得される。
That is, the
目標物410の位置が取得されると、次に、生成部303が、カメラ19の視野領域500を投影し(ステップS904)、さらに取得された目標物410の位置を投影面700に投影することで(ステップS905)、表示画像800を生成する。
When the position of the target object 410 is acquired, the
すなわち、生成部303は、図7に示したように、カメラ19の視野領域500内の位置を投影面700内の写真領域701に投影して撮影画像810を描画し、これと同じ投影変換を用いて、取得された調査領域600内の目標物410の位置を投影面700内の報告領域702に投影する。そして、投影された位置に目標物410を表すマーク710を撮影画像810に重ねて描画することで、図8に示したような表示画像800を生成する。
That is, as illustrated in FIG. 7, the
表示画像800が生成されると、次に、表示部304が、表示画像800が画面に出力されるべき所定の同期タイミングを待って、生成された表示画像800を画面に表示する(ステップS906)。すなわち、表示部304は、生成された表示画像800を第1の表示部20等の画面に表示することで、ユーザ400に目標物410の位置の情報を提供する。
When the
その後、処理はステップS901へと戻り、再びユーザ400から目標物410の位置を表示する旨の指示を受け付けるまで待機する。
Thereafter, the process returns to step S901, and waits until an instruction to display the position of the target object 410 is received from the
このような構成によって、本実施形態に係る表示装置300は、カメラ19による撮影画像810と共に、カメラ19の視野領域500を投影したものと同じ投影変換を用いて、カメラ19の視野領域500を包含する調査領域600内の目標物410の位置を表示画像800内に表示する。その結果、カメラ19の視野内にある目標物410については、その位置がカメラ19の撮影画像810に重ねられて表示されるため、撮影された建物等に対応させて目標物410の位置をユーザ400に提供でき、さらにカメラ19の視野から外れた目標物410についても、カメラの撮影画像810を基準としてどの位置にあるのかをユーザ400に認識させることができる。
With such a configuration, the
(実施形態2)
次に、本発明の実施形態2について説明する。上記実施形態1での表示装置300は、目標物410の位置が取得される調査領域600を、カメラ19の視野領域500を定める第1の四角錐510を包含する第2の四角錐610により定めた。それに対して本実施形態での表示装置300は、調査領域を、カメラ19の視野領域500を定める四角錐510と共通な軸を有する放物面により定める。以下、説明する。
(Embodiment 2)
Next,
図10は、本実施形態において、放物面により定められる調査領域を示す図である。この図10は、実施形態1における図6と同様に、現実世界の市街地にいるユーザ400が、通りの真ん中の位置401から、通りの奥の向き402へ、表示装置300のカメラ19を向けている様子を示している。そして、図6と同様に、カメラ19の視野領域500は、カメラ19の位置401を頂点とし、向き402へ伸びる直線を軸とする四角錐510により定められる。
FIG. 10 is a diagram showing a survey area defined by a paraboloid in the present embodiment. In FIG. 10, as in FIG. 6 in the first embodiment, the
一方、本実施形態における取得部302が目標物410の位置を取得するべき調査領域1000は、図6のような第2の四角錐610ではなく、図10の斜線で示した部分のように、二次曲面である放物面1010により定められる。具体的にこの放物面1010は、視野領域500を定める四角錐510と同じくカメラ19の位置401を頂点とし、視野領域500を定める四角錐510と共通の軸、すなわちカメラ19の向き402へ伸びる直線をその回転軸とする回転放物面となる。
On the other hand, the
取得部302は、検知部301によってカメラ19の位置401および向き402が検知されると、このような放物面1010により定められる調査領域1000が占める三次元空間を求め、それぞれの目標物410の位置が、この調査領域1000内に収まっているか否かを判断し、収まっていると判断した目標物410の位置を取得する。
When the
具体的に図10では、ユーザ400の左横にある目標物410bは、カメラ19の視野領域500からは外れているが、放物面1010により定められる調査領域1000内には収まっているため、視野領域500内の目標物410aと共に、取得部302によってその位置が取得されることになる。
Specifically, in FIG. 10, the
調査領域1000に放物面1010を用いることで、第2の四角錐610を用いたときに比べ、調査領域1000は、特にカメラ19の位置401の近傍においてより十分に、視野領域500よりも広い領域を占めることになる。その結果、本実施形態における表示装置300は、目標物410bのように、ユーザ400の近くにあるにもかかわらずカメラ19の視野領域500から外れてしまった目標物410について、その位置が取得され逃されてしまうということを、より効果的に防ぐことができるようになる。
By using the
このようにして放物面1010により定められる調査領域1000内にある目標物410の位置が取得されると、次に表示装置300の生成部303が、取得された目標物410の位置を表示するための表示画像を、カメラ19による撮影画像に対応させて生成する。
When the position of the target 410 within the
図11は、調査領域1000内の目標物の位置を仮想の投影面700に投影する様子を示す図である。この図11は、図10と同様、視野領域500と調査領域1000について、ユーザ400の真上から見たときの様子を示している。
FIG. 11 is a diagram illustrating a state in which the position of the target in the
表示画像を生成するため、生成部303は、実施形態1における図7と同様に、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置、すなわちz=aの位置に仮想の投影面700をとる。そして、投影面700内に、カメラ19による撮影画像が描画される写真領域701と、この写真領域701を包含するように、取得された目標物410を表すマークが描画される報告領域702と、を用意する。
In order to generate the display image, the
ここで、投影面700内の写真領域701には、実施形態1と同様に、視野領域500内に収められた建物や樹木等の位置がカメラ19の視線に沿って投影されることで、カメラ19による撮影画像が描画される。一方で、投影面700内の報告領域702には、調査領域1000内に位置する目標物410について、その位置が投影され、投影された位置に目標物410を表すマークが描画されるが、このとき、実施形態1ではカメラ19による撮影画像の描画と同じ投影変換が用いられたのに対し、本実施形態では、放物線を投影線とする投影変換が用いられる。
Here, in the
具体的には図11に示すように、原点であるカメラ19の位置401を頂点とし、カメラ19の向き402へ伸びる直線を軸とする放物線を投影線とする。そして、調査領域1000内の任意の位置が、この投影線に沿って、z=aの位置にある投影面700に投影される。具体的に座標を用いて説明すると、三次元座標が(x,y,z)で表される調査領域1000内の任意の位置が、z=aの投影面700上では、xy座標が(x√(a/z),y√(a/z))で表される位置に投影されることになる。
Specifically, as shown in FIG. 11, a parabola whose axis is a straight line extending in the
すなわち、三次元座標が(x1,y1,z1)で表される位置にある目標物410aは、投影線1105aに沿って、xy座標が(x1√(a/z1),y1√(a/z1))で表される投影面700内の位置に投影される。同様に、三次元座標が(x2,y2,z2)で表される位置にある目標物410bは、投影線1105bに沿って、xy座標が(x2√(a/z2),y2√(a/z2))で表される投影面700内の位置に投影される。
In other words, the
そして、生成部303は、投影された目標物410a,410bの位置に、目標物410a,410bを表すマーク710a,710bを描画し、写真領域701に描画した撮影画像とあわせることで、表示画像を生成する。生成された表示画像は、表示部304によって表示装置300の画面に表示される。これにより、ユーザ400は、カメラ19による撮影画像を基準として、目標物410a,410bがどのあたりの位置にあるのかを認識することができる。
Then, the
なお、このように放物線を投影線とする投影変換により目標物410の位置が投影面700に投影されることにより、投影された目標物410の位置は、カメラ19の視線を投影線として投影された撮影画像の描画位置に対し、ずれが生じるものとなる。すなわち、例えばカメラ19の視野領域500内にある目標物410aは、実際にはビル405a内にあるにもかかわらず、描画された撮影画像内のビル405aの位置からずれた位置に投影されることになる。しかし、撮影画像の中心付近では、投影線として用いられた放物線は直線形状に近くなるため、投影された目標物410の位置と撮影画像の描画位置とのずれは小さくなるし、そもそも検知部301によって検知されるカメラ19の位置401や向き402、さらには取得部302によって取得される目標物410の位置にも一定の誤差が含まれうる。そのため、本実施形態の表示装置300は、投影された目標物410の位置と撮影画像の描画位置とのずれをユーザ400にそれほど感じさせることなく、目標物410の位置を提供できる。
In addition, the position of the target 410 is projected onto the
このような構成によって、本実施形態に係る表示装置300は、目標物410の位置を取得する調査領域1000として、放物面1010により定められる領域をとる。そして、取得した目標物410の位置を、放物線を投影線とする投影変換を用いて投影面700に投影し、カメラ19による撮影画像と共に表示画像として画面に表示する。その結果、特にカメラ19の位置401の近傍において、目標物410の位置を取得する調査領域1000を広くとることができ、ユーザ400の近くにある目標物410の位置を取得し逃すことを効果的に防ぎつつ、その位置の情報をユーザ400に提供することができる。
With such a configuration, the
(実施形態3)
次に、本発明の実施形態3について説明する。上記実施形態2での表示装置300は、目標物410の位置が取得される調査領域1000を、ユーザ400(カメラ19)の位置401を頂点とする放物面1010により定めた。それに対して本実施形態での表示装置300は、調査領域を、ユーザ400の後方の位置を頂点とし、ユーザ400を包含するような放物面により定める。以下、説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the
図12は、ユーザ400を包含する放物面により定められる調査領域を示す図である。この図12は、実施形態2における図10と同様に、現実世界の市街地にいるユーザ400が、通りの真ん中の位置401から、通りの奥の向き402へ、表示装置300のカメラ19を向けている様子を示している。このときのカメラ19の視野領域500は、図10と同様に、カメラ19の位置401を頂点とし、向き402へ伸びる直線を軸とする四角錐510により定められる。
FIG. 12 is a diagram illustrating a survey area defined by a paraboloid that includes the
一方、本実施形態における取得部302が目標物410の位置を取得するべき調査領域1200は、図12の斜線で示した部分のように、ユーザ400を包含するような放物面1210により定められる。具体的にこの放物面1210は、ユーザ400(カメラ19)の位置から距離bだけ後方の位置を頂点とし、視野領域500を定める四角錐510と共通の軸、すなわちカメラ19の向き402へ伸びる直線をその回転軸とする回転放物面となる。
On the other hand, the
このようにカメラ19の向き402に対し後方の領域にまで調査領域1200をとることで、カメラ19の前方だけでなく、後方に位置する目標物410の位置が取得されることになる。具体的に図12において、ビル405c内にある目標物410cは、ユーザ400の右側後方にあり、カメラ19の視野領域500からは外れているが、放物面1210により定められる調査領域1200内には収まっているため、他の目標物410a,410bと共に、取得部302によってその位置が取得されることになる。
In this way, by taking the
取得された目標物410a,410b,410cの位置は、実施形態2と同様に、放物線の投影線に沿って仮想の投影面に投影される。投影される位置について具体的に座標を用いて説明すると、実施形態2における図11と同様に、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置に仮想の投影面をとった場合、三次元座標が(x,y,z)で表される調査領域1200内の任意の位置が、投影面上では、xy座標が(x√(a+b)/√(z+b),y√(a+b)/√(z+b))で表される位置に投影されることになる。
The acquired positions of the target objects 410a, 410b, and 410c are projected onto a virtual projection plane along the parabolic projection line, as in the second embodiment. The projected position will be specifically described using coordinates. Similarly to FIG. 11 in the second embodiment, the
そして、投影面に投影された目標物410a,410b,410cの位置に、目標物410a,410b,410cを表すマークが描画され、カメラ19による撮影画像と共に表示画像として画面に表示される。これにより、ユーザ400は、カメラ19による撮影画像を基準として、目標物410a,410b,410cがどのあたりの位置にあるのかについての情報を得ることができる。
Then, marks representing the target objects 410a, 410b, and 410c are drawn at the positions of the target objects 410a, 410b, and 410c projected on the projection plane, and are displayed on the screen as a display image together with the images captured by the
このような構成によって、本実施形態に係る表示装置300は、目標物410の位置を取得する調査領域1200として、ユーザ400を包含するような放物面1210により定める。その結果、特にカメラ19の位置401の近傍において、ユーザ400の後方にまで目標物410の位置を取得する調査領域1200をとることができ、ユーザ400の後方にある目標物410についても、その位置の情報をユーザ400に提供することができる。
With such a configuration, the
(他の実施形態)
以上、本発明の実施の形態について説明したが、本発明は、上述した実施形態に限定されず、種々の変形および応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。
(Other embodiments)
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.
例えば、上記実施形態では、取得部302に取得される目標物410は、ユーザがプレイしたいと考えるゲーム機が備えられたゲームセンターであるとして説明したが、これに限らず、ユーザがその位置を知りたいと考える建物、施設、設備等であれば、例えばコンビニエンスストア、自動販売機、バス停、等のようなものでもよい。
For example, in the above-described embodiment, the target 410 acquired by the
また、上記実施形態では、表示装置300の検知部301は、カメラ19の位置401として、緯度・経度・高度の情報を取得し、カメラ19の向き402として、東西南北を基準とした方位角情報および水平面を基準とした仰角の情報を取得した。しかしこれに限らず、緯度・経度以外の座標系によってカメラ19の位置401を取得してもよいし、東西南北を基準とした方位角以外の情報によってカメラ19の向き402を取得してもよい。
In the above embodiment, the
また、検知部301は、カメラ19の位置401や向き402として、鉛直方向の情報、すなわち高度や仰角を取得せず、水平方向の情報、すなわち緯度・経度や方位角のみを検知するようにしてもよい。検知する情報から鉛直方向の情報を省略することで、表示画像に表示される目標物410の位置の鉛直方向の精度、すなわち目標物410がどれくらいの高さの位置にあるのかの情報が低下することになるが、ユーザ400が目標物410の位置を知るためには、水平方向の位置情報を認識できればよい場合も多い。そのため、検知する情報から鉛直方向の情報を省略することで、より簡略化された表示装置300の構成によって、カメラの外側にある目標物410の位置をユーザ400に提供することが可能になる。
In addition, the
また、上記実施形態2,3では、目標物410の位置が取得される調査領域1000,1200は、カメラ19の視野領域500を定める四角錐510と共通の軸を回転軸として有する回転放物面1010,1210により定められた。しかし回転放物面に限らず、調査領域は、その他の二次曲面により定められてもよい。例えば、放物面に限らず、球面、楕円面、双曲面、円錐面により定められてもよいし、放物面であっても、回転放物面のような回転対称なものに限らず、放物線を鉛直方向に柱状に伸ばした放物線柱面のような立体形状により定められてもよい。本発明の表示装置300は、このような種々の二次曲面を、目標物410の位置を取得したい領域に応じて、柔軟に設計することができる。
In the second and third embodiments, the
以上説明したように、本発明によれば、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することができる。 As described above, according to the present invention, it is possible to provide a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of the camera on the screen. it can.
1 情報処理装置
10 処理制御部
10a CPUコア
10b 画像処理部
10c VRAM
10d WRAM
10e LCDコントローラ
10f タッチパネルコントローラ
11 コネクタ
12 カートリッジ
12a ROM
12b RAM
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 GPS処理部
19 カメラ
20 第1の表示部
21 第2の表示部
22 タッチパネル
300 表示装置
301 検知部
302 取得部
303 生成部
304 表示部
400 ユーザ
401 (カメラの)位置
402 (カメラの)向き
405a,405b,405c ビル
410a,410b,410c 目標物
420 GPS衛星
500 視野領域
510 四角錐
600,1000,1200 調査領域
610 第2の四角錐
700 投影面
701 写真領域
702 報告領域
705a,705b,1105a,1105b 投影線
710a,710b マーク
800 表示画像
810 撮影画像
1010,1210 放物面
DESCRIPTION OF SYMBOLS 1
10d WRAM
12b RAM
DESCRIPTION OF
Claims (7)
前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得部、
前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成部、
前記生成された表示画像を画面に表示する表示部
を備え、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ことを特徴とする表示装置。 A detector that detects the position and orientation of the camera,
An acquisition unit for acquiring a position of a target in an investigation region determined by the detected position and orientation of the camera;
A photographed image obtained by photographing the visual field region defined by the position and orientation of the camera is photographed in a photographic region within a projection plane, and the position of the acquired target is determined by a predetermined projection conversion. A generation unit that generates a display image by drawing a mark representing the target object at a position projected in a report area in the projection plane;
A display unit for displaying the generated display image on a screen;
The reporting area includes the photographic area;
The survey area has a portion not included in the visual field area.
前記調査領域は、前記カメラの位置の近傍で前記視野領域を含む
ことを特徴とする表示装置。 The display device according to claim 1,
The investigation area includes the visual field area in the vicinity of the position of the camera.
前記所定の投影変換は、前記視野領域を前記写真領域に投影する投影変換に一致する
ことを特徴とする表示装置。 The display device according to claim 1 or 2,
The predetermined projection conversion coincides with a projection conversion for projecting the visual field area onto the photographic area.
前記視野領域は、第1の錐体により定められ、
前記調査領域は、第2の錐体により定められ、
前記第1の錐体の軸と、前記第2の錐体の軸とは、重なり、
前記第2の錐体は、前記第1の錐体を包含する
ことを特徴とする表示装置。 The display device according to any one of claims 1 to 3,
The field of view is defined by a first cone;
The survey area is defined by a second cone;
The axis of the first cone and the axis of the second cone overlap,
The display device characterized in that the second cone includes the first cone.
前記視野領域は、錐体により定められ、
前記調査領域は、二次曲面により定められ、
前記錐体の軸と、前記二次曲面の軸のいずれかとは、重なる
ことを特徴とする表示装置。 The display device according to any one of claims 1 to 3,
The field of view is defined by a cone;
The survey area is defined by a quadric surface,
The display device, wherein the axis of the cone and one of the axes of the quadric surface overlap.
前記検知部が、カメラの位置および向きを検知する検知工程、
前記取得部が、前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得工程、
前記生成部が、前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成工程、
前記表示部が、前記生成された表示画像を画面に表示する表示工程
を備え、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ことを特徴とする表示方法。 A display method executed by a display device including a detection unit, an acquisition unit, a generation unit, and a display unit,
A detection step in which the detection unit detects the position and orientation of the camera;
An acquisition step in which the acquisition unit acquires a position of a target in a survey area determined by the detected position and orientation of the camera;
The generation unit draws a photographed image obtained by the camera photographing a visual field region determined by the position and orientation of the camera in a photographic region within a projection plane, and the position of the acquired target is predetermined. Generating a display image by drawing a mark representing the target at a position projected in the report area in the projection plane by the projection conversion of
The display unit includes a display step of displaying the generated display image on a screen;
The reporting area includes the photographic area;
The survey method has a portion not included in the visual field region.
カメラの位置および向きを検知する検知部、
前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得部、
前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成部、
前記生成された表示画像を画面に表示する表示部
として機能させ、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ように機能させることを特徴とするプログラム。 Computer
A detector that detects the position and orientation of the camera,
An acquisition unit for acquiring a position of a target in an investigation region determined by the detected position and orientation of the camera;
A photographed image obtained by photographing the visual field region defined by the position and orientation of the camera is photographed in a photographic region within a projection plane, and the position of the acquired target is determined by a predetermined projection conversion. A generation unit that generates a display image by drawing a mark representing the target object at a position projected in a report area in the projection plane;
Function as a display unit for displaying the generated display image on a screen;
The reporting area includes the photographic area;
The research area is made to function so as to have a portion not included in the visual field area.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011251147A JP5189673B1 (en) | 2011-11-16 | 2011-11-16 | Display device, display method, and program |
PCT/JP2012/071839 WO2013073255A1 (en) | 2011-11-16 | 2012-08-29 | Display device, display method, program, and non-transitory recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011251147A JP5189673B1 (en) | 2011-11-16 | 2011-11-16 | Display device, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5189673B1 JP5189673B1 (en) | 2013-04-24 |
JP2013105466A true JP2013105466A (en) | 2013-05-30 |
Family
ID=48429333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011251147A Active JP5189673B1 (en) | 2011-11-16 | 2011-11-16 | Display device, display method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5189673B1 (en) |
WO (1) | WO2013073255A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211811A (en) * | 2016-05-25 | 2017-11-30 | 富士通株式会社 | Display control program, display control method and display control device |
JP2021007020A (en) * | 2015-12-10 | 2021-01-21 | ソニー株式会社 | Information processing device, information processing method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6299234B2 (en) * | 2014-01-23 | 2018-03-28 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008040662A (en) * | 2006-08-03 | 2008-02-21 | Nippon Hoso Kyokai <Nhk> | Cg composition apparatus and cg composition program |
JP2011174805A (en) * | 2010-02-24 | 2011-09-08 | Zenrin Datacom Co Ltd | Information presenting system and program |
-
2011
- 2011-11-16 JP JP2011251147A patent/JP5189673B1/en active Active
-
2012
- 2012-08-29 WO PCT/JP2012/071839 patent/WO2013073255A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008040662A (en) * | 2006-08-03 | 2008-02-21 | Nippon Hoso Kyokai <Nhk> | Cg composition apparatus and cg composition program |
JP2011174805A (en) * | 2010-02-24 | 2011-09-08 | Zenrin Datacom Co Ltd | Information presenting system and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021007020A (en) * | 2015-12-10 | 2021-01-21 | ソニー株式会社 | Information processing device, information processing method, and program |
JP7052845B2 (en) | 2015-12-10 | 2022-04-12 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
JP2017211811A (en) * | 2016-05-25 | 2017-11-30 | 富士通株式会社 | Display control program, display control method and display control device |
Also Published As
Publication number | Publication date |
---|---|
WO2013073255A1 (en) | 2013-05-23 |
JP5189673B1 (en) | 2013-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10979751B2 (en) | Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication | |
US10721116B2 (en) | Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium | |
CN110544280B (en) | AR system and method | |
US20180191787A1 (en) | Communication terminal, communication system, communication method, and display method | |
US10554883B2 (en) | VR system, communication method, and non-transitory computer-readable medium | |
JP2022179557A (en) | Communication terminal, display method, program, and image communication system | |
CN110427110B (en) | Live broadcast method and device and live broadcast server | |
WO2014091824A1 (en) | Display control device, display control method and program | |
CN110992493A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP2021520540A (en) | Camera positioning methods and devices, terminals and computer programs | |
CN111768454A (en) | Pose determination method, device, equipment and storage medium | |
WO2020084951A1 (en) | Image processing device and image processing method | |
CN111897429A (en) | Image display method, image display device, computer equipment and storage medium | |
JP2021052289A (en) | Image processing method, program, image processing apparatus, and image processing system | |
CN110839174A (en) | Image processing method and device, computer equipment and storage medium | |
CN110853128A (en) | Virtual object display method and device, computer equipment and storage medium | |
JP5189673B1 (en) | Display device, display method, and program | |
CN111582993A (en) | Method and device for acquiring target object, electronic equipment and storage medium | |
JP2018033107A (en) | Video distribution device and distribution method | |
JP2018056889A (en) | Display terminal, display method, and program | |
JP2018061243A (en) | Communication terminal, display method, and program | |
JP7151316B2 (en) | Communication terminal, image communication system, display method, and program | |
CN110443841B (en) | Method, device and system for measuring ground depth | |
CN111369684A (en) | Target tracking method, device, equipment and storage medium | |
JP2019139697A (en) | Display device, video display system, and video display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160201 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5189673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |