JP2017167501A - 位相特定装置、携帯端末、位相特定方法及びプログラム - Google Patents
位相特定装置、携帯端末、位相特定方法及びプログラム Download PDFInfo
- Publication number
- JP2017167501A JP2017167501A JP2016114617A JP2016114617A JP2017167501A JP 2017167501 A JP2017167501 A JP 2017167501A JP 2016114617 A JP2016114617 A JP 2016114617A JP 2016114617 A JP2016114617 A JP 2016114617A JP 2017167501 A JP2017167501 A JP 2017167501A
- Authority
- JP
- Japan
- Prior art keywords
- user
- phase
- information
- visual recognition
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 126
- 239000000203 mixture Substances 0.000 claims description 52
- 238000003384 imaging method Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 20
- 238000013461 design Methods 0.000 abstract description 17
- 238000004891 communication Methods 0.000 description 19
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 9
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000018199 S phase Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000002354 daily effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
Description
[第1の実施形態に係る位相特定装置1の概要]
図1は、第1の実施形態に係る位相特定装置1の概要を説明するための図である。
位相特定装置1は、都市や建築物(以下、「都市等」という)に対してユーザが知覚する視認対象物の位相を特定するためのコンピュータである。ユーザは、都市に存在する人、建築物を視認する人及び建築物を利用する人を含む。視認対象物の位相とは、当該ユーザが視覚により知覚した身の回りにおける様々な物理的な事象により構築される幾何学的な領域の性質であり、任意の事象の集合による領域が規定されることで安定感(内部)、開放感(外部)を基本として、連続感、緊張感といった感情を派生させて導くことができる性質である。
図2は、第1の実施形態に係る携帯端末2の構成を示す図である。
携帯端末2は、例えば、ユーザの頭部に装着されるウェアラブル端末、又はユーザが携帯できるスマートフォン等の端末である。携帯端末2は、風景を撮影するとともに当該風景における視点を記録することができる。携帯端末2は、携帯端末2を装着したユーザが都市等を歩行したり立ち止まったりする間に都市等の空間経路を撮影して動画を生成するとともに、ユーザの視線位置情報を生成する。
外部撮像部22は、携帯端末2を装着しているユーザが、歩行する都市等を撮影して、映像信号を生成する。外部撮像部22は、映像信号を撮像画像取得部262に入力する。
なお、携帯端末2は、位置検出部21として、加速度を検出する加速度センサと、携帯端末2の正面方向に対応する方位を検出する方位センサとを備えてもよい。そして、位置情報取得部261は、検出された加速度及び方位に基づいて、基準の位置(例えば、撮影を開始した位置)に対する相対的な位置を示す端末位置情報を算出してもよい。
図3は、第1の実施形態に係る位相特定装置1の構成を示す図である。
位相特定装置1は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、取得部131と、特定部132と、作成部133と、出力部134と、を有する。
特定部132は、視線の位置の変化パターンが「見回し」である場合に、ユーザが、安定感がある印象も開放感がある印象も抱かなかったと判定する。
「パス」は、ユーザが日ごろ又は時々通る、若しくはユーザが通る可能性のある道筋である。
「エッジ」は、線状の要素のうち、パスとは異なる線状の要素であり、例えば、海岸線、鉄道の線路、開発地の縁、壁等、2つの要素の間にある境界である。
「ディストリクト」は、中から大の大きさを有する都市の一部分を示すとともに、2次元の広がりをもつ要素である。ユーザは、「ディストリクト」の内部に入るものであり、通常は、「ディストリクト」は、内部から認識されるものであるが、外から視認可能な場合には、外からも参照される。
「ノード」は、都市の内部における主要な地点である。ユーザは、「ノード」の中にはいることができるとともに、「ノード」に向かったり、「ノード」から出発したりすることができる。
「ランドマーク」は、ユーザが外部から視認する物であり、例えば、建物、看板、商店、山等、単純に定義される物である。「ランドマーク」は、ユーザが内部に入らずに、外部から視認する物である。
位相関連情報としては、さまざまな態様が考えられる。以下、位相関連情報の例について説明する。
図7は、位相関連情報の一例について説明するための図である。図7に示す位相関連情報は、特定部132が特定した位相を示す画像情報を重畳した地図情報である位相マップである。図7においては、携帯端末2を装着したユーザが地図内の経路を歩行した間に取得された撮像画像データに基づいて特定部132が特定した位相が反映されている。濃く表示されている領域は開放感が強い位相であり、薄く表示されている領域は安定感が強い位相であることを示している。
まず、特定部132が、取得部131から取得した撮像画像データに基づいて、撮像画像データが生成された携帯端末2の位置ごとに、最も開放感が強い位相を10と数値化し、最も安定感が弱い位相を0と数値化して統計値を算出する。続いて、特定部132は、算出した統計値を、携帯端末2から取得した端末位置情報に関連付けて作成部133に入力する。続いて、作成部133が、端末位置情報に対応する領域の地図情報に、特定部132から取得した位相に対応する態様(例えば色又は模様)の画像を重畳して位相マップを生成する。このようにして、出力部134は、視認対象物に関連付けられた情報を含む地図情報に、特定部132が特定した位相を示す画像を重畳した地図情報である位相マップを出力する。
なお、作成部133は、多数のユーザが携帯端末2を装着して得られた撮像画像データ及び視線位置情報に基づいて特定された多数の位相の統計値に基づいて、位相マップを作成してもよい。このような位相マップを用いることで、建築家、都市計画家、インテリアデザイナー等が位相を把握することが可能になり、都市等の設計に役立てることができる。
上記の説明において、取得部131が、携帯端末2から出力された撮像画像データを取得する例について説明したが、取得部131は、他の装置から撮像画像データを取得してもよい。例えば、取得部131は、位置情報に関連付けられた撮像画像データを提供するサーバから撮像画像データを取得してもよい。この場合、特定部132は、視線位置情報に含まれている端末位置に基づいて、視線位置情報が生成された端末位置に対応する撮像画像データを選択し、選択した撮像データを用いて、位相を特定することができる。
上記において、作成部133が、視線位置情報として、視線の位置を示す座標を用いて位相マップを作成する場合について説明したが、視線位置情報として、視線が動く態様を示す視線動態情報を用いて位相マップを作成してもよい。具体的には、作成部133は、予め建物に囲まれた通りを、安定感が強い一点透視の位相とした位相推定マップを作成しておく。そして、作成部133は、ユーザが携帯端末2を装着して都市等を歩行する間に取得された視線動態情報に基づいて、ユーザが二点透視の開放感に対応する視線の挙動を示していると判定した場合に、視線動態情報が取得された位置の位相を開放感が強い位相に変更する。作成部133は、例えば、視線動態情報が、視線が大きく移動する挙動を示している場合に、開放感が強い位相であると判定する。このようにすることで、位相特定装置1は、視線の位置を示す座標情報を出力できない携帯端末2を用いる場合にも、位相マップを作成することができる。
上記において、特定部132は、撮像画像に含まれている視認対象物の特徴と視線位置情報とに基づいて、ユーザが視認対象物に対して抱く印象に関連付けられる視認対象物の位相を特定したが、これに限らない。例えば、脳波を検出するデバイスをユーザに装着して、ユーザの脳波を検出するようにし、携帯端末2の制御部26が、検出された脳波を示す脳波情報を取得する脳波取得部を備えるようにしてもよい。そして、特定部132が、撮像画像に含まれている視認対象物の特徴と、取得された脳波情報とに基づいて、ユーザが視認対象物に対して抱く印象に関連付けられる視認対象物の位相を特定するようにしてもよい。例えば、脳波の状態と、視線の位置の変化パターン(見回し、確認、注視)とを関連付けて記憶部12に記憶しておき、特定部132が、取得された脳波情報に基づいて脳波の状態を特定し、当該脳波の状態に関連する視線の位置の変化パターンを特定してもよい。そして、特定部132は、当該視線の位置の変化パターンに基づいて位相を特定するようにしてもよい。特定部132は、視線位置情報のみに基づいて、視線の位置の変化パターンを特定できない場合に、脳波情報を補助的に使用して、視線の位置の変化パターンを特定するようにしてもよい。
以上説明したように、第1の実施形態の位相特定装置1においては、特定部132が、撮像画像に含まれている視認対象物の特徴と視線位置とに基づいて、ユーザが視認対象物に対して抱く印象に関連付けられる視認対象物の位相を特定する。そして、出力部134が、視認対象物に関連付けられた都市等の地図に含まれる情報と、特定部132が特定した位相を示す位相情報とを関連付けて出力する。このようにすることで、建築家、都市計画家、インテリアデザイナー等が、都市等のどの場所がユーザによってどのように感じられるのかを的確に把握できるので、ユーザが感じることを都市等の設計に活かすことができる。その結果、ユーザが建築物や都市の設計に能動的に関わることが可能になる。
第1の実施形態においては、携帯端末2において生成された端末位置情報、撮像画像データ及び視線位置情報に基づいて、位相特定装置1が位相関連情報を生成した。これに対して、第2の実施形態においては、携帯端末3が、端末位置情報、撮像画像データ及び視線位置情報を生成するとともに、位相を特定するという点で第1の実施形態と異なる。携帯端末3は、第1の実施形態における位相特定装置1が有する機能の一部を有するという点で、位相特定装置の一種でもある。
以上の説明においては、作成部266が、ユーザが携帯端末3を携帯して歩行中に撮影して生成された撮像画像に案内情報を重畳して画像情報を作成する場合について説明した。しかし、作成部266は、取得部264が外部の装置から取得した、携帯端末3の位置に対応する撮像画像に、特定部265が特定した位相又は位相把握傾向に適した案内情報を重畳して画像情報を作成してもよい。
作成部266は、案内情報として、特定部265が特定したユーザが把握している位相の種別を示す情報を、撮像画像に重畳してもよい。例えば、作成部266は、画面の右下の領域に、一点透視を示すアイコン画像又は二点透視を示すアイコン画像を重畳する。このようにすることで、自らの位相把握傾向を認識することができる。携帯端末3は、このようにしてユーザが認識した自身の位相把握傾向をユーザに設定させ、設定された位相把握傾向を記憶部25に記憶させておいてもよい。作成部266は、記憶部25に記憶された位相把握傾向を用いて、ユーザに適した案内情報を選択することにより、特定部265がリアルタイムで特定した位相を用いることなく、画像情報を作成することができる。
上記の説明において、特定部265は、撮像画像取得部262が取得した撮像画像を地図画像として使用したが、地図画像は撮像画像に限らない。地図画像は、被写体を撮影することにより作成された撮像画像ではなく、コンピュータや人により作成された画像であってもよい。
従来、携帯端末に経路を案内する情報を表示する技術は多数知られている(例えば、特開2016−008894号公報)。しかしながら、ユーザの位相把握傾向の違いが考慮されていなかったので、ユーザによっては、案内情報をわかりにくいと感じることがあった。これに対して第2の実施形態の携帯端末2においては、都市等の地図画像(撮像画像を含む)に、ユーザが視認対象物の位相を把握する傾向に基づいて選択された案内情報を重畳して携帯端末2の画面に表示させることができる。このようにすることで、ユーザの位相把握傾向に適した案内情報をユーザに提示することができるので、ユーザが道に迷いにくい案内をすることが可能になる。
第1の実施形態及び第2の実施形態においては、位相特定装置が、ユーザが認識した位相に対応する情報を画像情報に重畳して出力したが、第3の実施形態においては、位相特定装置が、ユーザが認識した位相に基づいて、電子機器を制御するための情報を出力するという点で、第1の実施形態及び第2の実施形態と異なる。
以上説明したように、第3の実施形態の携帯端末3は、ユーザが歩行中に把握した位相に応じて、歩行先の場所に設置されている電子機器を制御することができる。このようにすることで、従来は、ユーザが電子機器を操作する必要があったところ、ユーザが操作をすることなく、ユーザが抱く感情に適するように電子機器を制御することができる。
続いて第4の実施形態について説明する。第1の実施形態では、主にユーザが建築物や都市の設計に能動的に関わり易くするために位相関連情報を生成したが、第4の実施形態では、ユーザが日々行動する範囲において、どのような印象を抱くのかをユーザに把握させることを目的として位相関連情報を生成する点で、第1の実施形態と異なる。
特定部132は、経路に対してユーザが抱く印象を特定すると、経路に対応する位置情報を示す経路情報と、ユーザが抱く印象を示す情報とを関連付けて記憶部12に記憶させる。ここで、経路情報は、例えば、経路に対応する複数の位置情報、又は複数の位置情報が示す位置を含む軌跡情報である。
以上説明したように、第4の実施形態の位相特定装置1は、複数の位置のそれぞれにおける視認対象物の位相に基づいて、複数の位置に対応する経路に対するユーザが抱く印象を特定し、当該経路を示す情報と、当該経路に対するユーザが抱く印象を示す情報とを関連付けて出力する。このようにすることで、ユーザに、日々行動する範囲に含まれる経路において、どのような印象を抱くのかをユーザに把握させることができる。
続いて第5の実施形態について説明する。第5の実施形態においては、ユーザが視認した視認対象物に基づいて、当該視認対象物の位相を特定したことに応じて、当該ユーザに課金する点で第1の実施形態及び第4の実施形態と異なる。
以上説明したように、第5の実施形態の位相特定装置1は、ユーザが視認した視認対象物の位相を特定部132が特定したり、経路を示す情報と、経路に対してユーザが抱く印象を示す情報とを関連付けて出力したりすると、当該ユーザに課金する。このようにすることで、位相特定装置1の管理者は、ユーザから、位相を特定するサービスの提供に対する対価を得ることができる。
(1)ユーザが携帯する携帯端末であって、経路及び建物の少なくとも一方を含む地図画像と、前記ユーザが前記地図画像に含まれている視認対象物の位相を把握する傾向を示す位相傾向情報を取得する取得部と、前記位相に基づいて選択された、前記地図画像に関する案内情報を前記地図画像に重畳して表示する表示部と、を有する携帯端末。
2 携帯端末
3 携帯端末
11 通信部
12 記憶部
13 制御部
21 位置検出部
22 外部撮像部
23 眼球位置検出部
24 通信部
25 記憶部
26 制御部
27 表示部
131 取得部
132 特定部
133 作成部
134 出力部
261 位置情報取得部
262 撮像画像取得部
263 視線位置取得部
264 取得部
265 特定部
266 作成部
267 出力部
Claims (12)
- ユーザが視認する視認対象物の形状を示す対象物情報と、前記ユーザが視認する視認領域における前記ユーザの視線の位置又は動きを示す視線位置情報とを取得する取得部と、
前記対象物情報に含まれている前記視認対象物の形状と、前記視線位置情報とに基づいて、前記ユーザが前記視認対象物に対して抱く印象に関連付けられる前記視認対象物の位相を特定する特定部と、
前記視認対象物に関連付けられた情報と、前記特定部が特定した前記位相を示す位相情報とを関連付けて出力する出力部と、
を有する位相特定装置。 - 前記特定部は、前記対象物情報に基づいて特定される構図の種類と、前記視線位置情報が示す視線の位置の変化のパターンとに基づいて、前記位相を特定する、
請求項1に記載の位相特定装置。 - 前記特定部は、前記対象物情報に基づいて一点透視の構図が特定される場合に、安定感がある印象を前記ユーザが抱いたことを示す前記位相を特定し、前記対象物情報に基づいて二点透視の構図が特定される場合に、開放感がある印象を前記ユーザが抱いたことを示す前記位相を特定する、
請求項2に記載の位相特定装置。 - 前記出力部は、前記視認対象物に関連付けられた情報を含む地図に、前記特定部が特定した前記位相を示す画像を重畳した地図情報を出力する、
請求項1から3のいずれか1項に記載の位相特定装置。 - 前記取得部は、前記対象物情報として、前記視認対象物を含む撮像画像を取得し、
前記出力部は、前記撮像画像内に、前記位相に対応する態様の経路案内画像を重畳した案内画像を出力する、
請求項1から3のいずれか1項に記載の位相特定装置。 - 前記出力部は、前記視認対象物を含む前記撮像画像を表示している画面内に前記位相を示す情報を表示させる、
請求項5に記載の位相特定装置。 - 前記特定部が前記視認対象物の位相を特定すると、前記ユーザに課金する課金部をさらに備える、
請求項1から6のいずれか1項に記載の位相特定装置。 - 前記特定部は、複数の位置のそれぞれにおける前記視認対象物の位相に基づいて、複数の位置に対応する経路に対してユーザが抱く印象を特定し、
前記出力部は、前記経路を示す情報と、前記経路に対するユーザが抱く印象を示す情報とを出力する、
請求項1から7のいずれか1項に記載の位相特定装置。 - 前記特定部は、前記経路を示す情報と、前記経路に対するユーザが抱く印象を示す情報とを関連付けて記憶部に記憶させ、
前記出力部は、ユーザから地点の指定を受け付け、指定された地点に対応する前記経路を示す情報と、前記経路に対してユーザが抱く印象を示す情報とを出力する、
請求項8に記載の位相特定装置。 - ユーザが視認する視認対象物を含む撮像領域を撮像した撮像画像を撮像する撮像部と、
前記撮像領域における前記ユーザの視線の位置又は動きを示す視線位置情報を取得する取得部と、
前記撮像画像に含まれている前記視認対象物の特徴と、前記視線位置情報との関係に基づいて、前記ユーザが前記視認対象物に対して抱いた印象に関連付けられる前記視認対象物の位相を特定する特定部と、
前記ユーザが前記視認対象物を視認している間に、前記特定部が特定した前記位相を示す位相情報を表示部に表示させる出力部と、
を有する携帯端末。 - コンピュータが実行する、
ユーザが視認する視認対象物の形状を示す対象物情報と、前記ユーザが視認する視認領域における前記ユーザの視線の位置又は動きを示す視線位置情報とを取得するステップと、
前記対象物情報に含まれている前記視認対象物の形状と、前記視線位置情報とに基づいて、前記ユーザが前記視認対象物に対して抱いた印象に関連付けられる前記視認対象物の位相を特定するステップと、
前記視認対象物に関連付けられた情報と、特定した前記位相を示す位相情報とを関連付けて出力するステップと、
を有する位相特定方法。 - コンピュータに、
ユーザが視認する視認対象物の形状を示す対象物情報と、前記ユーザが視認する視認領域における前記ユーザの視線の位置又は動きを示す視線位置情報とを取得するステップと、
前記対象物情報に含まれている前記視認対象物の形状と、前記視線位置情報とに基づいて、前記ユーザが前記視認対象物に対して抱いた印象に関連付けられる前記視認対象物の位相を特定するステップと、
前記視認対象物に関連付けられた情報と、特定した前記位相を示す位相情報とを関連付けて出力するステップと、
を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/058397 WO2017158776A1 (ja) | 2016-03-16 | 2016-03-16 | 位相特定装置、携帯端末、位相特定方法及びプログラム |
WOPCT/JP2016/058397 | 2016-03-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167501A true JP2017167501A (ja) | 2017-09-21 |
JP6849895B2 JP6849895B2 (ja) | 2021-03-31 |
Family
ID=59850266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016114617A Active JP6849895B2 (ja) | 2016-03-16 | 2016-06-08 | 位相特定装置、携帯端末、位相特定方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10872447B2 (ja) |
JP (1) | JP6849895B2 (ja) |
WO (1) | WO2017158776A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057215A (ja) * | 2017-09-22 | 2019-04-11 | 株式会社竹中工務店 | 開放感評価装置 |
JP7479735B2 (ja) | 2018-08-09 | 2024-05-09 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08161399A (ja) | 1994-12-05 | 1996-06-21 | Takenaka Komuten Co Ltd | 環境評価装置 |
JP5654962B2 (ja) * | 2011-08-19 | 2015-01-14 | 日本放送協会 | 視線位置推定装置及び視線位置推定プログラム |
JP6359253B2 (ja) * | 2013-08-27 | 2018-07-18 | 株式会社ジオクリエイツ | 感情抽出方法、感情抽出プログラム、感情抽出装置、及び建築物設計方法 |
JP6228516B2 (ja) | 2014-06-25 | 2017-11-08 | 株式会社Screenホールディングス | 経路案内装置、経路案内方法、および経路案内プログラム |
-
2016
- 2016-03-16 WO PCT/JP2016/058397 patent/WO2017158776A1/ja active Application Filing
- 2016-06-08 JP JP2016114617A patent/JP6849895B2/ja active Active
-
2018
- 2018-09-14 US US16/131,059 patent/US10872447B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057215A (ja) * | 2017-09-22 | 2019-04-11 | 株式会社竹中工務店 | 開放感評価装置 |
JP7479735B2 (ja) | 2018-08-09 | 2024-05-09 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6849895B2 (ja) | 2021-03-31 |
US10872447B2 (en) | 2020-12-22 |
WO2017158776A1 (ja) | 2017-09-21 |
US20190096108A1 (en) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Schrom-Feiertag et al. | Evaluation of indoor guidance systems using eye tracking in an immersive virtual environment | |
JP7133470B2 (ja) | ネットワークの拡張現実表現のためのシステムおよび方法 | |
JP6898165B2 (ja) | 人流分析方法、人流分析装置及び人流分析システム | |
JP6741009B2 (ja) | 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム | |
US20180232942A1 (en) | Method for Representing Virtual Information in a Real Environment | |
Möller et al. | A mobile indoor navigation system interface adapted to vision-based localization | |
Al-Khalifa et al. | Ebsar: Indoor guidance for the visually impaired | |
Winkler et al. | Pervasive information through constant personal projection: the ambient mobile pervasive display (AMP-D) | |
JP7364740B2 (ja) | 映像表示装置 | |
KR101601805B1 (ko) | 스토리 기반 가상 체험 학습을 위한 혼합 현실 콘텐츠 제공 장치 및 방법 | |
US20200257121A1 (en) | Information processing method, information processing terminal, and computer-readable non-transitory storage medium storing program | |
CN106415671A (zh) | 用于呈现与真实对象相关的数字信息的方法和系统 | |
CN106255939A (zh) | 世界锁定显示质量反馈 | |
CN106255943A (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
KR20110071210A (ko) | 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법 | |
US9672588B1 (en) | Approaches for customizing map views | |
US20210350628A1 (en) | Program, information processing method, and information processing terminal | |
Lander et al. | Inferring landmarks for pedestrian navigation from mobile eye-tracking data and Google Street View | |
JP2022547701A (ja) | 方向づけ援助システム | |
US10872447B2 (en) | Topology specifying method, topology specifying apparatus and non-transitory computer-readable storage medium | |
CN118103799A (zh) | 与远程设备的用户交互 | |
JP7479735B2 (ja) | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム | |
CN112396997A (zh) | 一种光影沙盘智能交互系统 | |
JP6487545B2 (ja) | 認知度算出装置、認知度算出方法及び認知度算出プログラム | |
US20180293796A1 (en) | Method and device for guiding a user to a virtual object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160610 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6849895 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |