JP2013012024A - Information processing system, portable electronic apparatus, program and information storage medium - Google Patents

Information processing system, portable electronic apparatus, program and information storage medium Download PDF

Info

Publication number
JP2013012024A
JP2013012024A JP2011144103A JP2011144103A JP2013012024A JP 2013012024 A JP2013012024 A JP 2013012024A JP 2011144103 A JP2011144103 A JP 2011144103A JP 2011144103 A JP2011144103 A JP 2011144103A JP 2013012024 A JP2013012024 A JP 2013012024A
Authority
JP
Japan
Prior art keywords
information
user
presentation target
orientation
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011144103A
Other languages
Japanese (ja)
Other versions
JP5800602B2 (en
Inventor
Yoichi Iba
陽一 井場
Isato Fujigaki
勇人 藤垣
Seiji Tatsuta
成示 龍田
Ryohei Sugihara
良平 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011144103A priority Critical patent/JP5800602B2/en
Publication of JP2013012024A publication Critical patent/JP2013012024A/en
Application granted granted Critical
Publication of JP5800602B2 publication Critical patent/JP5800602B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing system capable of specifying data for content presentation that is matched with a user's interest on the basis of position information, head azimuth information, and body azimuth information of the user.SOLUTION: An information processing system 100 includes: a processing unit 110 for specifying a content presentation object; a data for presentation specification unit 120 for specifying data for content presentation that is used for presenting the content by using a head-mounted display; and a storage unit 130 for storing map information and facility information. The processing unit 110 specifies position information, head azimuth information, and body azimuth information of a user on the basis of sensor information acquired from a sensor that is installed on at least one of a wearable sensor and a portable electronic apparatus 20 and specifies the content presentation object on the basis of the information. The data for presentation specification unit 120 specifies the data for content presentation that is corresponding to the content presentation object.

Description

本発明は、情報処理システム、携帯電子機器、プログラム及び情報記憶媒体等に関係する。   The present invention relates to an information processing system, a portable electronic device, a program, an information storage medium, and the like.

近年、携帯電話やPDA(Personal Digital Assistant)等の携帯電子機器を用いて、タウン情報やマップ情報を提供するサービスが展開されている。具体的には、ナビゲーションサービスや店舗情報の提供サービス等が挙げられる。例えば、店舗情報提供サービスにおいては、ユーザの現在位置をGPS(Global Position System)等の手段を用いて取得したり、ユーザに検索対象位置を入力させた上で、携帯電子機器の画面に表示された地図上に、レストラン等の施設の位置を表示する。   In recent years, services that provide town information and map information using mobile electronic devices such as mobile phones and PDAs (Personal Digital Assistants) have been developed. Specifically, a navigation service, a service for providing store information, and the like can be given. For example, in the store information providing service, the current position of the user is acquired using means such as GPS (Global Position System), or the search target position is input by the user and displayed on the screen of the portable electronic device. The location of a facility such as a restaurant is displayed on the map.

しかし、上記の情報提供サービスには、地図を読むのが苦手なユーザにとっては分かりにくいという第1の問題点があった。さらに、上記の情報提供サービスには、利用時にユーザの視点(視線方向)が頻繁に上下してしまい、煩わしさを感じるという第2の問題点があった。   However, the information providing service has a first problem that it is difficult to understand for a user who is not good at reading a map. Furthermore, the information providing service has a second problem that the user's viewpoint (the direction of the line of sight) frequently fluctuates during use, which causes annoyance.

特許文献1では、携帯電子機器に内蔵される方位センサからの情報に基づいて、携帯電子機器を用いて撮像した撮像画像が映す空間に対応する電子情報を、撮像画像に重畳して表示する装置が提案されている。これにより、上記の第1の問題点の解決を図っている。   In Patent Document 1, an apparatus that superimposes and displays on a captured image electronic information corresponding to a space in which a captured image captured using the mobile electronic device is projected based on information from an orientation sensor built in the mobile electronic device. Has been proposed. As a result, the above first problem is solved.

さらに、特許文献2では、HMD(Head Mounted Display)に内蔵される方位センサを用いることにより、ユーザの移動状態と顔方位を取得し、頭部の向いている方向の前方にある施設情報をデータベースから取得し、HMDに施設情報を表示する技術が開示されている。これにより、上記の第2の問題点の解決を図っている。   Furthermore, in patent document 2, the moving state and face orientation of a user are acquired by using a direction sensor built in an HMD (Head Mounted Display), and the facility information ahead of the direction in which the head is facing is stored in a database. And a technique for displaying facility information on the HMD is disclosed. As a result, the above second problem is solved.

特開2008−71298号公報JP 2008-71298 A 特開2010−97472号公報JP 2010-97472 A

特許文献1において提案されている発明では、ユーザが欲しい情報を取得するためには、携帯電子機器を手で持ち、携帯電子機器をかざす方向を変更する必要がある。手に荷物を持つなど、手が塞がっている場合には勿論、手に荷物を持っていない場合でも、携帯電子機器を手でかざしそれを左右に動かしながら歩行するのは煩わしく、他の歩行者にも迷惑であるという課題がある。   In the invention proposed in Patent Document 1, in order to acquire information desired by the user, it is necessary to hold the portable electronic device by hand and change the direction in which the portable electronic device is held. Even if your hand is closed, such as when you have a baggage in your hand, even if you do not have your baggage in your hand, it is cumbersome to walk while holding the portable electronic device with your hand and moving it left and right, other pedestrians There is also the problem of being annoying.

特許文献2において提案されている発明を用いれば表示装置を手で保持しなくて良いが、施設情報の検索・取得手段の技術が開示されておらず、ユーザが関心のある施設情報を的確に取得することができない。   If the invention proposed in Patent Document 2 is used, the display device does not have to be held by hand, but the technology of facility information retrieval / acquisition means is not disclosed, and the facility information that the user is interested in is accurately identified. I can't get it.

本発明の幾つかの態様によれば、ユーザの位置情報と頭部方位情報と体方位情報とに基づいて、ユーザの関心に合致したコンテンツ提示用データを特定することができる情報処理システム、携帯電子機器、プログラム及び情報記憶媒体等を提供できる。   According to some aspects of the present invention, an information processing system capable of specifying content presentation data that matches a user's interest based on the user's position information, head direction information, and body direction information Electronic devices, programs, information storage media, and the like can be provided.

本発明の一態様は、コンテンツ提示対象を特定する処理部と、ヘッドマウントディスプレイを用いてコンテンツを提示するために用いるコンテンツ提示用データを特定する提示用データ特定部と、マップ情報と、前記マップ情報に関連付けられた施設の情報である施設情報とを記憶する記憶部と、を含み、前記処理部は、ウェアラブルセンサ及び携帯電子機器の少なくとも一方に設けられたセンサから取得されたセンサ情報に基づいて、前記ユーザの位置情報と、前記ユーザの頭部方位を表す頭部方位情報と、前記ユーザの体方位を表す体方位情報とを特定し、前記ユーザの前記位置情報と前記頭部方位情報と前記体方位情報とに基づき、前記コンテンツ提示対象を特定し、前記提示用データ特定部は、特定された前記コンテンツ提示対象に対応する前記コンテンツ提示用データを特定することを特徴とする情報処理システムに関係する。   One aspect of the present invention includes a processing unit that identifies a content presentation target, a presentation data identification unit that identifies content presentation data used to present content using a head-mounted display, map information, and the map A storage unit that stores facility information that is information on the facility associated with the information, and the processing unit is based on sensor information acquired from a sensor provided in at least one of the wearable sensor and the portable electronic device. The position information of the user, the head direction information indicating the head direction of the user, and the body direction information indicating the body direction of the user, and the position information and the head direction information of the user And the body orientation information, the content presentation target is specified, and the presentation data specifying unit determines the specified content presentation target. It relates to an information processing system, characterized by identifying the content presentation data to respond.

本発明の一態様では、センサ情報に基づいて、ユーザの位置情報と頭部方位情報と体方位情報とを特定し、これらの情報に基づき、コンテンツ提示対象を特定する。そして、特定されたコンテンツ提示対象についてのデータであって、ヘッドマウントディスプレイを用いてコンテンツを提示するために用いるデータであるコンテンツ提示用データを特定する。このようにして、ユーザの位置と頭部方位と体方位とを考慮したコンテンツ提示用データを特定すること等が可能となる。   In one aspect of the present invention, user position information, head direction information, and body direction information are specified based on sensor information, and a content presentation target is specified based on these pieces of information. And the data for content presentation which were specified, Comprising: The data for content presentation which is data used in order to show a content using a head mounted display are specified. In this way, it is possible to specify content presentation data in consideration of the user's position, head orientation, and body orientation.

また、本発明の一態様では、前記処理部は、前記頭部方位情報と前記体方位情報とに基づいて、前記頭部方位と前記体方位の差分角度を表す方位差情報を求め、前記方位差情報に基づいて前記コンテンツ提示対象を特定してもよい。   In one aspect of the present invention, the processing unit obtains azimuth difference information representing a difference angle between the head azimuth and the body azimuth based on the head azimuth information and the body azimuth information. The content presentation target may be specified based on the difference information.

これにより、差分角度に基づきコンテンツ提示対象を特定することが可能になるため、差分角度に応じたコンテンツ提示用データを特定すること等が可能となる。   Accordingly, it is possible to specify the content presentation target based on the difference angle, and thus it is possible to specify content presentation data according to the difference angle.

また、本発明の一態様では、前記処理部は、前記コンテンツ提示対象を特定するために用いる水平方向の提示対象特定角度を表す提示対象特定角度情報を、前記方位差情報に応じて決定し、前記頭部方位を含む方向に前記提示対象特定角度の角度範囲を設定し、前記角度範囲内に位置する施設の中から、前記コンテンツ提示対象を特定してもよい。   In one aspect of the present invention, the processing unit determines presentation target specific angle information representing a horizontal presentation target specific angle used for specifying the content presentation target according to the azimuth difference information, An angle range of the presentation target specifying angle may be set in a direction including the head direction, and the content presentation target may be specified from facilities located within the angle range.

これにより、差分角度に基づき提示対象特定角度情報を特定し、提示対象特定角度情報により表される提示対象特定角度からなる角度範囲を設定すること等が可能となる。そして、設定した角度範囲内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。   Thus, it is possible to specify the presentation target specific angle information based on the difference angle, and set an angle range including the presentation target specific angle represented by the presentation target specific angle information. Then, it is possible to specify a content presentation target from facilities located within the set angle range.

また、本発明の一態様では、前記処理部は、前記方位差情報により表される前記差分角度の絶対値が大きいほど、大きい前記提示対象特定角度を表す前記提示対象特定角度情報を特定してもよい。   Moreover, in one aspect of the present invention, the processing unit specifies the presentation target specific angle information representing the larger presentation target specific angle as the absolute value of the difference angle represented by the orientation difference information is larger. Also good.

これにより、ユーザが左右のどちらかを向いている時に、提示対象特定角度を一定にする場合に比べて、提示対象特定角度を大きく設定して、角度範囲を広げ、コンテンツ提示対象として特定される施設を増やすこと等が可能となる。   As a result, when the user is facing left or right, the presentation target specific angle is set larger than the case where the presentation target specific angle is made constant, and the angle range is widened and specified as the content presentation target. It is possible to increase the number of facilities.

また、本発明の一態様では、前記処理部は、前記頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、前記体方位の右側に前記頭部方位があると判断された場合には、前記左提示対象特定角度よりも前記右提示対象特定角度が大きくなるように前記角度範囲を設定してもよい。   Further, in one aspect of the present invention, the processing unit sets a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle with respect to the head orientation, When it is determined that the head orientation is on the right side of the body orientation, the angle range may be set so that the right presentation target specific angle is larger than the left presentation target specific angle.

これにより、ユーザが右を向いた時に、ユーザの右側に位置する施設がよりコンテンツ提示対象として特定されやすいように角度範囲を設定すること等が可能となる。   Thereby, when the user turns to the right, the angle range can be set so that the facility located on the right side of the user is more easily identified as the content presentation target.

また、本発明の一態様では、前記処理部は、前記頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、前記体方位の左側に前記頭部方位があると判断された場合には、前記右提示対象特定角度よりも前記左提示対象特定角度が大きくなるように前記角度範囲を設定してもよい。   Further, in one aspect of the present invention, the processing unit sets a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle with respect to the head orientation, When it is determined that the head orientation is on the left side of the body orientation, the angle range may be set so that the left presentation target specific angle is larger than the right presentation target specific angle.

これにより、ユーザが左を向いた時に、ユーザの左側に位置する施設がよりコンテンツ提示対象として特定されやすいように角度範囲を設定すること等が可能となる。   Thereby, when the user turns to the left, the angle range can be set so that the facility located on the left side of the user can be more easily identified as the content presentation target.

また、本発明の一態様では、前記処理部は、前記コンテンツ提示対象を特定するために用いる距離範囲の情報を、前記方位差情報に応じて決定し、設定された前記距離範囲内から、前記コンテンツ提示対象を特定してもよい。   In one aspect of the present invention, the processing unit determines distance range information used for specifying the content presentation target according to the azimuth difference information, and from within the set distance range, The content presentation target may be specified.

これにより、差分角度に基づき距離範囲を設定すること等が可能となる。そして、設定した距離範囲内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。   This makes it possible to set a distance range based on the difference angle. Then, it is possible to specify a content presentation target from facilities located within the set distance range.

また、本発明の一態様では、前記処理部は、前記方位差情報により表される前記差分角度の絶対値が大きいほど、距離が短い前記距離範囲を設定してもよい。   In the aspect of the invention, the processing unit may set the distance range in which the distance is shorter as the absolute value of the difference angle represented by the orientation difference information is larger.

これにより、ユーザが左右のどちらかを向いている時に比べて、ユーザが進行方向を向いている時に、距離範囲を広く設定して、ユーザから離れた位置に位置する施設をコンテンツ提示対象として特定すること等が可能となる。   As a result, when the user is facing the direction of travel compared to when the user is facing either the left or right, the distance range is set wider and the facility located at a position away from the user is specified as the content presentation target And so on.

また、本発明の一態様では、前記記憶部は、領域図形についての情報である領域図形情報を記憶し、前記処理部は、前記ユーザの位置と前記コンテンツ提示対象の位置が、前記ユーザの前記位置情報に基づいて設定された仮想マップに対して、前記頭部方位情報と前記体方位情報とに基づいて、前記領域図形情報により表される前記領域図形を配置設定し、配置設定された前記領域図形内に位置する施設の中から、前記コンテンツ提示対象を特定してもよい。   Moreover, in one aspect of the present invention, the storage unit stores area graphic information that is information about an area graphic, and the processing unit is configured so that the position of the user and the position of the content presentation target are the user's position. For the virtual map set based on the position information, the area graphic represented by the area graphic information is arranged and set based on the head direction information and the body direction information, and the arrangement set The content presentation target may be specified from facilities located in the area graphic.

これにより、領域図形内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。したがって、記憶する領域図形を変更することにより、コンテンツ提示対象を特定するための範囲を任意に変更すること等が可能となる。   This makes it possible to specify a content presentation target from facilities located within the area graphic. Therefore, it is possible to arbitrarily change the range for specifying the content presentation target by changing the area graphic to be stored.

また、本発明の一態様では、前記処理部は、前記領域図形内に複数のポイントを設定し、前記複数のポイントのうち、少なくとも2つのポイントが前記頭部方位の延長線に重なるように、前記領域図形を配置設定してもよい。   In one aspect of the present invention, the processing unit sets a plurality of points in the area graphic, and at least two of the plurality of points overlap an extension line of the head orientation. The area graphic may be arranged and set.

これにより、仮想マップ内で、領域図形を任意の向きに配置設定すること等が可能になる。   Thereby, it becomes possible to arrange and set the area graphic in an arbitrary direction in the virtual map.

また、本発明の一態様では、前記記憶部は、前記領域図形情報として、形状及びサイズのうち少なくとも一つが異なる複数の領域図形についての情報を記憶し、前記処理部は、前記頭部方位情報と前記体方位情報とに基づいて、前記頭部方位と前記体方位の方位差情報を求め、前記方位差情報に基づいて、前記複数の領域図形から使用する前記領域図形である使用領域図形を特定し、前記使用領域図形を前記仮想マップ上に配置設定して、前記コンテンツ提示対象を特定してもよい。   In one aspect of the present invention, the storage unit stores, as the region graphic information, information about a plurality of region graphics having at least one of shape and size, and the processing unit stores the head orientation information. Based on the heading information and the heading direction, the heading heading and the heading direction difference information is obtained, and based on the heading difference information, the used area figure that is the area figure to be used from the plurality of area figures. The content presentation target may be specified by specifying and arranging the use area graphic on the virtual map.

これにより、差分角度に応じて、使用領域図形を変更すること等が可能になる。   Thereby, it becomes possible to change a use area figure according to a difference angle.

また、本発明の一態様では、前記処理部は、前記頭部方位に平行な基準線を設定し、前記頭部方位と前記体方位が一致する場合には、前記複数の領域図形の中から前記基準線に対して線対称な前記領域図形を前記使用領域図形として特定し、前記頭部方位と前記体方位が一致しない場合には、前記複数の領域図形の中から前記基準線に対して非線対称な前記領域図形を前記使用領域図形として特定してもよい。   In one aspect of the present invention, the processing unit sets a reference line parallel to the head orientation, and when the head orientation and the body orientation coincide with each other, the plurality of area figures are selected. When the area figure that is line-symmetric with respect to the reference line is specified as the use area figure and the head direction and the body direction do not match, the area figure is selected from the plurality of area figures with respect to the reference line. The non-axisymmetric area graphic may be specified as the use area graphic.

これにより、ユーザの頭部方位情報と体方位情報とに基づいて、使用領域図形を変更すること等が可能となる。   Thereby, based on the user's head direction information and body direction information, it is possible to change the use area graphic.

また、本発明の一態様では、前記処理部は、前記頭部方位が前記体方位の右側にある場合には、前記頭部方位に対して右側の領域の面積が大きくなるように、前記領域図形を前記仮想マップ上に配置設定して、前記頭部方位が前記体方位の左側にある場合には、前記頭部方位に対して左側の領域の面積が大きくなるように、前記領域図形を前記仮想マップ上に配置設定してもよい。   In the aspect of the invention, the processing unit may be configured so that when the head orientation is on the right side of the body orientation, the area on the right side with respect to the head orientation is increased. When a figure is placed on the virtual map and the head orientation is on the left side of the body orientation, the area figure is set so that the area of the left area is larger than the head orientation. The arrangement may be set on the virtual map.

これにより、頭部方位と体方位が一致していない場合に、非線対称な領域図形を使用領域図形として特定し、ユーザが右を向いた時に、ユーザの右側に位置する施設がよりコンテンツ提示対象として特定されやすいように、領域図形を配置設定すること等が可能となる。   As a result, when the head orientation and body orientation do not match, a non-axisymmetric area figure is identified as the use area figure, and when the user turns to the right, the facility located on the right side of the user presents more content An area figure can be arranged and set so that it can be easily identified as a target.

また、本発明の一態様では、前記処理部は、前記仮想マップ上において、前記方位差情報により表される前記差分角度の絶対値が大きいほど、前記ユーザの位置から前記領域図形の最遠端部までの距離が短くなるように前記領域図形を配置設定してもよい。   In the aspect of the invention, the processing unit may be arranged such that, on the virtual map, the farthest end of the area graphic from the position of the user as the absolute value of the difference angle represented by the orientation difference information increases. The area graphic may be arranged and set so that the distance to the part is shortened.

これにより、ユーザが左右のどちらかを向いている時に比べて、ユーザが進行方向を向いている時に、ユーザから離れた位置を含むように領域図形を配置設定すること等が可能となる。   Accordingly, it is possible to arrange and set the area graphic so as to include a position away from the user when the user is facing the traveling direction as compared to when the user is facing either the left or right.

また、本発明の一態様では、前記記憶部は、複数のサブ領域により構成される前記領域図形についての情報を含む前記領域図形情報と共に、前記サブ領域毎に設定された詳細度を記憶し、前記処理部は、前記仮想マップにおいて、前記複数のサブ領域により構成される前記領域図形を配置設定し、配置設定された前記領域図形内に位置する施設の中から、前記コンテンツ提示対象を特定し、前記提示用データ特定部は、特定された前記コンテンツ提示対象が属する前記サブ領域に割り当てられた前記詳細度に基づいて、前記コンテンツ提示用データを特定してもよい。   Moreover, in one aspect of the present invention, the storage unit stores the degree of detail set for each sub-region together with the region graphic information including information about the region graphic formed by a plurality of sub-regions, The processing unit arranges and sets the area graphic composed of the plurality of sub-areas in the virtual map, and specifies the content presentation target from facilities located in the area graphic set. The presentation data specifying unit may specify the content presentation data based on the level of detail assigned to the sub-region to which the specified content presentation target belongs.

これにより、領域図形内に含まれるコンテンツ提示対象の位置によって詳細度の異なるコンテンツ提示用データを特定すること等が可能になる。   This makes it possible to specify content presentation data having different levels of detail depending on the position of the content presentation target included in the area graphic.

また、本発明の一態様では、前記処理部は、前記ユーザの前記位置情報の履歴に基づいて、前記ユーザの前記体方位情報を求めてもよい。   In the aspect of the invention, the processing unit may obtain the body orientation information of the user based on a history of the position information of the user.

これにより、ユーザの位置情報の履歴に基づいて、体方位情報を求めること等が可能になり、体方位を検出するためのみに用いられる方位センサ等を設ける必要がなくなる。   This makes it possible to obtain body orientation information based on the user's position information history, and eliminates the need to provide an orientation sensor or the like used only for detecting the body orientation.

また、本発明の一態様では、前記処理部は、前記ウェアラブルセンサ又は前記携帯電子機器に設けられた第1の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記体方位情報を求めてもよい。   In one aspect of the present invention, the processing unit obtains the body orientation information of the user based on the sensor information acquired from a first magnetic compass provided in the wearable sensor or the portable electronic device. You may ask for it.

これにより、ウェアラブルセンサ又は携帯電子機器に設けられた第1の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの体方位情報を求めること等が可能になる。   Accordingly, it is possible to obtain the body orientation information of the user based on the sensor information acquired from the first magnetic compass provided in the wearable sensor or the portable electronic device.

また、本発明の一態様では、前記処理部は、前記ユーザの頭部に装着する前記ウェアラブルセンサに設けられた第2の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記頭部方位情報を求めてもよい。   Moreover, in one aspect of the present invention, the processing unit is configured such that the head of the user is based on the sensor information acquired from a second magnetic compass provided in the wearable sensor attached to the head of the user. The orientation information may be obtained.

これにより、ユーザの頭部に装着するウェアラブルセンサに設けられた第2の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの頭部方位情報を求めること等が可能になる。   Accordingly, it is possible to obtain the user's head orientation information based on the sensor information acquired from the second magnetic compass provided in the wearable sensor that is worn on the user's head.

また、本発明の一態様では、前記処理部は、前記ユーザの頭部に装着する前記ウェアラブルセンサに設けられた第2の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記頭部方位情報を求め、前記頭部方位情報に基づいて前記体方位情報の補正処理を行ってもよい。   Moreover, in one aspect of the present invention, the processing unit is configured such that the head of the user is based on the sensor information acquired from a second magnetic compass provided in the wearable sensor attached to the head of the user. The body orientation information may be obtained, and the body orientation information may be corrected based on the head orientation information.

これにより、ウェアラブルセンサ等により検出された体方位情報が誤っている場合においても、頭部方位情報によって体方位情報を補正し、体方位情報の誤差を抑圧して、コンテンツ提示用データを特定すること等が可能となる。   As a result, even when the body orientation information detected by the wearable sensor or the like is incorrect, the body orientation information is corrected by the head orientation information, the error of the body orientation information is suppressed, and the content presentation data is specified. It becomes possible.

また、本発明の一態様では、前記処理部は、前記頭部方位情報の履歴に基づいて、前記体方位情報の補正処理を行ってもよい。   In the aspect of the invention, the processing unit may perform the correction processing of the body orientation information based on the history of the head orientation information.

これにより、体方位情報を補正するために、頭部方位情報の時系列データ等の履歴を用いること等が可能となる。   Accordingly, it is possible to use history such as time-series data of head orientation information in order to correct body orientation information.

また、本発明の一態様では、前記処理部は、前記体方位情報を前記頭部方位情報の移動平均値とする前記補正処理を行ってもよい。   In the aspect of the invention, the processing unit may perform the correction process using the body orientation information as a moving average value of the head orientation information.

これにより、体方位情報を頭部方位情報の移動平均値に近似すること等が可能になる。   This makes it possible to approximate body orientation information to a moving average value of head orientation information.

また、本発明の他の態様は、前記情報処理システム装置を含む携帯電子機器に関係する。   Another aspect of the present invention relates to a portable electronic device including the information processing system apparatus.

また、本発明の他の態様は、上記各部としてコンピューターを機能させるプログラム、又は該プログラムを記憶したコンピューター読み取り可能な情報記憶媒体に関係する。   Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

図1(A)、図1(B)は本実施形態のシステム構成例。FIG. 1A and FIG. 1B are system configuration examples of this embodiment. 施設とコンテンツ提示対象の説明図。Explanatory drawing of a facility and a content presentation object. 図3(A)、図3(B)はコンテンツの説明図。3A and 3B are explanatory diagrams of contents. 図4(A)、図4(B)は頭部方位と体方位と差分角度の説明図。4A and 4B are explanatory diagrams of head orientation, body orientation, and difference angle. 提示対象特定角度と角度範囲の説明図。Explanatory drawing of a presentation object specific angle and angle range. 図6(A)、図6(B)は差分角度に応じて提示対象特定角度を大きくする手法の説明図。6A and 6B are explanatory diagrams of a method for increasing the presentation target specific angle according to the difference angle. 図7(A)、図7(B)は右提示対象特定角度と左提示対象特定角度の説明図。7A and 7B are explanatory diagrams of the right presentation target specific angle and the left presentation target specific angle. 図8(A)、図8(B)は距離範囲の説明図。8A and 8B are explanatory diagrams of the distance range. 領域図形の説明図。Explanatory drawing of an area figure. ポイントに基づき領域図形を配置設定する手法の説明図。Explanatory drawing of the method of arrangement | positioning setting of an area | region figure based on a point. 図11(A)〜図11(C)は差分角度に応じて使用領域図形を変更する手法の説明図。FIG. 11A to FIG. 11C are explanatory diagrams of a method of changing the used area graphic in accordance with the difference angle. 図12(A)、図12(B)は線対称な領域図形と非線対称な領域図形の説明図。FIG. 12A and FIG. 12B are explanatory diagrams of a line symmetric area graphic and a line symmetric area graphic. 領域図形の最遠端部の説明図。Explanatory drawing of the farthest end part of an area figure. サブ領域と詳細度の説明図。Explanatory drawing of a sub area | region and a detail level. 位置情報の履歴から体方位情報を求める手法の説明図。Explanatory drawing of the method of calculating | requiring body orientation information from the log | history of position information. 角度範囲と距離範囲を用いてコンテンツ提示用データを特定する処理を説明するフローチャート。The flowchart explaining the process which specifies the data for content presentation using an angle range and a distance range. 領域図形を用いてコンテンツ提示用データを特定する処理を説明するフローチャート。The flowchart explaining the process which specifies the data for content presentation using an area | region figure.

以下、本実施形態について説明する。まず、本実施形態のシステム構成例を説明し、次に本実施形態の特徴について説明する。そして最後に、フローチャートを用いて本実施形態の処理の流れについて説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. First, a system configuration example of the present embodiment will be described, and then features of the present embodiment will be described. Finally, the flow of processing of this embodiment will be described using a flowchart. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.システム構成例
まず図1(A)に、ユーザ10が本実施形態の情報処理システムを利用している様子を示す。図1(A)においてユーザ10は携帯電子機器20を所持している。また、HMD11を頭部の一方の目の近傍に装着している。さらにウェアラブルセンサとして種々のセンサを身につけている。具体的には、屋内外センサ510や、周辺温度センサ511、腕装着型の脈拍(心拍数)センサ521、携帯電子機器20に設けられるGPSセンサ550や加速度センサ551、HMD11に設けられる方位センサ560等を装着している。
1. System Configuration Example First, FIG. 1A shows a state in which the user 10 uses the information processing system of this embodiment. In FIG. 1A, the user 10 has a portable electronic device 20. Further, the HMD 11 is mounted in the vicinity of one eye of the head. Furthermore, various sensors are worn as wearable sensors. Specifically, the indoor / outdoor sensor 510, the ambient temperature sensor 511, the arm-mounted pulse (heart rate) sensor 521, the GPS sensor 550 provided in the portable electronic device 20, the acceleration sensor 551, and the direction sensor 560 provided in the HMD 11. Etc. are attached.

携帯電子機器20(モバイルコンピュータ)は、PDA、ノート型PCなどの携帯情報端末であり、例えばプロセッサー(CPU)、メモリ、操作パネル、通信装置、或いはディスプレイ(サブディスプレイ)などを備える。この携帯電子機器20は、例えばセンサからのセンサ情報を収集する機能、収集したセンサ情報に基づいて演算処理を行う機能、演算結果に基づいて制御対象機器(HMD等)の制御(表示制御等)を行ったり、外部のデータベースから情報を取り込む機能、外部と通信を行う機能などを有することができる。なお、携帯電子機器20は、携帯電話、腕時計、或いはポータブルオーディオなどとして兼用される機器であってもよい。   The portable electronic device 20 (mobile computer) is a portable information terminal such as a PDA or a notebook PC, and includes, for example, a processor (CPU), a memory, an operation panel, a communication device, or a display (sub-display). The portable electronic device 20 has, for example, a function of collecting sensor information from sensors, a function of performing calculation processing based on the collected sensor information, and control (display control, etc.) of a control target device (HMD or the like) based on the calculation result. , A function of fetching information from an external database, a function of communicating with the outside, and the like. Note that the portable electronic device 20 may be a device that is also used as a mobile phone, a wristwatch, or a portable audio device.

HMD11(広義には情報提示部)は、ユーザの一方の眼の近傍に装着されると共にディスプレイ部の大きさが瞳孔の大きさよりも小さくなるように設定され、いわゆるシースルービューアの情報表示部として機能する。   The HMD 11 (information presentation unit in a broad sense) is mounted in the vicinity of one of the user's eyes and is set so that the size of the display unit is smaller than the size of the pupil, and functions as an information display unit of a so-called see-through viewer To do.

屋内外センサ510は、ユーザが屋内にいるのか屋外にいるのかを検知するセンサであり、例えば超音波を照射し、天井等により超音波が反射して戻ってくるまでの時間を計測する。但し、屋内外センサ510は、超音波方式に限らず、アクティブ光方式、パッシブ紫外線方式、パッシブ赤外線方式、パッシブ騒音方式のセンサであってもよい。   The indoor / outdoor sensor 510 is a sensor that detects whether the user is indoors or outdoors. For example, the user irradiates ultrasonic waves and measures the time until the ultrasonic waves are reflected back from the ceiling or the like. However, the indoor / outdoor sensor 510 is not limited to the ultrasonic method, and may be an active light method, passive ultraviolet method, passive infrared method, or passive noise method sensor.

周辺温度センサ511は、例えばサーミスタ、放射温度計、熱電対などを用いて外界温度を計測する。   The ambient temperature sensor 511 measures the external temperature using, for example, a thermistor, a radiation thermometer, a thermocouple, or the like.

脈拍(心拍数)センサ521は、手首又は指又は耳に装着し、例えば拍動に伴う血流の変化を赤外光の透過率や反射率の変化で計測する。   The pulse (heart rate) sensor 521 is attached to the wrist, finger, or ear, and measures, for example, changes in blood flow associated with pulsation by changes in infrared light transmittance and reflectance.

GPSセンサ550はユーザの位置(場所)を検知するセンサである。なおGPSセンサ550の代わりに携帯電話の位置情報サービスや周辺にある無線LANの位置情報を利用してもよい。   The GPS sensor 550 is a sensor that detects the position (location) of the user. Instead of the GPS sensor 550, a location information service of a mobile phone or location information of a wireless LAN in the vicinity may be used.

加速度センサ551は、例えば3軸の加速度情報を検知する。方位センサ560は、例えば地磁気センサ等であり、センサの向いている方位を角度(0°〜360°)で計測する。   The acceleration sensor 551 detects, for example, triaxial acceleration information. The azimuth sensor 560 is, for example, a geomagnetic sensor, and measures the azimuth in which the sensor is directed at an angle (0 ° to 360 °).

次に、図1(B)に本実施形態の情報処理システムの構成例を示す。情報処理システム100は、処理部110と、提示用データ特定部120と、記憶部130と、I/F部140と、を含む。情報処理システム100は、図1(B)の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。なお、本実施形態の情報処理システム100の一部又は全部の機能は、例えば携帯電子機器20により実現される。但し、情報処理システム100の一部又は全部の機能を、HMD11により実現したり、携帯電子機器20とは異なる電子機器により実現してもよい。また、本実施形態の情報処理システム100の一部又は全部の機能は、携帯電子機器20もしくはHMD11と通信により接続されたサーバ16により実現されてもよい。   Next, FIG. 1B shows a configuration example of the information processing system of this embodiment. The information processing system 100 includes a processing unit 110, a presentation data specifying unit 120, a storage unit 130, and an I / F unit 140. The information processing system 100 is not limited to the configuration of FIG. 1B, and various modifications such as omitting some of these components or adding other components are possible. Note that some or all of the functions of the information processing system 100 of the present embodiment are realized by the portable electronic device 20, for example. However, part or all of the functions of the information processing system 100 may be realized by the HMD 11 or an electronic device different from the portable electronic device 20. In addition, some or all of the functions of the information processing system 100 according to the present embodiment may be realized by the server 16 connected to the portable electronic device 20 or the HMD 11 by communication.

次に各部の接続について説明する。処理部110と提示用データ特定部120と記憶部130とI/F部140は、情報処理システム100内のバスにより、それぞれ相互に接続されている。さらに、処理部110と提示用データ特定部120と記憶部130は、I/F部140を経由して、情報処理システム100の外部にあるセンサ12と操作部14とサーバ16と提示部18とに接続されている。   Next, the connection of each part is demonstrated. The processing unit 110, the presentation data specifying unit 120, the storage unit 130, and the I / F unit 140 are connected to each other via a bus in the information processing system 100. Further, the processing unit 110, the presentation data specifying unit 120, and the storage unit 130 are connected to the sensor 12, the operation unit 14, the server 16, and the presentation unit 18 that are external to the information processing system 100 via the I / F unit 140. It is connected to the.

次に情報処理システム100の内部に設けられた各部で行われる処理について説明する。   Next, processing performed in each unit provided in the information processing system 100 will be described.

処理部110は、記憶部130からのデータや、I/F部140において受信したセンサ12或いは操作部14、サーバ16からの情報等に基づいて種々の処理を行う。この処理部110の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   The processing unit 110 performs various processes based on data from the storage unit 130, information received from the sensor 12 or the operation unit 14, the server 16, and the like received by the I / F unit 140. The function of the processing unit 110 can be realized by hardware such as various processors (CPU or the like), ASIC (gate array or the like), a program, or the like.

さらに、処理部110は、コンテンツ提示対象特定部112と、方位差情報算出部114と、を含む。処理部110は図1(B)の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   Further, the processing unit 110 includes a content presentation target specifying unit 112 and an orientation difference information calculating unit 114. The processing unit 110 is not limited to the configuration shown in FIG. 1B, and various modifications such as omitting some of these components or adding other components are possible.

コンテンツ提示対象特定部112は、施設情報により表される施設の中からコンテンツ提示対象を特定する。方位差情報算出部114の動作については後述する。なお、ここではコンテンツ提示対象特定部112と方位差情報算出部114は、情報処理システム100の処理部110に設けられるものとしたが、これに限定されるものではない。コンテンツ提示対象特定部112と方位差情報算出部114は、サーバ16等に内蔵されてもよい。   The content presentation target specifying unit 112 specifies a content presentation target from the facilities represented by the facility information. The operation of the azimuth difference information calculation unit 114 will be described later. In addition, although the content presentation object specific | specification part 112 and the orientation difference information calculation part 114 shall be provided in the process part 110 of the information processing system 100 here, it is not limited to this. The content presentation target specifying unit 112 and the orientation difference information calculating unit 114 may be built in the server 16 or the like.

ここで、施設とは、ユーザが利用することができる建物や場所等を指す。具体的には、施設とは、店舗や駅、公民館、図書館などの建物や、遊園地、運動場、或いは公園などを指す。   Here, the facility refers to a building, a place, or the like that can be used by the user. Specifically, the facility refers to a building such as a store, a station, a public hall, a library, an amusement park, a playground, or a park.

また、施設情報とは、施設に関する情報であり、例えばマップ情報に関連付けられている情報のことをいう。例えば、施設情報は、施設の名称と施設の位置が関連付けられたひとまとまりのデータである。   The facility information is information about the facility, for example, information associated with the map information. For example, the facility information is a set of data in which the name of the facility and the position of the facility are associated with each other.

さらに、コンテンツ提示対象とは、コンテンツを提示する対象として特定された施設のこという。   Further, the content presentation target is a facility specified as a content presentation target.

具定例を図2に示す。図2においては、店A〜店Gが施設である。また、ユーザUSに対してコンテンツを提示する際のコンテンツ提示対象として、店A〜店Gの中から店Dと店Fが選択されている。   A specific example is shown in FIG. In FIG. 2, stores A to G are facilities. Also, store D and store F are selected from store A to store G as content presentation targets when the content is presented to the user US.

ここで、コンテンツとは、情報を伝達するための映像や画像、音楽、音声、文章、あるいはそれらの組み合わせたものいう。本実施形態において具体的にコンテンツとは、施設を示す映像や画像、文字、音声等を指す。また、各コンテンツには、個々のコンテンツを一意に識別できるようなコンテンツインデックスが割り振られている。   Here, content refers to video and images for transmitting information, music, audio, text, or a combination thereof. In the present embodiment, the content specifically refers to a video, an image, a character, a voice, or the like indicating a facility. Each content is assigned a content index that can uniquely identify each content.

具体例を図3(A)、図3(B)に示す。図3(A)では、ユーザがシースルー型のHMDを通して、外界視界GS1を見た際にHMDに表示される表示画面IMS1を示している。表示画面IMS1内には、店舗のアイコン画像IMCや店Xの位置を指し示す画像IMYが表示されているが、これらIMCやIMYの画像がコンテンツである。同様に、図3(B)には、外界視界GS2の上に表示画面IMS2が表示されており、IMS2上にはコンテンツとして、店Xの詳細情報IMDが表示されている。   Specific examples are shown in FIGS. 3A and 3B. FIG. 3A shows a display screen IMS1 displayed on the HMD when the user views the external field of view GS1 through the see-through HMD. In the display screen IMS1, the store icon image IMC and the image IMY indicating the position of the store X are displayed. These IMC and IMY images are contents. Similarly, in FIG. 3B, a display screen IMS2 is displayed on the external field of view GS2, and detailed information IMD of the store X is displayed on the IMS2 as content.

また、提示用データ特定部120は、コンテンツ提示用データを特定する。この提示用データ特定部120の機能は、処理部110と同様に各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。また、提示用データ特定部120の機能は、処理部110と同一のハードウェアにより実現されてもよい。   Further, the presentation data specifying unit 120 specifies content presentation data. The function of the presentation data specifying unit 120 can be realized by hardware such as various processors (CPU or the like), ASIC (gate array or the like), a program, and the like, like the processing unit 110. Further, the function of the presentation data specifying unit 120 may be realized by the same hardware as the processing unit 110.

コンテンツ提示用データとは、HMDを用いてコンテンツを提示するために用いる情報であり、コンテンツ提示対象に対応するコンテンツについての情報である。具体的には、コンテンツ提示用データは、例えば上述したコンテンツインデックスであったり、コンテンツを生成するための文字情報であったりする。なお、コンテンツ提示用データはコンテンツそのものであってもよい。   The content presentation data is information used for presenting content using the HMD, and is information about content corresponding to the content presentation target. Specifically, the content presentation data is, for example, the content index described above or character information for generating content. The content presentation data may be the content itself.

そして、記憶部130は、データベースを記憶したり、処理部110等のワーク領域となるもので、その機能はRAM等のメモリやHDD(ハードディスクドライブ)などにより実現できる。   The storage unit 130 stores a database and serves as a work area for the processing unit 110 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive).

最後に、I/F部140は、情報処理システム100に対し、センサ12や操作部14、サーバ16からの情報を受け付けるためのインターフェースである。また、提示用データ特定部120により取得されたコンテンツ提示用データをコンテンツ特定部13に出力するためのインターフェースでもある。   Finally, the I / F unit 140 is an interface for accepting information from the sensor 12, the operation unit 14, and the server 16 to the information processing system 100. Further, it is also an interface for outputting the content presentation data acquired by the presentation data identification unit 120 to the content identification unit 13.

次に情報処理システム100の外部に設けられた各部の説明を行う。   Next, each part provided outside the information processing system 100 will be described.

コンテンツ特定部13は、提示用データ特定部120により特定されたコンテンツ提示用データに基づき、コンテンツを生成し、提示部18に出力する。なお、コンテンツが外部の記憶装置に記憶されている場合には、外部記憶装置からコンテンツ提示用データに対応するコンテンツを読み出し、提示部18に出力する。さらに、コンテンツ提示用データがコンテンツそのものである場合には、特別な処理を加えずに、コンテンツ提示用データをコンテンツとして提示部18に出力する。また、コンテンツ特定部13は、サーバ16や提示部18内に設けられてもよい。   The content identification unit 13 generates content based on the content presentation data identified by the presentation data identification unit 120 and outputs the content to the presentation unit 18. If the content is stored in an external storage device, the content corresponding to the content presentation data is read from the external storage device and output to the presentation unit 18. Furthermore, when the content presentation data is the content itself, the content presentation data is output to the presentation unit 18 as content without any special processing. The content specifying unit 13 may be provided in the server 16 or the presentation unit 18.

また、センサ12は、ユーザ10が装着しているウェアラブルセンサ及び携帯電子機器20に設けられたセンサのうち、少なくとも一方のセンサである。また、センサ12は、図1(A)を用いて上述したGPSセンサ550や加速度センサ551等のセンサである。   The sensor 12 is at least one of a wearable sensor worn by the user 10 and a sensor provided in the portable electronic device 20. The sensor 12 is a sensor such as the GPS sensor 550 or the acceleration sensor 551 described above with reference to FIG.

また、操作部14は、例えばユーザが所持する携帯電子機器20に設けられるスイッチやボタン、キーボード或いはマウス等である。なお、操作部14はHMD11に設けられてもよい。   The operation unit 14 is, for example, a switch, button, keyboard, mouse, or the like provided in the portable electronic device 20 possessed by the user. Note that the operation unit 14 may be provided in the HMD 11.

さらに、サーバ16は、ネットワークによって情報処理システム100と接続されている。サーバ16は、マップ情報や施設情報、コンテンツ等を記憶していてもよい。さらに、上述したように、サーバ16がコンテンツを生成してもよい。   Further, the server 16 is connected to the information processing system 100 via a network. The server 16 may store map information, facility information, content, and the like. Furthermore, as described above, the server 16 may generate content.

そして、提示部18はHMD11に設けられる。提示部18は、表示部であってもよいし、音出力部であってもよい。   The presentation unit 18 is provided in the HMD 11. The presentation unit 18 may be a display unit or a sound output unit.

2.本実施形態の手法
以上の本実施形態では、コンテンツ提示対象を特定する処理部110と、ヘッドマウントディスプレイ11にコンテンツを提示するために用いるコンテンツ提示用データを特定する提示用データ特定部120と、マップ情報と、マップ情報に関連付けられた施設の情報である施設情報とを記憶する記憶部130と、を含む。そして、処理部110は、ウェアラブルセンサ及び携帯電子機器20の少なくとも一方に設けられたセンサから取得されたセンサ情報に基づいて、ユーザの位置情報と、ユーザの頭部方位を表す頭部方位情報と、ユーザの体方位を表す体方位情報とを特定し、ユーザの位置情報と頭部方位情報と体方位情報とに基づき、コンテンツ提示対象を特定する。さらに、提示用データ特定部120は、特定されたコンテンツ提示対象に対応するコンテンツ提示用データを特定する。
2. In the above embodiment, the processing unit 110 that identifies the content presentation target, the presentation data identification unit 120 that identifies the content presentation data used to present the content on the head mounted display 11, A storage unit 130 that stores map information and facility information that is information on a facility associated with the map information. And the process part 110 is based on the sensor information acquired from the sensor provided in at least one of the wearable sensor and the portable electronic device 20, and a user's positional information and the head direction information showing a user's head direction, The body orientation information indicating the body orientation of the user is specified, and the content presentation target is specified based on the user position information, the head orientation information, and the body orientation information. Further, the presentation data specifying unit 120 specifies content presentation data corresponding to the specified content presentation target.

ユーザが歩行途中に関心を示す施設は、これからユーザが進む方向の前方にある施設であったり、視野に捕らえている施設である場合が多い。すなわち、体方位と頭部方位を用いれば、ユーザの位置や向きと施設の位置との関係を認識することができ、ユーザの周辺に存在する施設の中からユーザが関心を示す確率の高い施設を特定することが出来る。   In many cases, the facility in which the user is interested during walking is a facility that is in front of the direction in which the user proceeds or that is captured in the field of view. In other words, if the body orientation and head orientation are used, the relationship between the position and orientation of the user and the location of the facility can be recognized, and the facility with a high probability that the user is interested in the facilities existing around the user. Can be specified.

そこで、本実施形態では、センサ情報に基づいて、ユーザの位置情報と頭部方位情報と体方位情報とを特定し、これらの情報に基づき、コンテンツ提示対象を特定する。そして、特定されたコンテンツ提示対象についてのデータであって、HMDを用いてコンテンツを提示するために用いるデータであるコンテンツ提示用データを特定する。このようにして、ユーザの位置と頭部方位と体方位とを考慮したコンテンツ提示用データを特定することが可能となる。   Therefore, in the present embodiment, user position information, head direction information, and body direction information are specified based on sensor information, and a content presentation target is specified based on these information. And the data for content presentation specified, Comprising: The data for content presentation which is data used in order to show a content using HMD are specified. In this way, it is possible to specify content presentation data in consideration of the user's position, head orientation, and body orientation.

ここで、センサ情報とは、ウェアラブルセンサ及び携帯電子機器20に設けられたセンサの少なくとも一方から取得される情報のことである。具体的にセンサ情報としては、加速度センサからの加速度情報や方位センサからの方位情報等が用いられる。   Here, the sensor information is information acquired from at least one of the wearable sensor and the sensor provided in the portable electronic device 20. Specifically, as the sensor information, acceleration information from the acceleration sensor, direction information from the direction sensor, or the like is used.

また、位置情報とは、マップ上でのユーザの位置を表す情報のことである。位置情報は、GPSを用いて求めても良く、慣性センサ等を用いて求めても良い。   The position information is information representing the position of the user on the map. The position information may be obtained using GPS or may be obtained using an inertial sensor or the like.

さらに、頭部方位情報とは、ユーザの頭部方位を表す情報のことをいう。頭部方位とは、基準となる所定の方向に対して、ユーザの頭部が向いている方向を示すものである。例えば、頭部方位は、ユーザの頭部に装着された方位センサ560からユーザの頭部方位を判別することで求めることができる。また、頭部方位として視線方位を用いてもよい。視線方位は、基準となる所定の方向に対して、ユーザの視線の方向を表すものである。例えば、視線方位は、黒目と白目での光の反射率の違い等を利用して、眼球部分の反射率を検出することで黒目部分の向いている方向を判別することにより求めてもよい。   Furthermore, head orientation information refers to information representing the user's head orientation. The head orientation indicates a direction in which the user's head is facing a predetermined reference direction. For example, the head orientation can be obtained by determining the user's head orientation from the orientation sensor 560 attached to the user's head. Further, the viewing direction may be used as the head direction. The line-of-sight direction represents the direction of the user's line of sight with respect to a predetermined direction serving as a reference. For example, the line-of-sight direction may be obtained by determining the direction in which the black eye portion is facing by detecting the reflectance of the eyeball portion using the difference in the reflectance of light between the black eye and the white eye.

また、体方位情報とは、ユーザの体方位を表す情報のことをいう。体方位とは、基準となる所定の方向に対して、ユーザの体が向いている方位を示すものである。例えば、体方位は、ユーザの体に装着された方位センサ560からユーザの体方位を判別することで求めることができる。また、体方位として進行方位を用いてもよい。進行方位は加速度センサ等により求められる。   The body orientation information refers to information representing the user's body orientation. The body orientation indicates an orientation in which the user's body is facing a predetermined direction serving as a reference. For example, the body orientation can be obtained by determining the body orientation of the user from the orientation sensor 560 attached to the user's body. Further, the traveling direction may be used as the body direction. The traveling direction is obtained by an acceleration sensor or the like.

具体例として、図4(A)にユーザUSの頭部方位DRHと体方位DRBを示す。図4(B)は、図4(A)を上空から見た図である。   As a specific example, FIG. 4A shows the head direction DRH and the body direction DRB of the user US. FIG. 4B is a view of FIG. 4A as viewed from above.

また、ユーザの位置情報と頭部方位情報と体方位情報を用いた具体的なコンテンツ提示対象の特定方法については後述するようなものがある。   In addition, a specific content presentation target specifying method using the user position information, head direction information, and body direction information may be described later.

以上のように、本実施形態の情報処理システムを用いて、情報提供サービスを行う場合には、HMDを用いてコンテンツを提示するため、ユーザが情報提供サービスを利用する度に携帯電子機器等に視線を落とす必要がなく、ユーザに煩わしさを感じさせずに情報提供サービスを行うことが可能となる。   As described above, when the information providing service is performed using the information processing system according to the present embodiment, the content is presented using the HMD. Therefore, each time the user uses the information providing service, the mobile electronic device or the like is used. It is not necessary to drop the line of sight, and it is possible to provide an information providing service without making the user feel bothersome.

また、ユーザの位置情報と頭部方位情報と体方位情報とに基づいて、コンテンツ提示対象を特定するため、よりユーザの関心に合致したコンテンツ提示用データを特定することが可能となる。   Further, since the content presentation target is specified based on the user position information, head direction information, and body direction information, it is possible to specify content presentation data that more closely matches the user's interest.

また、処理部110は、頭部方位情報と体方位情報とに基づいて、頭部方位と体方位の差分角度を表す方位差情報を求め、方位差情報に基づいてコンテンツ提示対象を特定してもよい。   Further, the processing unit 110 obtains azimuth difference information indicating a difference angle between the head azimuth and the body azimuth based on the head azimuth information and the body azimuth information, and specifies a content presentation target based on the azimuth difference information. Also good.

ここで、差分角度とは、ユーザの頭部方位と体方位との間の角度のことをいう。例えば、差分角度は、図4(B)に示すようなユーザUSの頭部方位DRHと体方位DRBとの間の角度θBである。   Here, the difference angle refers to an angle between the user's head orientation and body orientation. For example, the difference angle is an angle θB between the head orientation DRH and the body orientation DRB of the user US as shown in FIG.

また、方位差情報とは、差分角度を表す情報である。方位差情報は、差分角度そのものであってもよく、差分角度と数学的に等価な情報であってもよい。   Further, the azimuth difference information is information representing a difference angle. The azimuth difference information may be the difference angle itself, or may be information mathematically equivalent to the difference angle.

これにより、差分角度に基づきコンテンツ提示対象を特定することが可能になる。したがって、ユーザが進行方向を向いている時と、ユーザが左右のどちらかを向いている時などに異なるコンテンツ提示用データを特定すること等が可能となる。すなわち、ユーザの行動により適合したコンテンツ提示用データを特定すること等が可能となる。   This makes it possible to specify the content presentation target based on the difference angle. Therefore, it is possible to specify different content presentation data when the user is facing the traveling direction and when the user is facing the left or right. That is, it is possible to specify content presentation data that is more suitable for the user's behavior.

また、処理部110は、コンテンツ提示対象を特定するために用いる水平方向の提示対象特定角度を表す提示対象特定角度情報を、方位差情報に応じて決定し、頭部方位を含む方向に提示対象特定角度の角度範囲を設定し、角度範囲内に位置する施設の中から、コンテンツ提示対象を特定してもよい。   Further, the processing unit 110 determines presentation target specific angle information representing a horizontal presentation target specific angle used for specifying a content presentation target according to the orientation difference information, and presents the presentation target in a direction including the head orientation. An angle range of a specific angle may be set, and a content presentation target may be specified from facilities located within the angle range.

これにより、差分角度に基づき提示対象特定角度情報を特定し、提示対象特定角度情報により表される提示対象特定角度からなる角度範囲を設定すること等が可能となる。そして、設定した角度範囲内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。   Thus, it is possible to specify the presentation target specific angle information based on the difference angle, and set an angle range including the presentation target specific angle represented by the presentation target specific angle information. Then, it is possible to specify a content presentation target from facilities located within the set angle range.

ここで、提示対象特定角度とは、コンテンツ提示対象を特定するために用いる角度のことをいう。   Here, the presentation target specifying angle refers to an angle used for specifying the content presentation target.

また、提示対象特定角度情報とは、提示対象特定角度を表す情報である。提示対象特定角度情報は、提示対象特定角度そのものであってもよく、提示対象特定角度と数学的に等価な情報であってもよい。さらに、提示対象特定角度情報は、方位差情報に応じて決定される。例えば、方位差情報により表される差分角度の絶対値が0°〜30°の場合には、提示対象特定角度が30°となるように提示対象特定角度情報を設定し、差分角度の絶対値が30°〜60°の場合には、提示対象特定角度が50°となるように提示対象特定角度情報を設定する。   The presentation target specific angle information is information representing the presentation target specific angle. The presentation target specific angle information may be the presentation target specific angle itself, or may be information mathematically equivalent to the presentation target specific angle. Further, the presentation target specific angle information is determined according to the orientation difference information. For example, when the absolute value of the difference angle represented by the azimuth difference information is 0 ° to 30 °, the presentation target specific angle information is set so that the presentation target specific angle is 30 °, and the absolute value of the difference angle Is 30 ° to 60 °, the presentation target specific angle information is set so that the presentation target specific angle is 50 °.

また、角度範囲とは、提示対象特定角度情報により表される提示対象特定角度により特定される範囲のことをいう。   The angle range refers to a range specified by the presentation target specific angle represented by the presentation target specific angle information.

例えば、図5において、差分角度θBに対して、ユーザUSの提示対象特定角度はθSとして設定される。この時、提示対象特定角度θSは仮想マップ上におけるユーザUSの現在位置を中心として設定される。次に、提示対象特定角度θSの右側境界線RLと左側境界線LLに挟まれる範囲が角度範囲として特定される。そして、特定された角度範囲内に位置する施設の中から、コンテンツ提示対象を特定する。本例では、施設の中心位置(施設を表す図形の対角線が交差する位置)がRLとLLにより囲まれる範囲に含まれる場合に、施設が角度範囲に含まれるとみなしている。後述する例でも同様である。なお、角度範囲内に含まれる施設の数をさらに限定したい場合には、あらかじめ提示対象特定角度をより小さい値に設定しておけばよい。   For example, in FIG. 5, the presentation target specific angle of the user US is set as θS with respect to the difference angle θB. At this time, the presentation target specific angle θS is set around the current position of the user US on the virtual map. Next, a range between the right boundary line RL and the left boundary line LL of the presentation target specific angle θS is specified as an angle range. And the content presentation object is specified from the facilities located within the specified angle range. In this example, when the center position of the facility (the position where the diagonal line of the graphic representing the facility intersects) is included in the range surrounded by RL and LL, the facility is considered to be included in the angle range. The same applies to the examples described later. In order to further limit the number of facilities included in the angle range, the presentation target specific angle may be set to a smaller value in advance.

以上のようにして、所定の角度範囲の中からコンテンツ提示対象を特定するため、ユーザが関心を示している施設をコンテンツ提示対象として特定することがより容易になる。   As described above, since the content presentation target is specified from the predetermined angle range, it is easier to specify the facility in which the user is interested as the content presentation target.

また、ユーザが左右のどちらかを向いている場合には、ユーザが進行方向を向いている場合に比べて、一つの施設が、より大きくユーザの視野の中に広がって見え、かつ施設と施設の間隔も同様に広がって見えてくる。そのため、提示対象特定角度を一定値にしてしまうと、ユーザが左右を向いた場合に、ユーザの周辺にあり、かつ角度範囲に含まれる施設の数が少なくなってしまう。その結果、ユーザの関心のある施設がユーザの近くにあるにも関わらず、その施設がコンテンツ提示対象として特定されないといった場合が起こり得る。   In addition, when the user is facing either the left or right, one facility appears larger in the user's field of view and the facility and facility than when the user is facing the direction of travel. Similarly, the interval of appears to expand. For this reason, if the presentation target specific angle is set to a constant value, when the user turns to the left or right, the number of facilities around the user and included in the angle range is reduced. As a result, there may be a case where the facility that the user is interested in is not specified as a content presentation target even though the facility is close to the user.

そこで、処理部110は、方位差情報により表される差分角度の絶対値が大きいほど、大きい提示対象特定角度を表す提示対象特定角度情報を特定してもよい。   Therefore, the processing unit 110 may specify presentation target specific angle information representing a larger presentation target specific angle as the absolute value of the difference angle represented by the azimuth difference information is larger.

これにより、ユーザが進行方向を向いている時に比べて、ユーザが左右のどちらかを向いている時に、提示対象特定角度を大きく設定して、角度範囲を広げること等が可能となる。なお、提示対象特定角度は、差分角度に対して単調増加であってもよいし、単調増加でなくてもよい。   Thereby, when the user is facing left or right as compared with when the user is facing in the traveling direction, it is possible to widen the angle range by setting the presentation target specific angle larger. In addition, the presentation target specific angle may be monotonously increased with respect to the difference angle or may not be monotonously increased.

例えば、図6(A)に示すように、頭部方位DRH1と体方位DRB1が一致している時、すなわち差分角度の絶対値が0°の時には、提示対象特定角度はθS1と設定される。一方、図6(B)に示すように、頭部方位DRH2と体方位DRB2が一致しておらず、差分角度の絶対値がθBであり、図6(A)よりも大きい場合には、提示対象特定角度はθS1よりも大きい角度であるθS2と設定される。   For example, as shown in FIG. 6A, when the head orientation DRH1 and the body orientation DRB1 coincide, that is, when the absolute value of the difference angle is 0 °, the presentation target specific angle is set to θS1. On the other hand, as shown in FIG. 6B, when the head orientation DRH2 and the body orientation DRB2 do not match and the absolute value of the difference angle is θB, which is larger than FIG. The target specifying angle is set to θS2, which is an angle larger than θS1.

以上のようにして、ユーザが左右のどちらかを向いている時に、提示対象特定角度を一定にする場合に比べて、より多くの施設の中からコンテンツ提示対象を特定すること等が可能となる。その結果、ユーザの関心のある施設をコンテンツ提示対象として特定すること等が可能になる。   As described above, when the user is facing left or right, it is possible to specify content presentation targets from a larger number of facilities as compared with the case where the presentation target specifying angle is constant. . As a result, it is possible to specify a facility that the user is interested in as a content presentation target.

また、処理部110は、頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、体方位の右側に頭部方位があると判断された場合には、左提示対象特定角度よりも右提示対象特定角度が大きくなるように角度範囲を設定してもよい。   Further, the processing unit 110 sets a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle based on the head orientation, and the head orientation is on the right side of the body orientation. If it is determined that there is, the angle range may be set so that the right presentation target specific angle is larger than the left presentation target specific angle.

ここで、右提示対象特定角度とは、提示対象特定角度のうち、頭部方位を基準として右側の角度のことをいう。一方、左提示対象特定角度とは、提示対象特定角度のうち、頭部方位を基準として左側の角度のことをいう。   Here, the right presentation target specific angle refers to a right angle with respect to the head orientation among the presentation target specific angles. On the other hand, the left presentation target specific angle refers to an angle on the left side with respect to the head orientation among the presentation target specific angles.

例えば、図7(A)に示すように、体方位DRBの右側に頭部方位DRH1がある場合、すなわち差分角度がθB1であるような場合には、右提示対象特定角度をθSR1、左提示対象特定角度をθSL1とする提示対象特定角度θS1を設定する。θSR1は、θSL1よりも大きい角度として設定される。   For example, as shown in FIG. 7A, when the head orientation DRH1 is on the right side of the body orientation DRB, that is, when the difference angle is θB1, the right presentation target specific angle is θSR1, the left presentation target The presentation target specific angle θS1 is set with the specific angle θSL1. θSR1 is set as an angle larger than θSL1.

一方、図7(B)に示すように、差分角度がθB1よりも大きいθB2である時には、右提示対象特定角度をθSR2、左提示対象特定角度をθSL2とする提示対象特定角度θS2を設定する。θSR2は、θSL2よりも大きい角度である。さらに、差分角度θB2がθB1よりも大きいことに伴い、θSR2とθSL2の差も、θSR1とθSL1の差に比べて大きくなっている。   On the other hand, as shown in FIG. 7B, when the difference angle is θB2 larger than θB1, the presentation target specific angle θS2 is set with the right presentation target specific angle being θSR2 and the left presentation target specific angle being θSL2. θSR2 is an angle larger than θSL2. Further, as the difference angle θB2 is larger than θB1, the difference between θSR2 and θSL2 is also larger than the difference between θSR1 and θSL1.

本実施形態では、体方位の右側に頭部方位がある場合には、左提示対象特定角度よりも右提示対象特定角度が大きくなるように角度範囲を設定している。ユーザが体方位の右側に頭部を向けている場合、体方位の右側に位置する施設に関心を持っている可能性が高い。こうしたときは、眼球の回転をつかって、視線は頭部方位よりもさらに右側を向いている可能性が極めて高い。従って、本来ならば視線方位に基づき角度範囲を決定することが望ましいが、視線方位を検出するには大がかりな装置が必用となる。そこで、ここでは眼球の回転角度を予め見込み、その分を加味して左提示対象特定角度と右提示対象特定角度で異なる値を用いている。後述する右提示対象特定角度よりも左提示対象特定角度が大きくする場合も、同様の理由である。   In the present embodiment, when the head orientation is on the right side of the body orientation, the angle range is set so that the right presentation target specific angle is larger than the left presentation target specific angle. When the user points the head to the right side of the body orientation, there is a high possibility that the user is interested in the facility located on the right side of the body orientation. In such a case, it is very likely that the line of sight is directed further to the right side than the head direction using the rotation of the eyeball. Therefore, although it is originally desirable to determine the angle range based on the line-of-sight direction, a large-scale device is necessary to detect the line-of-sight direction. Therefore, here, the rotation angle of the eyeball is estimated in advance, and by taking that into consideration, different values are used for the left presentation target specific angle and the right presentation target specific angle. The same reason applies when the left presentation target specific angle is larger than the right presentation target specific angle described later.

以上のように、ユーザが右を向いた時に、ユーザの右側に位置する施設がよりコンテンツ提示対象として特定されやすいように角度範囲を設定すること等が可能となる。   As described above, when the user turns to the right, it is possible to set the angle range so that the facility located on the right side of the user is more easily identified as the content presentation target.

また、処理部110は、頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、体方位の左側に頭部方位があると判断された場合には、右提示対象特定角度よりも左提示対象特定角度が大きくなるように角度範囲を設定してもよい。   Further, the processing unit 110 sets a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle based on the head orientation, and the head orientation is set on the left side of the body orientation. If it is determined that there is, the angle range may be set so that the left presentation target specific angle is larger than the right presentation target specific angle.

具体的には、図7(A)と図7(B)を用いて説明した例と同様である。   Specifically, it is the same as the example described with reference to FIGS. 7A and 7B.

以上のように、ユーザが左を向いた時に、ユーザの左側に位置する施設がよりコンテンツ提示対象として特定されやすいように角度範囲を設定すること等が可能となる。   As described above, when the user turns to the left, the angle range can be set so that the facility located on the left side of the user can be more easily identified as the content presentation target.

また、処理部110は、コンテンツ提示対象を特定するために用いる距離範囲の情報を、方位差情報に応じて決定し、設定された距離範囲内から、コンテンツ提示対象を特定してもよい。   In addition, the processing unit 110 may determine distance range information used for specifying the content presentation target according to the azimuth difference information, and specify the content presentation target from the set distance range.

これにより、差分角度に基づき距離範囲を設定すること等が可能となる。そして、設定した距離範囲内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。   This makes it possible to set a distance range based on the difference angle. Then, it is possible to specify a content presentation target from facilities located within the set distance range.

ここで、距離範囲とは、仮想マップ上の任意の地点を中心として、所定の距離によって特定される範囲のことをいう。所定の距離は一定であってもよいし、一定でなくてもよい。また、所定の距離はあらかじめ設定される値でもよいし、計算により求めてもよい。   Here, the distance range refers to a range specified by a predetermined distance around an arbitrary point on the virtual map. The predetermined distance may or may not be constant. The predetermined distance may be a preset value or may be obtained by calculation.

例えば、図8(A)に示すように、提示対象特定角度θS1からなる角度範囲が設定されている場合に、ユーザUSの現在地点を中心として、所定の距離DS1によって特定される距離範囲DSA1を設定することを考える。この場合には、角度範囲と距離範囲DSA1によって、囲まれる範囲の中に存在する施設の中からコンテンツ提示対象を特定する。   For example, as shown in FIG. 8A, when an angle range including the presentation target specific angle θS1 is set, a distance range DSA1 specified by a predetermined distance DS1 with the current location of the user US as the center is set. Think about setting. In this case, the content presentation target is specified from the facilities existing in the enclosed range by the angle range and the distance range DSA1.

以上のように、角度範囲と距離範囲を組み合わせることにより、ユーザの関心が強く、ユーザから一定距離内にある施設をコンテンツ提示対象として特定することが容易になる。   As described above, by combining the angle range and the distance range, the user's interest is strong, and it is easy to specify a facility within a certain distance from the user as a content presentation target.

また、処理部110は、方位差情報により表される差分角度の絶対値が大きいほど、距離が短い距離範囲を設定してもよい。   Further, the processing unit 110 may set a distance range in which the distance is shorter as the absolute value of the difference angle represented by the azimuth difference information is larger.

これにより、ユーザが左右のどちらかを向いている時に比べて、ユーザが進行方向を向いている時に、距離範囲を広く設定して、ユーザから離れた位置に位置する施設をコンテンツ提示対象として特定すること等が可能となる。逆に、ユーザからの直線距離は近いが、ユーザが位置する道路とは別の道路に面しており、道のり距離が遠い地点に位置する施設をコンテンツ提示対象として特定することを避けること等が可能となる。   As a result, when the user is facing the direction of travel compared to when the user is facing either the left or right, the distance range is set wider and the facility located at a position away from the user is specified as the content presentation target And so on. On the other hand, it is possible to avoid specifying a facility that is close to the user but is facing a different road from the road where the user is located and located at a far distance from the user as a content presentation target. It becomes possible.

例えば、図8(B)に示すように、提示対象特定角度θS2からなる角度範囲が設定されている場合を考える。図8(A)における差分角度の絶対値が0°あるのに対し、図8(B)における差分角度の絶対値はθBであり、図8(A)の場合よりも大きい。そのため、ユーザUSの現在地点を中心として、所定の距離として図8(A)のDS1よりも短いDS2を用い、DS2によって特定される距離範囲DSA2を設定する。そして、角度範囲と距離範囲DSA2によって、囲まれる範囲の中に存在する施設の中からコンテンツ提示対象を特定する。このような施設は、ユーザUSが向いている方向にあり、さらにユーザUSとの道のり距離が近い地点に位置しているため、ユーザUSが利用する可能性が高い。   For example, as shown in FIG. 8B, consider a case where an angle range including the presentation target specific angle θS2 is set. While the absolute value of the difference angle in FIG. 8A is 0 °, the absolute value of the difference angle in FIG. 8B is θB, which is larger than the case of FIG. 8A. Therefore, the distance range DSA2 specified by DS2 is set using DS2 shorter than DS1 in FIG. 8A as the predetermined distance around the current location of user US. Then, the content presentation target is specified from the facilities existing in the enclosed range by the angle range and the distance range DSA2. Since such a facility is located in a direction in which the user US is facing and is located at a short distance from the user US, the facility is likely to be used by the user US.

逆に、図8(A)のような場合には、ユーザUSは進行方向を向いており、ユーザUSのすぐ近くにある施設には関心がないと判断することができる。そのため、ユーザUSが向かっている可能性があるユーザUSの進行方向に位置する施設をコンテンツ提示対象として特定することができる。   Conversely, in the case of FIG. 8A, the user US is facing the traveling direction, and it can be determined that there is no interest in the facility in the immediate vicinity of the user US. Therefore, the facility located in the traveling direction of the user US where the user US may be heading can be specified as the content presentation target.

以上のようにして、ユーザの関心が強く、ユーザが利用する可能性が高い施設をコンテンツ提示対象として特定することが容易になる。   As described above, it is easy to specify a facility that is highly interested in the user and highly likely to be used by the user as a content presentation target.

また、記憶部130は、領域図形についての情報である領域図形情報を記憶してもよい。そして、処理部110は、ユーザの位置とコンテンツ提示対象の位置が、ユーザの位置情報に基づいて設定された仮想マップに対して、頭部方位情報と体方位情報とに基づいて、領域図形情報により表される領域図形を配置設定し、配置設定された領域図形内に位置する施設の中から、コンテンツ提示対象を特定してもよい。   The storage unit 130 may store area graphic information that is information about the area graphic. Then, the processing unit 110 performs region graphic information based on the head direction information and the body direction information with respect to a virtual map in which the user position and the content presentation target position are set based on the user position information. May be specified, and the content presentation target may be specified from facilities located in the set area graphic.

これにより、領域図形内に位置する施設の中から、コンテンツ提示対象を特定すること等が可能になる。したがって、記憶する領域図形を変更することにより、コンテンツ提示対象を特定するための範囲を任意に変更すること等が可能となる。   This makes it possible to specify a content presentation target from facilities located within the area graphic. Therefore, it is possible to arbitrarily change the range for specifying the content presentation target by changing the area graphic to be stored.

ここで、領域図形とは、仮想マップ上で所定の面積を有する領域からなる図形のことをいう。   Here, the region graphic means a graphic composed of a region having a predetermined area on the virtual map.

また、領域図形情報とは、領域図形を表す情報のことをいう。領域図形情報は、領域図形の画像そのものであってもよいし、領域図形の頂点位置を表す座標データや領域図形を表す数式などであってもよい。さらに、領域図形の形状やサイズはあらかじめ設定し、記憶しておいても良いし、計算により求めても良い。   Moreover, area | region figure information means the information showing an area | region figure. The area graphic information may be an image of the area graphic itself, coordinate data representing the vertex position of the area graphic, a mathematical expression representing the area graphic, or the like. Furthermore, the shape and size of the area graphic may be set and stored in advance, or may be obtained by calculation.

例えば、図9に具体例を示す。図9は、ユーザUSの頭部方位がDRH、体方位がDRBである場合に、領域図形TFを仮想マップに重畳した様子を示している。この場合には、TFの中に含まれる施設の中からコンテンツ提示対象が特定される。領域図形の配置設定の具体的な方法については後述する。   For example, a specific example is shown in FIG. FIG. 9 shows a state in which the area graphic TF is superimposed on the virtual map when the head direction of the user US is DRH and the body direction is DRB. In this case, the content presentation target is specified from the facilities included in the TF. A specific method for setting the area graphic arrangement will be described later.

以上のように領域図形を用いることにより、コンテンツ提示対象を特定するための範囲をより現実世界に則して設定することが可能となり、より実用に則した情報処理システムを提供すること等が可能となる。さらに、領域図形を用いることにより、角度範囲や距離範囲を計算により求める必要がなくなるため、アルゴリズムの簡易化や処理量の削減を期待することができる。   By using area graphics as described above, it is possible to set the range for specifying the content presentation target according to the real world, and to provide an information processing system that is more practical. It becomes. Furthermore, since it is not necessary to obtain the angle range and the distance range by calculation by using the area graphic, it is possible to expect simplification of the algorithm and reduction of the processing amount.

また、処理部110は、領域図形内に複数のポイントを設定し、複数のポイントのうち、少なくとも2つのポイントが頭部方位の延長線に重なるように、領域図形を配置設定してもよい。   In addition, the processing unit 110 may set a plurality of points in the region graphic, and place and set the region graphic such that at least two of the plurality of points overlap the extension line of the head direction.

ここで、ポイントとは、領域図形内に設定する点であり、領域図形を仮想マップに重畳する際に領域図形の向きを決定付けるために用いられる点である。   Here, the point is a point set in the area graphic, and is a point used to determine the direction of the area graphic when the area graphic is superimposed on the virtual map.

例えば、ポイントを用いて、領域図形を配置設定する様子を図10に示す。図10では、領域図形TF内にポイントSP1〜SP3があらかじめ設定されている。この場合には、ユーザUSの頭部方位DRHの延長線上にポイントSP1〜SP3のうちの少なくとも2つ(ここでは、SP1とSP2)が重なるように、領域図形TFを配置設定する。また、ユーザUSから領域図形TFまでの距離は任意の方法で設定してよい。本例において、最も簡単な例としては、ユーザUSの頭部方位DRHの延長線に重なるポイント(SP1とSP2)の内、ユーザUSからの距離が最短となるポイント(SP2)までの距離(SPL)をあらかじめ設定しておく方法が考えられる。他にも、ユーザUSの頭部方位情報に基づいて、距離SPLを変更する方法などがある。ただし、ユーザから領域図形までの距離の設定方法はこれらの方法に限定されない。   For example, FIG. 10 shows a state in which area graphics are arranged and set using points. In FIG. 10, points SP1 to SP3 are set in advance in the area graphic TF. In this case, the area figure TF is arranged and set so that at least two of the points SP1 to SP3 (here, SP1 and SP2) overlap with the extended line of the head direction DRH of the user US. Further, the distance from the user US to the area graphic TF may be set by an arbitrary method. In this example, as the simplest example, the distance (SPL) to the point (SP2) where the distance from the user US is the shortest among the points (SP1 and SP2) overlapping the extension line of the head direction DRH of the user US. ) Can be set in advance. In addition, there is a method of changing the distance SPL based on the head direction information of the user US. However, the method for setting the distance from the user to the area graphic is not limited to these methods.

以上のようにして、仮想マップ内で、領域図形を任意の向きに配置設定すること等が可能になる。   As described above, it is possible to place and set area graphics in an arbitrary direction in the virtual map.

また、領域図形を用いてコンテンツ提示対象を特定する手法では、あらかじめ領域図形を準備する必要がある。また、方位差情報により表される差分角度と、ユーザが関心を持つ施設の方向及び距離に相関があることが統計的に分かっている。そこで、この点に着目し、差分角度と施設の方向及び距離に関する統計データに基づいて、使用する領域図形を決定することが望ましい。そして、統計的に分析すると、差分角度の絶対値が小さい場合には、より遠方の施設に関心があり、差分角度の絶対値が大きい場合には、より近接した施設に関心があるという傾向があることが分かる。   Further, in the method of specifying the content presentation target using the area graphic, it is necessary to prepare the area graphic in advance. Further, it is statistically known that there is a correlation between the difference angle represented by the azimuth difference information and the direction and distance of the facility in which the user is interested. Therefore, focusing on this point, it is desirable to determine the area graphic to be used based on statistical data regarding the difference angle, the direction of the facility, and the distance. When statistically analyzed, if the absolute value of the difference angle is small, there is a tendency to be interested in a distant facility, and if the absolute value of the difference angle is large, there is a tendency to be interested in a closer facility. I understand that there is.

そこで、記憶部130は、領域図形情報として、形状及びサイズのうち少なくとも一つが異なる複数の領域図形についての情報を記憶してもよい。そして、処理部110は、頭部方位情報と体方位情報とに基づいて、頭部方位と体方位の方位差情報を求め、方位差情報に基づいて、複数の領域図形から使用する領域図形である使用領域図形を特定し、使用領域図形を仮想マップ上に配置設定して、コンテンツ提示対象を特定してもよい。   Therefore, the storage unit 130 may store information on a plurality of area figures having at least one of shape and size as area figure information. Then, the processing unit 110 obtains heading and body heading difference information based on the head heading information and body heading information, and based on the heading difference information, the area figure to be used from a plurality of area heads. A content presentation target may be specified by specifying a certain usage area graphic and arranging and setting the usage area graphic on the virtual map.

これにより、差分角度に応じて、使用領域図形を変更すること等が可能になる。   Thereby, it becomes possible to change a use area figure according to a difference angle.

ここで、使用領域図形とは、形状及びサイズのうち少なくとも一つが異なる複数の領域図形の中から、使用する領域図形として特定された領域図形のことをいう。   Here, the use area graphic means an area graphic specified as the area graphic to be used from among a plurality of area figures having at least one of a shape and a size different from each other.

具体例を図11(A)〜図11(C)に示す。図11(A)〜図11(C)では、差分角度がθb1、θb2、θb3とそれぞれ異なっており、これに伴い使用領域図形もTF1、TF2、TF3と異なっている。図11(A)の場合には、差分角度θb1の絶対値が小さいため、ユーザUSの左右に位置する施設は含まず、ユーザUSの進行方向に位置する施設が含まれるように領域図形TF1を配置設定する。また、この場合には、ユーザが関心を示す施設の推定は困難なため、複数の領域図形の中でも面積が大きい領域図形を使用領域図形とする。一方、図11(B)や図11(C)の場合には、ユーザUSが右側を向いているため、ユーザUSの頭部方位DRH2又はDRH3側に位置する施設が含まれるように領域図形を配置設定する。差分角度の絶対値が90°に近づくほど、ユーザUSが左右に位置する施設に関心があると推定することができるため、複数の領域図形の中でも面積の小さい領域図形を用い、ユーザUSの左右に位置する施設の詳細な情報を提示することができるようにする。   Specific examples are shown in FIGS. 11A to 11C. In FIGS. 11A to 11C, the difference angles are different from θb1, θb2, and θb3, respectively, and the use area graphic is also different from TF1, TF2, and TF3. In the case of FIG. 11A, since the absolute value of the difference angle θb1 is small, the area figure TF1 is not included so as to include the facilities located in the traveling direction of the user US without including the facilities located on the left and right of the user US. Set the placement. In this case, since it is difficult to estimate a facility in which the user is interested, a region graphic having a large area among the plurality of region graphics is used. On the other hand, in the case of FIGS. 11B and 11C, since the user US is facing the right side, the area figure is included so that the facility located on the head orientation DRH2 or DRH3 side of the user US is included. Set the placement. As the absolute value of the difference angle approaches 90 °, it can be estimated that the user US is interested in a facility located on the left and right. Detailed information on facilities located in can be presented.

以上のようにして、差分角度に応じて使用領域図形を変更し、よりユーザの関心に合った施設をコンテンツ提示対象として特定すること等が可能になる。   As described above, it is possible to change the usage area graphic according to the difference angle, and to specify a facility more suitable for the user's interest as a content presentation target.

また、ユーザが関心を示す施設等は、ユーザが進行方向を向いている場合には、進行方向に存在する確率が高く、ユーザが右を向いている場合には、頭部方位よりもさらに右に、ユーザが左を向いている場合には、頭部方位よりもさらに左に存在する確率が高い。すなわち、ユーザが進行方向を向いている場合には、進行方向から多くのコンテンツ提示対象を特定し、ユーザが右を向いている場合には、頭部方位よりもさらに右の領域から多くのコンテンツ提示対象を特定し、ユーザが左を向いている場合には、頭部方位よりもさらに左の領域から多くのコンテンツ提示対象を特定すれば、よりユーザの関心に合った施設をコンテンツ提示対象として特定できると考えられる。   In addition, facilities that the user is interested in have a high probability of being present in the traveling direction when the user is facing the traveling direction, and are further to the right of the head orientation when the user is facing the right. In addition, when the user is facing left, there is a higher probability of being on the left than the head orientation. That is, when the user is facing the traveling direction, many content presentation targets are specified from the traveling direction, and when the user is facing the right, more content is displayed from the region further to the right than the head orientation. When the presentation target is specified and the user is facing left, if more content presentation targets are identified from the area further to the left than the head orientation, the facility that matches the user's interest is selected as the content presentation target. It can be identified.

そこで、処理部110は、頭部方位に平行な基準線を設定し、頭部方位と体方位が一致する場合には、複数の領域図形の中から基準線に対して線対称な領域図形を使用領域図形として特定し、頭部方位と体方位が一致しない場合には、複数の領域図形の中から基準線に対して非線対称な領域図形を使用領域図形として特定してもよい。   Therefore, the processing unit 110 sets a reference line parallel to the head orientation, and when the head orientation and the body orientation match, an area figure that is line-symmetric with respect to the reference line is selected from a plurality of area figures. If the head area orientation and the body orientation do not coincide with each other, the area figure that is axisymmetric with respect to the reference line may be specified as the use area figure.

すなわち、頭部方位と体方位が一致する場合には、ユーザが進行方向を向いていると推定することができるため、線対称な領域図形を使用領域図形として特定することで、ユーザの進行方向の左右から均等にコンテンツ提示対象を特定すること等が可能となる。   In other words, when the head orientation and body orientation match, it can be assumed that the user is facing the direction of travel, so by specifying a line-symmetric area figure as the use area figure, the user's direction of travel It is possible to specify the content presentation target evenly from the left and right sides.

ここで、線対称な領域図形とは、頭部方位に平行な基準線に対して線対称な領域図形のことをいう。例えば、図12(A)に示すように、基準線SL1に対し、線対称な領域図形STFのような図形のことである。前述した図9も線対称な領域図形を用いた場合の一例である。   Here, the line figure that is line-symmetric means a line figure that is line-symmetric with respect to a reference line parallel to the head direction. For example, as shown in FIG. 12A, it is a figure such as a region figure STF that is line-symmetric with respect to the reference line SL1. FIG. 9 described above is also an example in the case of using a line-symmetric area graphic.

また、前述したように、ユーザが体方位の右側に頭部を向けている場合には、体方位の右側に位置する施設に関心を持っている可能性が高く、視線は頭部方位よりもさらに右側を向いている可能性が極めて高い。   In addition, as described above, when the user points the head to the right side of the body orientation, there is a high possibility that the user is interested in the facility located on the right side of the body orientation. It is very likely that you are facing the right side.

本実施形態では、前述した左提示対象特定角度と右提示対象特定角度を用いる代わりに、非線対称な領域図形を使用領域図形として用いる。   In the present embodiment, instead of using the left presentation target specific angle and the right presentation target specific angle described above, a non-axisymmetric area graphic is used as the use area graphic.

ここで、非線対称な領域図形とは、頭部方位に平行な基準線に対して非線対称な領域図形のことをいう。例えば、図12(B)に示すように、基準線SL2に対し、非線対称な領域図形ASTFのような図形のことである。前述した図10も非線対称な領域図形を用いた場合の一例である。なお、非線対称な領域図形を用いれば、頭部方位の延長線上に基準線を重ねて仮想マップ上に配置設定するだけで、領域図形の右側領域と左側領域の面積に差を付けることでき、線対称な領域図形を用いる場合に比べて、領域図形の右側領域と左側領域の面積に差を付けることが容易である。そのため、非線対称な領域図形は、コンテンツ提示対象として施設を特定する範囲を、頭部方位の左側と右側で変える必要がある場合などにおいて有用である。   Here, the non-axisymmetric area graphic means an area graphic that is non-symmetric with respect to a reference line parallel to the head direction. For example, as shown in FIG. 12B, it is a figure such as an area figure ASTF which is non-axisymmetric with respect to the reference line SL2. FIG. 10 described above is also an example in the case of using a non-axisymmetric area graphic. If a non-axisymmetric area graphic is used, the area of the right and left areas of the area graphic can be differentiated by simply placing the reference line on the extension line of the head direction and placing it on the virtual map. Compared to the case of using a line-symmetric area graphic, it is easy to make a difference between the area of the right area and the left area of the area graphic. Therefore, the non-axisymmetric area graphic is useful when it is necessary to change the range for specifying a facility as a content presentation target between the left side and the right side of the head orientation.

これにより、ユーザの頭部方位情報と体方位情報とに基づいて、使用領域図形を変更し、よりユーザの関心に合った施設をコンテンツ提示対象として特定すること等が可能となる。   Thereby, based on the user's head orientation information and body orientation information, it is possible to change the usage area figure and to specify a facility more suited to the user's interest as a content presentation target.

そして、処理部110は、頭部方位が体方位の右側にある場合には、頭部方位に対して右側の領域の面積が大きくなるように、領域図形を仮想マップ上に配置設定して、頭部方位が体方位の左側にある場合には、頭部方位に対して左側の領域の面積が大きくなるように、領域図形を仮想マップ上に配置設定してもよい。   Then, when the head orientation is on the right side of the body orientation, the processing unit 110 sets the area graphic on the virtual map so that the area of the right area with respect to the head orientation is increased, When the head orientation is on the left side of the body orientation, the area graphic may be arranged and set on the virtual map so that the area of the left area with respect to the head orientation is large.

例えば、図10でいえば、頭部方位を基準に分割された領域図形TF内の面積領域ITF1とITF2のうち、ITF2の面積が大きくなるように、領域図形TFを配置設定する。   For example, in FIG. 10, the area graphic TF is arranged and set so that the area of ITF2 becomes larger among the area areas ITF1 and ITF2 in the area graphic TF divided based on the head orientation.

これにより、頭部方位と体方位が一致していない場合に、非線対称な領域図形を使用領域図形として特定し、ユーザが右を向いた時に、ユーザの右側に位置する施設がよりコンテンツ提示対象として特定されやすいように、領域図形を配置設定すること等が可能となる。   As a result, when the head orientation and body orientation do not match, a non-axisymmetric area figure is identified as the use area figure, and when the user turns to the right, the facility located on the right side of the user presents more content An area figure can be arranged and set so that it can be easily identified as a target.

また、処理部110は、仮想マップ上において、方位差情報により表される差分角度の絶対値が大きいほど、ユーザの位置から領域図形の最遠端部までの距離が短くなるように領域図形を配置設定してもよい。   Further, the processing unit 110 displays the area graphic so that the distance from the user position to the farthest end of the area graphic is shorter as the absolute value of the difference angle represented by the orientation difference information is larger on the virtual map. Arrangement may be set.

ここで、領域図形の最遠端部とは、領域図形を構成する各辺上の任意の点うち、ユーザから最も離れた点のことをいう。また、計算の簡略化のため、ユーザの頭部方位の延長線と領域図形の辺とが交差する点のうち、ユーザから最も離れた点を、領域図形の最遠端部として用いてもよい。さらに、領域図形を構成する各辺上の任意の点の全てについてユーザとの距離を算出し、算出した距離の平均値をユーザと辺との距離とし、最も距離が遠い辺を領域図形の最遠端部としてもよい。   Here, the farthest end of the area graphic means a point farthest from the user among arbitrary points on each side constituting the area graphic. Further, for the sake of simplifying the calculation, a point farthest from the user may be used as the farthest end portion of the area graphic among the points where the extension line of the user's head direction and the side of the area graphic intersect. . Further, the distance to the user is calculated for all arbitrary points on each side constituting the area graphic, the average value of the calculated distances is set as the distance between the user and the side, and the side with the longest distance is the maximum of the area graphic. It is good also as a far end part.

具体例として、図13には、ユーザUSの頭部方位DRHの延長線と領域図形TFの辺とが交差する点であるMFPを領域図形の最遠端部とする場合を示している。この場合において、ユーザUSの位置から領域図形TFの最遠端部MFPまでの距離はUMDとして表される。本実施形態では、差分角度の絶対値の値が大きくなるほど、ユーザUSの位置から領域図形TFの最遠端部MFPまでの距離UMDが短くなるように領域図形を配置設定する。   As a specific example, FIG. 13 shows a case where the MFP, which is the point where the extended line of the head direction DRH of the user US intersects the side of the area graphic TF, is the farthest end of the area graphic. In this case, the distance from the position of the user US to the farthest end MFP of the area graphic TF is represented as UMD. In the present embodiment, the area graphic is arranged and set so that the distance UMD from the position of the user US to the farthest end MFP of the area graphic TF becomes shorter as the absolute value of the difference angle increases.

これにより、ユーザが左右のどちらかを向いている時に比べて、ユーザが進行方向を向いている時に、ユーザから離れた位置を含むように領域図形を配置設定すること等が可能となる。   Accordingly, it is possible to arrange and set the area graphic so as to include a position away from the user when the user is facing the traveling direction as compared to when the user is facing either the left or right.

また、記憶部130は、複数のサブ領域により構成される領域図形についての情報を含む領域図形情報と共に、サブ領域毎に設定された詳細度を記憶してもよい。そして、処理部110は、仮想マップにおいて、複数のサブ領域により構成される領域図形を配置設定し、配置設定された領域図形内に位置する施設の中から、コンテンツ提示対象を特定してもよい。さらに、提示用データ特定部120は、特定されたコンテンツ提示対象が属するサブ領域に割り当てられた詳細度に基づいて、コンテンツ提示用データを特定してもよい。   In addition, the storage unit 130 may store the level of detail set for each sub-region together with the region graphic information including information about the region graphic composed of a plurality of sub-regions. Then, the processing unit 110 may place and set an area graphic composed of a plurality of sub-areas in the virtual map, and specify a content presentation target from among facilities located within the area graphic set. . Further, the presentation data specifying unit 120 may specify the content presentation data based on the level of detail assigned to the sub-region to which the specified content presentation target belongs.

ここで、サブ領域とは、仮想マップ上で所定の面積を有する領域からなる図形のことであり、領域図形の一部を構成する図形のことをいう。   Here, the sub-region refers to a graphic composed of a region having a predetermined area on the virtual map, and refers to a graphic constituting a part of the region graphic.

また、詳細度とは、コンテンツにより表される情報の詳細さを示すために、あらかじめユーザやシステム管理者によって、各コンテンツに対して割り当てられる数値やランク等を指す。   The level of detail refers to a numerical value, a rank, or the like assigned to each content by a user or a system administrator in advance in order to show the details of information represented by the content.

例えば、コンテンツの提示対象が飲食店である場合に、低い詳細度を割り当てられるコンテンツの例としては、店舗名の文字情報や、店舗を示すアイコン画像等が挙げられる。一方、高い詳細度を割り当てられるコンテンツの例としては、メニューや価格、メニューの説明、口コミ、外観画像、営業時間などを示すコンテンツが挙げられる。   For example, when the content presentation target is a restaurant, examples of content to which a low level of detail is assigned include character information of a store name, an icon image indicating a store, and the like. On the other hand, examples of content to which a high level of detail is assigned include content indicating menus, prices, menu descriptions, word-of-mouth, appearance images, business hours, and the like.

詳細度は、上記のようにサブ領域に対しても割り当てることができる。例えば、ユーザと最も近い位置に配置設定されるサブ領域に対しては、最大値を割り当て、ユーザと最も遠い位置に配置設定されるサブ領域に対しては、最小値を割り当てること等ができる。   The level of detail can also be assigned to the sub-region as described above. For example, a maximum value can be assigned to a sub-region arranged and set closest to the user, and a minimum value can be assigned to a sub-region arranged and arranged farthest from the user.

例えば、図14には、サブ領域STF1とSTF2により構成される領域図形TFを用いて、コンテンツ提示対象を特定する様子を示している。この場合には、サブ領域STF1の方がサブ領域STF2よりもユーザUSに近い位置に配置設定されているため、サブ領域STF1には最大の詳細度が割り当てられ、サブ領域STF2には最小の詳細度が割り当てられる。そして、コンテンツ提示対象を領域図形TF内の施設から特定し、特定したコンテンツ提示対象が属するサブ領域に割り当てられた詳細度に応じて、コンテンツ提示用データを特定する。   For example, FIG. 14 shows a state in which a content presentation target is specified using an area graphic TF composed of sub-areas STF1 and STF2. In this case, since the sub-region STF1 is arranged and set at a position closer to the user US than the sub-region STF2, the maximum detail is assigned to the sub-region STF1, and the smallest detail is assigned to the sub-region STF2. Degrees are assigned. Then, the content presentation target is specified from the facility in the area graphic TF, and the content presentation data is specified according to the degree of detail assigned to the sub-region to which the specified content presentation target belongs.

これにより、領域図形内に含まれるコンテンツ提示対象の位置によって詳細度の異なるコンテンツ提示用データを特定すること等が可能になる。   This makes it possible to specify content presentation data having different levels of detail depending on the position of the content presentation target included in the area graphic.

また、処理部110は、ユーザの位置情報の履歴に基づいて、ユーザの体方位情報を求めてもよい。   In addition, the processing unit 110 may obtain the body orientation information of the user based on the history of the user's position information.

ここで、位置情報の履歴とは、所定の時間間隔で記憶したユーザの位置情報のことをいう。   Here, the history of position information refers to user position information stored at predetermined time intervals.

例えば、GPSによるユーザの位置情報の履歴を参照し、ユーザの各地点での進行方向を表す動きベクトル(例えば、第kの時点での位置と第kの時点よりも後の第k+1の時点での位置の間のベクトル)を求め、動きベクトルの移動平均を体方位として体方位情報を求める。   For example, with reference to the history of the user's position information by GPS, a motion vector (for example, the position at the kth time point and the (k + 1) th time point after the kth time point) indicating the traveling direction at each point of the user. Vector), and body orientation information is obtained using the moving average of the motion vectors as the body orientation.

具体例を、図15に示す。図15は、ユーザが位置USP1〜USP5へと移動する様子を示している。まず、本実施形態では、ユーザの位置USP1〜USP5に関する位置情報を記憶しておく。次に、各地点でのユーザの動きベクトルを求める。一例として、USP1とUSP2の間の動きベクトルはDRM1となる。同様にして、動きベクトルDRM2〜DRM4を求め、DRM1〜DRM4の移動平均値を体方位として体方位情報を求める。   A specific example is shown in FIG. FIG. 15 shows how the user moves to positions USP1 to USP5. First, in the present embodiment, position information regarding user positions USP1 to USP5 is stored. Next, the user's motion vector at each point is obtained. As an example, the motion vector between USP1 and USP2 is DRM1. Similarly, motion vectors DRM2 to DRM4 are obtained, and body orientation information is obtained using the moving average value of DRM1 to DRM4 as the body orientation.

このようにして、ユーザの位置情報の履歴に基づいて、体方位情報を求めること等が可能になり、体方位を検出するためのみに用いられる方位センサ等を設ける必要がなくなる。   In this way, body orientation information can be obtained based on the history of the position information of the user, and there is no need to provide an orientation sensor or the like used only for detecting the body orientation.

また、処理部110は、ウェアラブルセンサ又は携帯電子機器20に設けられた第1の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの体方位情報を求めてもよい。   Further, the processing unit 110 may obtain the body orientation information of the user based on the sensor information acquired from the wearable sensor or the first magnetic compass provided in the portable electronic device 20.

これにより、ウェアラブルセンサ又は携帯電子機器20に設けられた第1の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの体方位情報を求めること等が可能になる。   Thereby, it becomes possible to obtain the body orientation information of the user based on the sensor information acquired from the wearable sensor or the first magnetic compass provided in the portable electronic device 20.

また、処理部110は、ユーザの頭部に装着するウェアラブルセンサに設けられた第2の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの頭部方位情報を求めてもよい。   In addition, the processing unit 110 may obtain the user's head orientation information based on sensor information acquired from a second magnetic compass provided in a wearable sensor worn on the user's head.

これにより、ユーザの頭部に装着するウェアラブルセンサに設けられた第2の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの頭部方位情報を求めること等が可能になる。   Accordingly, it is possible to obtain the user's head orientation information based on the sensor information acquired from the second magnetic compass provided in the wearable sensor that is worn on the user's head.

また、処理部110は、ユーザの頭部に装着するウェアラブルセンサに設けられた第2の磁気コンパスから取得されたセンサ情報に基づいて、ユーザの頭部方位情報を求め、頭部方位情報に基づいて体方位情報の補正処理を行ってもよい。   In addition, the processing unit 110 obtains the head orientation information of the user based on the sensor information acquired from the second magnetic compass provided in the wearable sensor that is worn on the user's head, and based on the head orientation information. The body orientation information may be corrected.

体方位情報は、ウェアラブルセンサ又は携帯電子機器に設けられたセンサから取得されたセンサ情報に基づいて求められる。しかし、ウェアラブルセンサや携帯電子機器が、体に対して設計時に想定された向きと異なる向きに、装着ないし保持された場合は、体方位情報の値に誤りが生じる。そのため、頭部方位情報に基づいて体方位情報を正しい値に補正する。   Body orientation information is obtained based on sensor information acquired from a wearable sensor or a sensor provided in a portable electronic device. However, when the wearable sensor or the portable electronic device is mounted or held in a direction different from the direction assumed at the time of design with respect to the body, an error occurs in the value of the body orientation information. Therefore, the body orientation information is corrected to a correct value based on the head orientation information.

これにより、ウェアラブルセンサ等により検出された体方位情報が誤っている場合においても、頭部方位情報によって体方位情報を補正し、体方位情報の誤差を抑圧して、コンテンツ提示用データを特定すること等が可能となる。   As a result, even when the body orientation information detected by the wearable sensor or the like is incorrect, the body orientation information is corrected by the head orientation information, the error of the body orientation information is suppressed, and the content presentation data is specified. It becomes possible.

また、処理部110は、頭部方位情報の履歴に基づいて、体方位情報の補正処理を行ってもよい。   Further, the processing unit 110 may perform correction processing of body orientation information based on the history of head orientation information.

ここで、頭部方位情報の履歴とは、過去の頭部方位情報の集合及び過去の頭部方位情報の集合により求められる情報のことをいう。過去の頭部方位情報の集合の具体例としては、所定期間内における過去の頭部方位情報の時系列データなどが挙げられる。また、過去の頭部方位情報の集合により求められる情報の具体例としては、頭部方位情報の移動平均値などがある。   Here, the history of head orientation information refers to information obtained from a set of past head orientation information and a set of past head orientation information. A specific example of the set of past head orientation information includes time series data of past head orientation information within a predetermined period. A specific example of information obtained from a set of past head direction information includes a moving average value of head direction information.

これにより、体方位情報を補正するために、頭部方位情報の時系列データ等の履歴を用いること等が可能となる。   Accordingly, it is possible to use history such as time-series data of head orientation information in order to correct body orientation information.

また、処理部110は、体方位情報を頭部方位情報の移動平均値とする補正処理を行ってもよい。   Moreover, the process part 110 may perform the correction process which makes body orientation information the moving average value of head orientation information.

統計的に、ユーザが歩行中の場合において、ユーザの頭部方位の移動平均値は体方位と一致する。本実施形態では、この観測結果に基づき、体方位情報を補正する。また、体方位情報を頭部方位情報の移動平均値とする方法として、補正前の体方位情報の移動平均値と頭部方位の移動平均値との差を、補正前の体方位情報から減算した値を補正後の体方位情報とする方法を用いても良い。   Statistically, when the user is walking, the moving average value of the head orientation of the user matches the body orientation. In the present embodiment, body orientation information is corrected based on this observation result. In addition, as a method of setting the body orientation information as the moving average value of the head orientation information, the difference between the moving average value of the body orientation information before correction and the moving average value of the head orientation is subtracted from the body orientation information before correction. A method of using the corrected value as corrected body orientation information may be used.

これにより、体方位情報を頭部方位情報の移動平均値に近似すること等が可能になり、体方位情報の誤差を抑圧して、コンテンツ提示用データを特定すること等が可能となる。   This makes it possible to approximate the body orientation information to the moving average value of the head orientation information, suppress the error in the body orientation information, and specify the content presentation data.

なお本実施形態の情報処理システム等は、プログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の情報処理システム等が実現される。具体的には情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリ、ROM等)などにより実現できる。そしてCPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that the information processing system and the like of the present embodiment may be realized by a program. In this case, the information processing system according to the present embodiment is realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, an information storage medium (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes of this embodiment based on a program (data) stored in the information storage medium. That is, the information storage medium includes a program (a program for causing the computer to execute the processing of each unit) for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment. Remembered.

3.処理の流れ
以下では、図16と図17のフローチャートを用いて、本実施形態の処理の流れについて説明する。
3. Processing Flow Hereinafter, the processing flow of this embodiment will be described with reference to the flowcharts of FIGS. 16 and 17.

3.1 角度範囲と距離範囲を用いる手法の処理の流れ
最初に、図16のフローチャートに従って、角度範囲と距離範囲を用いてコンテンツ提示対象を特定する手法の処理の流れの一例を説明する。
3.1 Process Flow of Method Using Angle Range and Distance Range First, an example of a process flow of a method of specifying a content presentation target using an angle range and a distance range will be described according to the flowchart of FIG.

まず、センサからセンサ情報を取得する(S1)。次に、ユーザの位置を特定し、位置情報を求める(S2)。そして、ユーザの頭部方位情報(S3)と、体方位情報(S4)とを求める。さらに、頭部方位情報と体方位情報とに基づいて、差分角度を特定し(S5)、差分角度に基づいて、提示対象特定角度(S6)と距離範囲(S7)を特定する。そして、提示対象特定角度から導かれる角度範囲と、距離範囲とにより特定される範囲内に存在する施設の中からコンテンツ提示対象を特定する(S8)。最後に、特定されたコンテンツ提示対象についてのコンテンツ提示用データを特定する(S9)。   First, sensor information is acquired from a sensor (S1). Next, the position of the user is specified and position information is obtained (S2). Then, the user's head orientation information (S3) and body orientation information (S4) are obtained. Further, the difference angle is specified based on the head direction information and the body direction information (S5), and the presentation target specifying angle (S6) and the distance range (S7) are specified based on the difference angle. Then, the content presentation target is specified from the facilities existing within the range specified by the angle range derived from the presentation target specifying angle and the distance range (S8). Finally, content presentation data for the identified content presentation target is identified (S9).

3.2 領域図形用いる手法の処理の流れ
次に、図17のフローチャートに従って、領域図形を用いてコンテンツ提示対象を特定する手法の処理の流れの一例を説明する。
3.2 Process Flow of Method Using Area Graphic Next, an example of the process flow of the technique of specifying a content presentation target using an area graphic will be described according to the flowchart of FIG.

まず、センサからセンサ情報を取得する(S10)。次に、ユーザの位置を特定し、位置情報を求める(S11)。そして、ユーザの頭部方位情報(S12)と、体方位情報(S13)を求める。さらに、頭部方位情報と体方位情報とに基づいて、差分角度を特定し(S14)、差分角度に基づいて、使用領域図形を特定し、使用領域図形を仮想マップ内に配置設定する(S15)。そして、領域図形内に存在する施設の中からコンテンツ提示対象を特定する(S16)。最後に、特定されたコンテンツ提示対象についてのコンテンツ提示用データを特定する(S17)。   First, sensor information is acquired from a sensor (S10). Next, the position of the user is specified and position information is obtained (S11). Then, the user's head orientation information (S12) and body orientation information (S13) are obtained. Further, the difference angle is specified based on the head direction information and the body direction information (S14), the use area figure is specified based on the difference angle, and the use area figure is arranged and set in the virtual map (S15). ). Then, a content presentation target is specified from facilities existing in the area graphic (S16). Finally, content presentation data for the identified content presentation target is identified (S17).

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、情報処理システム、携帯電子機器、プログラム及び情報記憶媒体の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configurations and operations of the information processing system, the portable electronic device, the program, and the information storage medium are not limited to those described in this embodiment, and various modifications can be made.

11 ヘッドマウントディスプレイ、12 センサ、13 コンテンツ特定部、
14 操作部、16 サーバ、18 提示部、20 携帯電子機器、
100 情報処理システム、110 処理部、112 コンテンツ提示対象特定部、
114 方位差情報算出部、120 提示用データ特定部、130 記憶部、
140 I/F部、510 屋内外センサ、511 周辺温度センサ、
521 脈拍(心拍数)センサ、550 GPSセンサ、551 加速度センサ、
560 方位センサ
11 Head Mount Display, 12 Sensor, 13 Content Identification Unit,
14 operation units, 16 servers, 18 presentation units, 20 portable electronic devices,
100 information processing system, 110 processing unit, 112 content presentation target specifying unit,
114 azimuth difference information calculation unit, 120 data specifying unit for presentation, 130 storage unit,
140 I / F section, 510 indoor / outdoor sensor, 511 ambient temperature sensor,
521 pulse (heart rate) sensor, 550 GPS sensor, 551 acceleration sensor,
560 Direction sensor

Claims (24)

コンテンツ提示対象を特定する処理部と、
ヘッドマウントディスプレイを用いてコンテンツを提示するために用いるコンテンツ提示用データを特定する提示用データ特定部と、
マップ情報と、前記マップ情報に関連付けられた施設の情報である施設情報とを記憶する記憶部と、
を含み、
前記処理部は、
ウェアラブルセンサ及び携帯電子機器の少なくとも一方に設けられたセンサから取得されたセンサ情報に基づいて、前記ユーザの位置情報と、前記ユーザの頭部方位を表す頭部方位情報と、前記ユーザの体方位を表す体方位情報とを特定し、前記ユーザの前記位置情報と前記頭部方位情報と前記体方位情報とに基づき、前記コンテンツ提示対象を特定し、
前記提示用データ特定部は、
特定された前記コンテンツ提示対象に対応する前記コンテンツ提示用データを特定することを特徴とする情報処理システム。
A processing unit for specifying a content presentation target;
A presentation data specifying unit for specifying content presentation data used for presenting content using a head-mounted display;
A storage unit that stores map information and facility information that is information on a facility associated with the map information;
Including
The processor is
Based on sensor information acquired from a sensor provided in at least one of a wearable sensor and a portable electronic device, the position information of the user, head orientation information indicating the head orientation of the user, and the body orientation of the user Identifying the body orientation information, identifying the content presentation target based on the position information of the user, the head orientation information, and the body orientation information,
The presentation data specifying unit
An information processing system that identifies the content presentation data corresponding to the identified content presentation target.
請求項1において、
前記処理部は、
前記頭部方位情報と前記体方位情報とに基づいて、前記頭部方位と前記体方位の差分角度を表す方位差情報を求め、前記方位差情報に基づいて前記コンテンツ提示対象を特定することを特徴とする情報処理システム。
In claim 1,
The processor is
Obtaining azimuth difference information representing a difference angle between the head azimuth and the body azimuth based on the head azimuth information and the body azimuth information, and specifying the content presentation target based on the azimuth difference information. A featured information processing system.
請求項2において、
前記処理部は、
前記コンテンツ提示対象を特定するために用いる水平方向の提示対象特定角度を表す提示対象特定角度情報を、前記方位差情報に応じて決定し、前記頭部方位を含む方向に前記提示対象特定角度の角度範囲を設定し、前記角度範囲内に位置する施設の中から、前記コンテンツ提示対象を特定することを特徴とする情報処理システム。
In claim 2,
The processor is
Presentation target specific angle information representing a horizontal presentation target specific angle used for specifying the content presentation target is determined according to the azimuth difference information, and the presentation target specific angle is set in a direction including the head direction. An information processing system characterized in that an angle range is set and the content presentation target is specified from facilities located within the angle range.
請求項3において、
前記処理部は、
前記方位差情報により表される前記差分角度の絶対値が大きいほど、大きい前記提示対象特定角度を表す前記提示対象特定角度情報を特定することを特徴とする情報処理システム。
In claim 3,
The processor is
The information processing system characterized by specifying the presentation target specific angle information representing the larger presentation target specific angle as the absolute value of the difference angle represented by the azimuth difference information is larger.
請求項3又は4において、
前記処理部は、
前記頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、
前記体方位の右側に前記頭部方位があると判断された場合には、
前記左提示対象特定角度よりも前記右提示対象特定角度が大きくなるように前記角度範囲を設定することを特徴とする情報処理システム。
In claim 3 or 4,
The processor is
Based on the head orientation, a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle are set,
If it is determined that the head orientation is on the right side of the body orientation,
The information processing system, wherein the angle range is set such that the right presentation target specific angle is larger than the left presentation target specific angle.
請求項3乃至5のいずれかにおいて、
前記処理部は、
前記頭部方位を基準として、右側の角度である右提示対象特定角度と、左側の角度である左提示対象特定角度とを設定し、
前記体方位の左側に前記頭部方位があると判断された場合には、
前記右提示対象特定角度よりも前記左提示対象特定角度が大きくなるように前記角度範囲を設定することを特徴とする情報処理システム。
In any of claims 3 to 5,
The processor is
Based on the head orientation, a right presentation target specific angle that is a right angle and a left presentation target specific angle that is a left angle are set,
When it is determined that the head orientation is on the left side of the body orientation,
The information processing system, wherein the angle range is set such that the left presentation target specific angle is larger than the right presentation target specific angle.
請求項2乃至6のいずれかにおいて、
前記処理部は、
前記コンテンツ提示対象を特定するために用いる距離範囲の情報を、前記方位差情報に応じて決定し、設定された前記距離範囲内から、前記コンテンツ提示対象を特定することを特徴とする情報処理システム。
In any one of Claims 2 thru | or 6.
The processor is
Information on a distance range used for specifying the content presentation target is determined according to the orientation difference information, and the content presentation target is specified from within the set distance range. .
請求項7において、
前記処理部は、
前記方位差情報により表される前記差分角度の絶対値が大きいほど、距離が短い前記距離範囲を設定することを特徴とする情報処理システム。
In claim 7,
The processor is
The information processing system characterized in that the distance range is set such that the distance is shorter as the absolute value of the difference angle represented by the azimuth difference information is larger.
請求項1において、
前記記憶部は、
領域図形についての情報である領域図形情報を記憶し、
前記処理部は、
前記ユーザの位置と前記コンテンツ提示対象の位置が、前記ユーザの前記位置情報に基づいて設定された仮想マップに対して、前記頭部方位情報と前記体方位情報とに基づいて、前記領域図形情報により表される前記領域図形を配置設定し、配置設定された前記領域図形内に位置する施設の中から、前記コンテンツ提示対象を特定することを特徴とする情報処理システム。
In claim 1,
The storage unit
Stores area graphic information, which is information about the area graphic,
The processor is
The area graphic information based on the head direction information and the body direction information with respect to a virtual map in which the position of the user and the position of the content presentation target are set based on the position information of the user An information processing system characterized in that the area graphic represented by is arranged and specified, and the content presentation target is specified from facilities located within the area graphic set.
請求項9において、
前記処理部は、
前記領域図形内に複数のポイントを設定し、前記複数のポイントのうち、少なくとも2つのポイントが前記頭部方位の延長線に重なるように、前記領域図形を配置設定することを特徴とする情報処理システム。
In claim 9,
The processor is
A plurality of points are set in the area graphic, and the area graphic is arranged and set so that at least two of the plurality of points overlap an extension line of the head orientation. system.
請求項9又は10において、
前記記憶部は、
前記領域図形情報として、形状及びサイズのうち少なくとも一つが異なる複数の領域図形についての情報を記憶し、
前記処理部は、
前記頭部方位情報と前記体方位情報とに基づいて、前記頭部方位と前記体方位の方位差情報を求め、前記方位差情報に基づいて、前記複数の領域図形から使用する前記領域図形である使用領域図形を特定し、前記使用領域図形を前記仮想マップ上に配置設定して、前記コンテンツ提示対象を特定することを特徴とする情報処理システム。
In claim 9 or 10,
The storage unit
As the area graphic information, storing information about a plurality of area figures different in at least one of shape and size,
The processor is
Based on the head orientation information and the body orientation information, the heading and body orientation difference information is obtained, and based on the orientation difference information, the region figure used from the plurality of area figures. An information processing system characterized by specifying a certain use area graphic, arranging and setting the use area graphic on the virtual map, and specifying the content presentation target.
請求項11において、
前記処理部は、
前記頭部方位に平行な基準線を設定し、
前記頭部方位と前記体方位が一致する場合には、前記複数の領域図形の中から前記基準線に対して線対称な前記領域図形を前記使用領域図形として特定し、
前記頭部方位と前記体方位が一致しない場合には、前記複数の領域図形の中から前記基準線に対して非線対称な前記領域図形を前記使用領域図形として特定することを特徴とする情報処理システム。
In claim 11,
The processor is
Set a reference line parallel to the head orientation,
When the head orientation and the body orientation coincide with each other, the area figure that is line-symmetric with respect to the reference line is specified as the use area figure from the plurality of area figures,
When the head orientation and the body orientation do not match, the area graphic that is axisymmetric with respect to the reference line is specified as the use area graphic from the plurality of area graphics. Processing system.
請求項9乃至12のいずれかにおいて、
前記処理部は、
前記頭部方位が前記体方位の右側にある場合には、前記頭部方位に対して右側の領域の面積が大きくなるように、前記領域図形を前記仮想マップ上に配置設定して、
前記頭部方位が前記体方位の左側にある場合には、前記頭部方位に対して左側の領域の面積が大きくなるように、前記領域図形を前記仮想マップ上に配置設定することを特徴とする情報処理システム。
In any of claims 9 to 12,
The processor is
When the head orientation is on the right side of the body orientation, the area figure is arranged and set on the virtual map so that the area of the right area with respect to the head orientation is increased,
When the head orientation is on the left side of the body orientation, the area graphic is arranged and set on the virtual map so that the area of the left area with respect to the head orientation is increased. Information processing system.
請求項9乃至13のいずれかにおいて、
前記処理部は、
前記仮想マップ上において、前記方位差情報により表される前記差分角度の絶対値が大きいほど、前記ユーザの位置から前記領域図形の最遠端部までの距離が短くなるように前記領域図形を配置設定することを特徴とする情報処理システム。
In any of claims 9 to 13,
The processor is
On the virtual map, the area graphic is arranged such that the larger the absolute value of the difference angle represented by the heading difference information is, the shorter the distance from the user position to the farthest end of the area graphic is An information processing system characterized by setting.
請求項9乃至14のいずれかにおいて、
前記記憶部は、
複数のサブ領域により構成される前記領域図形についての情報を含む前記領域図形情報と共に、前記サブ領域毎に設定された詳細度を記憶し、
前記処理部は、
前記仮想マップにおいて、前記複数のサブ領域により構成される前記領域図形を配置設定し、配置設定された前記領域図形内に位置する施設の中から、前記コンテンツ提示対象を特定し、
前記提示用データ特定部は、
特定された前記コンテンツ提示対象が属する前記サブ領域に割り当てられた前記詳細度に基づいて、前記コンテンツ提示用データを特定することを特徴とする情報処理システム。
In any of claims 9 to 14,
The storage unit
Along with the area graphic information including information about the area graphic composed of a plurality of sub areas, the degree of detail set for each sub area is stored,
The processor is
In the virtual map, the area graphic composed of the plurality of sub-areas is arranged and set, and the content presentation target is specified from among the facilities located in the area graphic that is arranged and set,
The presentation data specifying unit
An information processing system, wherein the content presentation data is specified based on the degree of detail assigned to the sub-region to which the specified content presentation target belongs.
請求項1乃至15のいずれかにおいて、
前記処理部は、
前記ユーザの前記位置情報の履歴に基づいて、前記ユーザの前記体方位情報を求めることを特徴とする情報処理システム。
In any one of Claims 1 thru | or 15,
The processor is
An information processing system, wherein the body orientation information of the user is obtained based on a history of the position information of the user.
請求項1乃至16のいずれかにおいて、
前記処理部は、
前記ウェアラブルセンサ又は前記携帯電子機器に設けられた第1の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記体方位情報を求めることを特徴とする情報処理システム。
In any one of Claims 1 thru | or 16.
The processor is
An information processing system, wherein the body orientation information of the user is obtained based on the sensor information acquired from a first magnetic compass provided in the wearable sensor or the portable electronic device.
請求項1乃至17のいずれかにおいて、
前記処理部は、
前記ユーザの頭部に装着する前記ウェアラブルセンサに設けられた第2の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記頭部方位情報を求めることを特徴とする情報処理システム。
In any one of Claims 1 thru | or 17,
The processor is
An information processing system for obtaining the head orientation information of the user based on the sensor information acquired from a second magnetic compass provided in the wearable sensor to be worn on the user's head.
請求項17において、
前記処理部は、
前記ユーザの頭部に装着する前記ウェアラブルセンサに設けられた第2の磁気コンパスから取得された前記センサ情報に基づいて、前記ユーザの前記頭部方位情報を求め、前記頭部方位情報に基づいて前記体方位情報の補正処理を行うことを特徴とする情報処理システム。
In claim 17,
The processor is
Based on the sensor information acquired from a second magnetic compass provided in the wearable sensor to be worn on the user's head, the head orientation information of the user is obtained, and based on the head orientation information. An information processing system for correcting the body orientation information.
請求項19において、
前記処理部は、
前記頭部方位情報の履歴に基づいて、前記体方位情報の補正処理を行うことを特徴とする情報処理システム。
In claim 19,
The processor is
An information processing system that performs correction processing of the body orientation information based on a history of the head orientation information.
請求項20において、
前記処理部は、
前記体方位情報を前記頭部方位情報の移動平均値とする前記補正処理を行うことを特徴とする情報処理システム。
In claim 20,
The processor is
An information processing system that performs the correction process using the body orientation information as a moving average value of the head orientation information.
請求項1乃至21のいずれかに記載の情報処理システムを含むことを特徴とする携帯電子機器。   A portable electronic device comprising the information processing system according to any one of claims 1 to 21. コンテンツ提示対象を特定する処理部と、
ヘッドマウントディスプレイを用いてコンテンツを提示するために用いるコンテンツ提示用データを特定する提示用データ特定部と、
マップ情報と、前記マップ情報に関連付けられた施設の情報である施設情報とを記憶する記憶部として、
コンピューターを機能させ、
前記処理部は、
ウェアラブルセンサ及び携帯電子機器の少なくとも一方に設けられたセンサから取得されたセンサ情報に基づいて、前記ユーザの位置情報と、前記ユーザの頭部方位を表す頭部方位情報と、前記ユーザの体方位を表す体方位情報とを特定し、前記ユーザの前記位置情報と前記頭部方位情報と前記体方位情報とに基づき、前記コンテンツ提示対象を特定し、
前記提示用データ特定部は、
特定された前記コンテンツ提示対象に対応する前記コンテンツ提示用データを特定することを特徴とするプログラム。
A processing unit for specifying a content presentation target;
A presentation data specifying unit for specifying content presentation data used for presenting content using a head-mounted display;
As a storage unit that stores map information and facility information that is facility information associated with the map information,
Make the computer work,
The processor is
Based on sensor information acquired from a sensor provided in at least one of a wearable sensor and a portable electronic device, the position information of the user, head orientation information indicating the head orientation of the user, and the body orientation of the user Identifying the body orientation information, identifying the content presentation target based on the position information of the user, the head orientation information, and the body orientation information,
The presentation data specifying unit
A program for specifying the content presentation data corresponding to the specified content presentation target.
コンピューター読み取り可能な情報記憶媒体であって、請求項23に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to claim 23 is stored.
JP2011144103A 2011-06-29 2011-06-29 Information processing system, portable electronic device, program, and information storage medium Expired - Fee Related JP5800602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011144103A JP5800602B2 (en) 2011-06-29 2011-06-29 Information processing system, portable electronic device, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144103A JP5800602B2 (en) 2011-06-29 2011-06-29 Information processing system, portable electronic device, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2013012024A true JP2013012024A (en) 2013-01-17
JP5800602B2 JP5800602B2 (en) 2015-10-28

Family

ID=47685860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144103A Expired - Fee Related JP5800602B2 (en) 2011-06-29 2011-06-29 Information processing system, portable electronic device, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP5800602B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185146A1 (en) 2013-05-15 2014-11-20 ソニー株式会社 Display control device, display control method, and recording medium
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program
WO2015083450A1 (en) * 2013-12-06 2015-06-11 株式会社Nttドコモ Shopping support device and shopping support method
JP2016051276A (en) * 2014-08-29 2016-04-11 京セラドキュメントソリューションズ株式会社 Electronic device and information display program
JP2016527601A (en) * 2013-06-09 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント Head mounted display
US10073262B2 (en) 2014-06-16 2018-09-11 Seiko Epson Corporation Information distribution system, head mounted display, method for controlling head mounted display, and computer program
CN109697582A (en) * 2017-10-23 2019-04-30 阿里巴巴集团控股有限公司 A kind of data processing method, apparatus and system
JP2020030717A (en) * 2018-08-24 2020-02-27 パナソニック株式会社 Pedestrian device, roadside device, in-vehicle device, road-to-walk communication system, pedestrian-to-vehicle communication system, and information distribution method
WO2020040147A1 (en) * 2018-08-24 2020-02-27 パナソニック株式会社 Pedestrian device, communication device, and information distribution method
US10675593B2 (en) 2014-04-11 2020-06-09 Asahi Kasei Medical Co., Ltd. Virus removal membrane

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180074180A (en) 2016-12-23 2018-07-03 삼성전자주식회사 Method and apparatus for providing information for virtual reality video

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177033A (en) * 2001-12-11 2003-06-27 Yamaha Corp Portable navigation apparatus
US20040201857A1 (en) * 2000-01-28 2004-10-14 Intersense, Inc., A Delaware Corporation Self-referenced tracking
JP2004343288A (en) * 2003-05-14 2004-12-02 Hitachi Ltd Portable terminal, information distribution device, communication system, and information presentation method to user by using mobile terminal
JP2008071298A (en) * 2006-09-15 2008-03-27 Ntt Docomo Inc Spatial bulletin board system
JP2010072828A (en) * 2008-09-17 2010-04-02 Olympus Corp Information presenting system, information processing system, program and information storage medium
JP2010097472A (en) * 2008-10-17 2010-04-30 Kddi Corp Display system, display method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040201857A1 (en) * 2000-01-28 2004-10-14 Intersense, Inc., A Delaware Corporation Self-referenced tracking
JP2003177033A (en) * 2001-12-11 2003-06-27 Yamaha Corp Portable navigation apparatus
JP2004343288A (en) * 2003-05-14 2004-12-02 Hitachi Ltd Portable terminal, information distribution device, communication system, and information presentation method to user by using mobile terminal
JP2008071298A (en) * 2006-09-15 2008-03-27 Ntt Docomo Inc Spatial bulletin board system
JP2010072828A (en) * 2008-09-17 2010-04-02 Olympus Corp Information presenting system, information processing system, program and information storage medium
JP2010097472A (en) * 2008-10-17 2010-04-30 Kddi Corp Display system, display method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高田 大輔 DAISUKE TAKADA: "アンビエントインタフェース", ヒューマンインタフェース学会誌 JOURNAL OF HUMAN INTERFACE SOCIETY, vol. 第12巻,第1号, JPN6015031407, 25 February 2010 (2010-02-25), JP, pages 47 - 56, ISSN: 0003129979 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105247466B (en) * 2013-05-15 2019-07-26 索尼公司 Display control unit, display control method and recording medium
CN105247466A (en) * 2013-05-15 2016-01-13 索尼公司 Display control device, display control method, and recording medium
WO2014185146A1 (en) 2013-05-15 2014-11-20 ソニー株式会社 Display control device, display control method, and recording medium
JPWO2014185146A1 (en) * 2013-05-15 2017-02-23 ソニー株式会社 Display control device, display control method, and recording medium
US9940009B2 (en) 2013-05-15 2018-04-10 Sony Corporation Display control device for scrolling of content based on sensor data
US10173129B2 (en) 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
US10525335B2 (en) 2013-06-09 2020-01-07 Sony Interactive Entertainment Inc. Head mounted display
JP2016527601A (en) * 2013-06-09 2016-09-08 株式会社ソニー・インタラクティブエンタテインメント Head mounted display
US10987574B2 (en) 2013-06-09 2021-04-27 Sony Interactive Entertainment Inc. Head mounted display
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program
JP2015111344A (en) * 2013-12-06 2015-06-18 株式会社Nttドコモ Shopping support device and shopping support method
WO2015083450A1 (en) * 2013-12-06 2015-06-11 株式会社Nttドコモ Shopping support device and shopping support method
US10675593B2 (en) 2014-04-11 2020-06-09 Asahi Kasei Medical Co., Ltd. Virus removal membrane
US10073262B2 (en) 2014-06-16 2018-09-11 Seiko Epson Corporation Information distribution system, head mounted display, method for controlling head mounted display, and computer program
JP2016051276A (en) * 2014-08-29 2016-04-11 京セラドキュメントソリューションズ株式会社 Electronic device and information display program
CN109697582A (en) * 2017-10-23 2019-04-30 阿里巴巴集团控股有限公司 A kind of data processing method, apparatus and system
CN109697582B (en) * 2017-10-23 2023-08-22 阿里巴巴集团控股有限公司 Data processing method, device and system
WO2020040147A1 (en) * 2018-08-24 2020-02-27 パナソニック株式会社 Pedestrian device, communication device, and information distribution method
JP2020030717A (en) * 2018-08-24 2020-02-27 パナソニック株式会社 Pedestrian device, roadside device, in-vehicle device, road-to-walk communication system, pedestrian-to-vehicle communication system, and information distribution method
CN112602130A (en) * 2018-08-24 2021-04-02 松下电器产业株式会社 Pedestrian device, communication device, and information distribution method
US11587121B2 (en) 2018-08-24 2023-02-21 Panasonic Holdings Corporation Pedestrian device, communication device, and information distribution method
JP7264607B2 (en) 2018-08-24 2023-04-25 パナソニックホールディングス株式会社 Pedestrian device, roadside device, vehicle-mounted device, road-to-pedestrian communication system, pedestrian-to-vehicle communication system, and information distribution method
CN112602130B (en) * 2018-08-24 2023-11-21 松下控股株式会社 Pedestrian device, communication device, and information distribution method

Also Published As

Publication number Publication date
JP5800602B2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP5800602B2 (en) Information processing system, portable electronic device, program, and information storage medium
JP5675470B2 (en) Image generation system, program, and information storage medium
US10565725B2 (en) Method and device for displaying virtual object
JP5714855B2 (en) Image generation system, program, and information storage medium
US10043238B2 (en) Augmented reality overlays based on an optically zoomed input
EP4342196A1 (en) Beacons for localization and content delivery to wearable devices
AU2014281726B2 (en) Virtual object orientation and visualization
TWI581178B (en) User controlled real object disappearance in a mixed reality display
WO2017134886A1 (en) Information processing device, information processing method, and recording medium
JP5622510B2 (en) Image generation system, program, and information storage medium
US11887246B2 (en) Generating ground truth datasets for virtual reality experiences
US20160027217A1 (en) Use of surface reconstruction data to identify real world floor
EP3172646A1 (en) Smart placement of virtual objects to stay in the field of view of a head mounted display
US11054963B2 (en) Method for displaying navigator associated with content and electronic device for implementing the same
KR20170036704A (en) Multi-user gaze projection using head mounted display devices
US20150293586A1 (en) Eye gaze direction indicator
KR20190030746A (en) System and method for placement of virtual characters in augmented / virtual reality environment
CN104321681A (en) Enhanced information delivery using a transparent display
EP3759576B1 (en) A high-speed staggered binocular eye tracking systems
CN110148224B (en) HUD image display method and device and terminal equipment
CN109791432A (en) The state for postponing the information for influencing graphic user interface changes until not during absorbed situation
US11662805B2 (en) Periodic parameter estimation for visual-inertial tracking systems
US20210318790A1 (en) Snapping range for augmented reality
KR20230070308A (en) Location identification of controllable devices using wearable devices
JP2022102907A (en) System, management device, program, and management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150825

R151 Written notification of patent or utility model registration

Ref document number: 5800602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees