JP7472238B1 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP7472238B1
JP7472238B1 JP2022180617A JP2022180617A JP7472238B1 JP 7472238 B1 JP7472238 B1 JP 7472238B1 JP 2022180617 A JP2022180617 A JP 2022180617A JP 2022180617 A JP2022180617 A JP 2022180617A JP 7472238 B1 JP7472238 B1 JP 7472238B1
Authority
JP
Japan
Prior art keywords
image
display area
unit
degree
viewability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022180617A
Other languages
Japanese (ja)
Inventor
成広 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2022180617A priority Critical patent/JP7472238B1/en
Application granted granted Critical
Publication of JP7472238B1 publication Critical patent/JP7472238B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】画像出力装置に表示される情報を覗き見ることによる情報漏洩のリスクを評価することのできる情報漏洩抑制システムが提供する。【解決手段】情報処理装置が、画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、周辺データ取得部が取得した周辺データを解析して、1以上の物体のそれぞれと、表示領域との位置関係を決定する物体位置決定部と、物体位置決定部が決定した位置関係に基づいて、画像出力装置のユーザとは異なる第三者による出力画像の閲覧可能性の程度を導出する閲覧可能性導出部とを備える。【選択図】図1[Problem] To provide an information leakage prevention system capable of evaluating the risk of information leakage due to peeking at information displayed on an image output device. [Solution] An information processing device includes a peripheral data acquisition unit that acquires image data of an image having one or more objects arranged around a display area in which an output image output by the image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects, an object position determination unit that analyzes the peripheral data acquired by the peripheral data acquisition unit to determine the positional relationship between each of the one or more objects and the display area, and a viewability derivation unit that derives the degree of viewability of the output image by a third party other than the user of the image output device based on the positional relationship determined by the object position determination unit. [Selected Figure] Figure 1

Description

本発明は、情報処理装置、及び、プログラムに関する。 The present invention relates to an information processing device and a program.

特許文献1には、表示の視野角を変更可能なフィルタ層を有する表示部と、フィルタ層により表示部の正面以外からの視認性を低下させる覗き見防止機能とを備えた情報処理装置が開示されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2021-182069号公報
Patent Document 1 discloses an information processing device that includes a display unit having a filter layer that can change the viewing angle of the display, and an anti-peek function that reduces visibility from any side other than the front of the display unit by using the filter layer.
[Prior Art Literature]
[Patent Documents]
[Patent Document 1] JP 2021-182069 A

本発明の第1の態様においては、情報処理装置が提供される。上記の情報処理装置は、例えば、画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部を備える。上記の情報処理装置は、例えば、周辺データ取得部が取得した周辺データを解析して、1以上の物体のそれぞれと、表示領域との位置関係を決定する物体位置決定部を備える。上記の情報処理装置は、例えば、物体位置決定部が決定した位置関係に基づいて、画像出力装置のユーザとは異なる第三者による出力画像の閲覧可能性の程度を導出する閲覧可能性導出部を備える。 In a first aspect of the present invention, an information processing device is provided. The information processing device includes, for example, a peripheral data acquisition unit that acquires image data of an image having one or more objects arranged around a display area in which an output image output by an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects. The information processing device includes, for example, an object position determination unit that analyzes the peripheral data acquired by the peripheral data acquisition unit and determines a positional relationship between each of the one or more objects and the display area. The information processing device includes, for example, a viewability derivation unit that derives a degree of viewability of the output image by a third party different from the user of the image output device based on the positional relationship determined by the object position determination unit.

上記の何れかの情報処理装置において、閲覧可能性導出部は、(i)表示領域から離れた位置に配された物体ほど、閲覧可能性の程度が大きくなるように、及び/又は、(ii)表示領域の正面に近い位置に配された物体ほど、閲覧可能性の程度が小さくなるように、閲覧可能性の程度を導出してよい。 In any of the above information processing devices, the viewability derivation unit may derive the degree of viewability such that (i) the degree of viewability is greater for objects located further away from the display area, and/or (ii) the degree of viewability is less for objects located closer to the front of the display area.

上記の何れかの情報処理装置において、物体位置決定部は、周辺データ取得部が取得した周辺データに基づいて、1以上の物体のそれぞれの三次元点群データを取得する点群データ取得部を有してよい。上記の何れかの情報処理装置において、物体位置決定部は、表示領域の代表点と、点群データ取得部が取得した三次元点群データにより示される1以上の物体のそれぞれの表面に仮想的に配された複数の点のそれぞれとの距離をする距離算出部を有してよい。上記の何れかの情報処理装置において、閲覧可能性導出部は、距離算出部が算出した複数の点のそれぞれに関する距離に基づいて、各点が第三者による出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、複数の点のそれぞれについて算出してよい。閲覧可能性導出部は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を導出してよい。 In any of the above information processing devices, the object position determination unit may include a point cloud data acquisition unit that acquires three-dimensional point cloud data of each of the one or more objects based on the peripheral data acquired by the peripheral data acquisition unit. In any of the above information processing devices, the object position determination unit may include a distance calculation unit that calculates the distance between a representative point of the display area and each of a plurality of points virtually arranged on the surface of each of the one or more objects represented by the three-dimensional point cloud data acquired by the point cloud data acquisition unit. In any of the above information processing devices, the viewability derivation unit may calculate, for each of the multiple points, a value of a suppression index that is an index indicating the degree to which each point suppresses viewing of the output image by a third party, based on the distance for each of the multiple points calculated by the distance calculation unit. The viewability derivation unit may derive the degree of viewability by summing up the values of the suppression index for each of the multiple points.

上記の何れかの情報処理装置において、物体位置決定部は、表示領域の代表点における法線方向と、表示領域の代表点から1以上の物体のそれぞれの表面に配された複数の点のそれぞれに向かう方向とのなす角度の絶対値を算出する角度算出部を有してよい。上記の何れかの情報処理装置において、閲覧可能性導出部は、距離算出部が算出した複数の点のそれぞれに関する距離と、角度算出部が算出した複数の点のそれぞれに関する角度の絶対値とに基づいて、複数の点のそれぞれに関する抑制指標の値を算出してよい。閲覧可能性導出部は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を導出してよい。 In any of the above information processing devices, the object position determination unit may have an angle calculation unit that calculates the absolute value of the angle between the normal direction at the representative point of the display area and the direction from the representative point of the display area toward each of a plurality of points arranged on the surface of each of the one or more objects. In any of the above information processing devices, the viewability derivation unit may calculate a suppression index value for each of the multiple points based on the distance for each of the multiple points calculated by the distance calculation unit and the absolute value of the angle for each of the multiple points calculated by the angle calculation unit. The viewability derivation unit may derive the degree of viewability by summing up the suppression index values for each of the multiple points.

上記の何れかの情報処理装置において、物体位置決定部は、周辺データ取得部が取得した周辺データに基づいて、1以上の物体のそれぞれの三次元点群データを取得する点群データ取得部を有してよい。上記の何れかの情報処理装置において、物体位置決定部は、表示領域の代表点における法線方向と、表示領域の代表点から1以上の物体のそれぞれの表面に配された複数の点のそれぞれに向かう方向とのなす角度の絶対値を算出する角度算出部を有してよい。上記の何れかの情報処理装置において、閲覧可能性導出部は、角度算出部が算出した複数の点のそれぞれに関する角度の絶対値に基づいて、各点が第三者による出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、複数の点のそれぞれについて算出してよい。閲覧可能性導出部は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を導出してよい。 In any of the above information processing devices, the object position determination unit may include a point cloud data acquisition unit that acquires three-dimensional point cloud data of each of the one or more objects based on the peripheral data acquired by the peripheral data acquisition unit. In any of the above information processing devices, the object position determination unit may include an angle calculation unit that calculates the absolute value of the angle between the normal direction at the representative point of the display area and the direction from the representative point of the display area to each of the multiple points arranged on the surface of each of the one or more objects. In any of the above information processing devices, the viewability derivation unit may calculate, for each of the multiple points, a value of a suppression index that is an index indicating the degree to which each point suppresses viewing of the output image by a third party, based on the absolute value of the angle for each of the multiple points calculated by the angle calculation unit. The viewability derivation unit may derive the degree of viewability by summing up the values of the suppression index for each of the multiple points.

上記の何れかの情報処理装置において、画像出力装置は、筐体を備えてよい。画像出力装置は、筐体に配される表示領域を備えてよい。画像出力装置は、筐体に配され、周辺データを生成する周辺データ生成装置を備えてよい。上記の何れかの情報処理装置において、周辺データ取得部は、周辺データ生成装置が生成した周辺データを取得してよい。上記の何れかの情報処理装置は、1以上のマーカが付された1以上の物体を被写体とする二次元画像を取得する二次元画像取得部を備えてよい。上記の何れかの情報処理装置は、二次元画像取得部が取得した二次元画像を解析して、1以上のマーカの少なくとも一部と、表示領域との位置関係を決定するマーカ位置決定部を備えてよい。上記の何れかの情報処理装置は、マーカ位置決定部が表示領域との位置関係を決定したマーカの位置の周辺に点群を生成する点群生成部を備えてよい。上記の何れかの情報処理装置において、1以上のマーカのそれぞれは、1以上のマーカのそれぞれを識別するための識別情報、及び/又は、各マーカの位置の周辺に生成される点群に関する情報を表すパターンを含んでよい。 In any of the above information processing devices, the image output device may include a housing. The image output device may include a display area arranged in the housing. The image output device may include a peripheral data generating device arranged in the housing and configured to generate peripheral data. In any of the above information processing devices, the peripheral data acquisition unit may acquire peripheral data generated by the peripheral data generating device. Any of the above information processing devices may include a two-dimensional image acquisition unit configured to acquire a two-dimensional image having one or more objects with one or more markers attached as a subject. Any of the above information processing devices may include a marker position determination unit configured to analyze the two-dimensional image acquired by the two-dimensional image acquisition unit and determine a positional relationship between at least a portion of the one or more markers and the display area. Any of the above information processing devices may include a point cloud generation unit configured to generate a point cloud around the position of the marker whose positional relationship with the display area has been determined by the marker position determination unit. In any of the above information processing devices, each of the one or more markers may include identification information for identifying each of the one or more markers, and/or a pattern representing information about the point cloud generated around the position of each marker.

上記の何れかの情報処理装置において、1以上の物体のそれぞれは、略水平方向における各物体の端部を示す1組のマーカが付された物体であってよい。上記の何れかの情報処理装置は、1以上の物体を被写体とする二次元画像を取得する二次元画像取得部を備えてよい。上記の何れかの情報処理装置は、二次元画像取得部が取得した二次元画像を解析して、二次元画像に含まれる複数のマーカを検出し、複数のマーカの組み合わせに基づいて、1以上の物体のそれぞれの略水平方向における一方の端部及び他方の端部を検出する端部検出部を備えてよい。上記の何れかの情報処理装置は、1以上の物体のそれぞれについて、表示領域の代表点から各物体の一方の端部に向かう方向と、表示領域の代表点から各物体の他方の端部に向かう方向とのなす角度である遮蔽角を算出する遮蔽角算出部を備えてよい。上記の何れかの情報処理装置において、閲覧可能性導出部は、遮蔽角算出部が算出した1以上の物体のそれぞれの遮蔽角に基づいて、閲覧可能性の程度を導出してよい。 In any of the above information processing devices, each of the one or more objects may be an object to which a set of markers indicating the end of each object in a substantially horizontal direction is attached. Any of the above information processing devices may include a two-dimensional image acquisition unit that acquires a two-dimensional image having one or more objects as a subject. Any of the above information processing devices may include an end detection unit that analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit, detects a plurality of markers included in the two-dimensional image, and detects one end and the other end of each of the one or more objects in a substantially horizontal direction based on a combination of the plurality of markers. Any of the above information processing devices may include an occlusion angle calculation unit that calculates, for each of the one or more objects, an occlusion angle that is an angle between a direction from a representative point of the display area toward one end of each object and a direction from the representative point of the display area toward the other end of each object. In any of the above information processing devices, the viewability derivation unit may derive a degree of viewability based on each of the occlusion angles of the one or more objects calculated by the occlusion angle calculation unit.

上記の何れかの情報処理装置は、閲覧可能性導出部が導出した閲覧可能性の程度に基づいて、表示領域の配置を決定する配置決定部を備えてよい。上記の何れかの情報処理装置において、表示領域の配置は、表示領域が設置される位置及び方向を含んでよい。上記の何れかの情報処理装置において、配置決定部は、閲覧可能性の程度が予め定められた程度よりも小さくなるように、表示領域の配置を決定してよい。 Any of the above information processing devices may include an arrangement determination unit that determines the arrangement of the display area based on the degree of viewability derived by the viewability derivation unit. In any of the above information processing devices, the arrangement of the display area may include the position and direction in which the display area is placed. In any of the above information processing devices, the arrangement determination unit may determine the arrangement of the display area such that the degree of viewability is smaller than a predetermined degree.

上記の何れかの情報処理装置において、表示領域が予め定められた特徴を有するエリアの範囲内に位置する場合と、エリアの範囲外に位置する場合とで、予め定められた程度が異なってよい。 In any of the above information processing devices, the predetermined degree may be different when the display area is located within an area having a predetermined characteristic and when it is located outside the area.

上記の何れかの情報処理装置において、周辺データ取得部は、ユーザが画像出力装置を連続して利用している期間中の複数の時点における周辺データを取得してよい。上記の何れかの情報処理装置において、閲覧可能性導出部は、複数の時点のそれぞれにおける閲覧可能性の程度を導出してよい。 In any of the above information processing devices, the peripheral data acquisition unit may acquire peripheral data at multiple points in time during a period in which the user continuously uses the image output device. In any of the above information processing devices, the viewability derivation unit may derive the degree of viewability at each of the multiple points in time.

上記の何れかの情報処理装置は、画像出力装置による画像の出力を制御する出力制御部を備えてよい。上記の何れかの情報処理装置において、出力制御部は、閲覧可能性導出部が導出した閲覧可能性の程度が予め定められた程度を超えた場合、閲覧可能性の程度が予め定められた程度を超える前に表示されていた出力画像の出力を停止してよい上記の何れかの情報処理装置において、出力制御部は、閲覧可能性導出部が導出した閲覧可能性の程度が予め定められた程度を超えた場合、出力画像とは異なる画像を表示領域に表示させてよい。 Any of the above information processing devices may include an output control unit that controls the output of an image by the image output device. In any of the above information processing devices, the output control unit may stop output of the output image that was displayed before the degree of viewability exceeded the predetermined degree when the degree of viewability derived by the viewability derivation unit exceeds a predetermined degree. In any of the above information processing devices, the output control unit may display an image different from the output image in the display area when the degree of viewability derived by the viewability derivation unit exceeds a predetermined degree.

本発明の第2の態様においては、情報処理方法が提供される。上記の情報処理方法の各段階は、例えば、コンピュータにより実行される。上記の情報処理方法は、例えば、画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得段階を有する。上記の情報処理方法は、例えば、周辺データ取得段階において取得された周辺データを解析して、1以上の物体のそれぞれと、表示領域との位置関係を決定する物体位置決定段階を有する。上記の情報処理方法は、例えば、物体位置決定部が決定した位置関係に基づいて、画像出力装置のユーザとは異なる第三者による出力画像の閲覧可能性の程度を導出する閲覧可能性導出段階を有する。 In a second aspect of the present invention, an information processing method is provided. Each step of the above information processing method is executed by, for example, a computer. The above information processing method includes, for example, a peripheral data acquisition step of acquiring image data of an image having one or more objects arranged around a display area in which an output image output by an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of one or more objects. The above information processing method includes, for example, an object position determination step of analyzing the peripheral data acquired in the peripheral data acquisition step and determining a positional relationship between each of the one or more objects and the display area. The above information processing method includes, for example, a viewability derivation step of deriving a degree of viewability of the output image by a third party other than the user of the image output device based on the positional relationship determined by the object position determination unit.

本発明の第3の態様においては、プログラムが提供される。上記のプログラムは、コンピュータを、上記の第1の実施形態に係る情報処理装置として機能させるためのプログラムであってよい。上記のプログラムは、コンピュータに、上記の第2の実施形態に係る情報処理方法を実行させるためのプログラムであってよい。上記のプログラムを格納するコンピュータ可読媒体が提供されてもよい。コンピュータ可読媒体は、非一時的なコンピュータ可読媒体であってもよい。コンピュータ可読媒体は、コンピュータ可読記録媒体であってもよい。 In a third aspect of the present invention, a program is provided. The program may be a program for causing a computer to function as the information processing device according to the first embodiment. The program may be a program for causing a computer to execute the information processing method according to the second embodiment. A computer-readable medium for storing the program may be provided. The computer-readable medium may be a non-transitory computer-readable medium. The computer-readable medium may be a computer-readable recording medium.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

情報漏洩抑制システム100のシステム構成の一例を概略的に示す。1 shows an example of a system configuration of an information leakage prevention system 100. 表示領域142及び周辺データ生成装置152の視野角を概略的に示す。The viewing angle of the display area 142 and the peripheral data generating device 152 are shown diagrammatically. ユーザ端末120の配置の一例を概略的に示す。2 shows a schematic diagram of an example of the placement of user terminals 120. 制御装置170における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the control device 170. 制御装置170における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the control device 170. 制御装置170の内部構成の一例を概略的に示す。2 shows an example of the internal configuration of the control device 170. 構造情報取得部612の内部構成の一例を概略的に示す。2 shows an example of an internal configuration of a structure information acquisition unit 612. 仮想空間構築部630の内部構成の一例を概略的に示す。6 shows an example of the internal configuration of the virtual space construction unit 630. 第1計算部830における情報処理の一例を概略的に示す。13 illustrates an example of information processing in a first calculation unit 830. 第2計算部840における情報処理の一例を概略的に示す。13 illustrates an example of information processing in a second calculation unit 840. 安全管理部640の内部構成の一例を概略的に示す。2 shows an example of an internal configuration of the safety management unit 640. 安全管理部640における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the safety management unit 640. 制御装置170における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the control device 170. 変動画像データ1340の生成処理の一例を概略的に示す。13A and 13B show an example of a generation process of the dynamic image data 1340. 変動指標導出部1374の内部構成の一例を概略的に示す。13 shows an example of an internal configuration of the fluctuation index derivation unit 1374. 安全管理部1378の内部構成の一例を概略的に示す。13 shows an example of an internal configuration of a safety management unit 1378. 安全管理部1378における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the safety management unit 1378. 二次元画像1800の一例を概略的に示す。An example of a two-dimensional image 1800 is shown diagrammatically. パノラマ画像1900の一例を概略的に示す。An example of a panoramic image 1900 is shown diagrammatically. コンピュータ3000のシステム構成の一例を概略的に示す。An example of the system configuration of a computer 3000 is shown in schematic form.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention. In the drawings, the same reference numbers may be used to designate the same or similar parts, and duplicate explanations may be omitted.

情報処理端末は、ディスプレイ、プロジェクタ、スクリーンなどの画像出力装置に各種の情報を表示させる。情報処理端末が画像出力装置に表示させた情報が、当該情報処理端末のユーザとは異なる第三者により閲覧されると、当該情報が外部に漏洩し得る。第三者による閲覧の態様は、目視に限定されない。第三者は、例えば、画像出力装置の近傍に配された撮像装置を用いて、情報処理端末が画像出力装置に表示させた情報を閲覧し得る。上記の撮像装置としては、監視カメラ、隠しカメラなどが例示される。第三者は、例えばネットワークを介して上記の撮像装置にアクセスすることにより、情報処理端末が画像出力装置に表示させた情報を閲覧し得る。 The information processing terminal displays various information on an image output device such as a display, projector, or screen. If the information displayed on the image output device by the information processing terminal is viewed by a third party other than the user of the information processing terminal, the information may be leaked to the outside. The manner in which the information is viewed by the third party is not limited to visual inspection. For example, the third party may view the information displayed on the image output device by the information processing terminal using an imaging device arranged near the image output device. Examples of the imaging device include a surveillance camera and a hidden camera. For example, the third party may access the imaging device via a network to view the information displayed on the image output device by the information processing terminal.

近年、画像出力装置からの情報漏洩を防止する様々な技術が開発されているが、発明者らは、画像出力装置を第三者による閲覧が比較的困難な場所に設置することができれば、情報漏洩のリスクが大幅に低減され得ると考えた。本実施形態によれば、例えば、画像出力装置の周辺の状態に応じて、第三者が画像出力装置に表示される情報を覗き見ることによる情報漏洩のリスクを評価することのできる情報漏洩抑制システムが提供される。 In recent years, various technologies have been developed to prevent information leakage from image output devices, but the inventors thought that if the image output device could be installed in a location where it is relatively difficult for a third party to view it, the risk of information leakage could be significantly reduced. According to this embodiment, for example, an information leakage prevention system is provided that can evaluate the risk of information leakage caused by a third party peeking at information displayed on the image output device depending on the conditions around the image output device.

一実施形態によれば、情報漏洩抑制システムは、情報処理端末の安全性を評価する。より具体的には、情報漏洩抑制システムは、情報処理端末が生成した画像を出力する画像出力装置の設置予定場所又は設置場所(情報処理端末の設置位置と称される場合がある。)における情報セキュリティの程度(単に、安全性と称される場合がある)を評価する。これにより、情報処理端末のユーザは、当該情報処理端末の画像出力装置を安全な場所に設置した後、当該情報処理端末の利用を開始することができる。その結果、情報漏洩のリスクが大きく低減される。 According to one embodiment, the information leakage prevention system evaluates the safety of an information processing terminal. More specifically, the information leakage prevention system evaluates the degree of information security (sometimes simply referred to as safety) at the planned installation location or installation location (sometimes referred to as the installation location of the information processing terminal) of an image output device that outputs images generated by the information processing terminal. This allows a user of an information processing terminal to start using the information processing terminal after installing the image output device of the information processing terminal in a safe location. As a result, the risk of information leakage is greatly reduced.

他の実施形態によれば、情報漏洩抑制システムは、例えば、ユーザが情報処理端末を使用している期間中、当該情報処理端末の安全性を監視する。情報漏洩抑制システムは、当該情報処理端末の安全性を常時確認してもよく、定期的に又は任意のタイミングで当該情報処理端末の安全性を確認してもよい。これにより、例えば、時間の経過に伴う周辺環境の変化により、情報処理端末の安全性の程度が変動する場合であっても、情報漏洩のリスクが低減され得る。 According to another embodiment, the information leakage prevention system monitors the safety of the information processing terminal, for example, while the user is using the information processing terminal. The information leakage prevention system may check the safety of the information processing terminal at all times, or may check the safety of the information processing terminal periodically or at any timing. This can reduce the risk of information leakage, for example, even if the degree of safety of the information processing terminal fluctuates due to changes in the surrounding environment over time.

情報処理端末の安全性は、例えば、上記の画像出力装置の位置に基づいて評価される。情報処理端末の安全性は、上記の画像出力装置の位置と、当該位置における当該画像出力装置の向き(情報処理端末の設置方向と称される場合がある。)とに基づいて評価されてもよい。なお、本願明細書において、情報処理端末を設置すると表記されている場合、技術的に矛盾が生じない範囲において、情報処理端末の画像出力装置を設置することを意味し得ることに留意されたい。 The safety of the information processing terminal is evaluated, for example, based on the position of the image output device. The safety of the information processing terminal may also be evaluated based on the position of the image output device and the orientation of the image output device at that position (sometimes referred to as the installation direction of the information processing terminal). Note that in this specification, when it is written that an information processing terminal is installed, it may mean that the image output device of the information processing terminal is installed to the extent that no technical contradiction occurs.

上記の画像出力装置としては、ディスプレイ、スクリーンなどの画像表示装置、プロジェクタなどの画像投影装置が例示される。スクリーンは、例えば、画像投影装置が出力した画像を反射することで当該画像を出力する。これにより、画像投影装置が出力した画像が、スクリーン上に表示される。 Examples of the image output device include image display devices such as displays and screens, and image projection devices such as projectors. The screen outputs an image output by the image projection device, for example, by reflecting the image. In this way, the image output by the image projection device is displayed on the screen.

画像出力装置が出力する画像(出力画像と称される場合がある。)は、平面に表示されてもよく、湾曲面に表示されてもよく、球面又はその一部に表示されてもよい。出力画像は、二次元画像であってもよく、三次元画像であってもよい。 The image output by the image output device (sometimes referred to as the output image) may be displayed on a plane, a curved surface, or a sphere or a portion thereof. The output image may be a two-dimensional image or a three-dimensional image.

情報処理端末の設置方向は、例えば、画像出力装置の前後の軸まわりの回転(ロールと称される場合がある)、左右の軸まわりの回転(ピッチと称される場合がある)、及び、上下の軸まわりの回転(ヨーと称される場合がある)の少なくとも1つにより表される。画像出力装置の前後の軸は、画像出力装置を前後に通過する軸であってよい。画像出力装置の上下の軸は、画像出力装置を上下に通過する軸であってよい。画像出力装置の左右の軸は、画像出力装置を左右に通過する軸であってよい。上記の3つの軸は、互いに直交してよい。画像出力装置が曲面である場合、当該曲面に沿って延伸された空間曲線が軸として用いられてよい。 The installation direction of the information processing terminal is represented by, for example, at least one of rotation around the front-to-back axis of the image output device (sometimes referred to as roll), rotation around the left-to-right axis (sometimes referred to as pitch), and rotation around the up-to-down axis (sometimes referred to as yaw). The front-to-back axis of the image output device may be an axis that passes through the image output device from front to back. The up-to-down axis of the image output device may be an axis that passes through the image output device from top to bottom. The left-to-right axis of the image output device may be an axis that passes through the image output device from left to right. The above three axes may be mutually orthogonal. When the image output device is a curved surface, a space curve extended along the curved surface may be used as an axis.

(物体の動き又は光の揺らぎに基づく安全性の評価)
一実施形態において、情報処理端末の設置位置の周辺における物体の動き又は光の揺らぎに基づいて、情報処理端末の安全性を評価することが考えられる。本実施形態においては、情報処理端末の設置位置の周辺を撮像して得られた動画の解析結果に基づいて、情報処理端末の安全性が評価される。
(Safety assessment based on object movement or light fluctuation)
In one embodiment, it is possible to evaluate the safety of an information processing terminal based on the movement of objects or the fluctuation of light around the installation position of the information processing terminal. In this embodiment, the safety of the information processing terminal is evaluated based on the analysis result of a video obtained by capturing an image of the periphery of the installation position of the information processing terminal.

情報処理端末の設置位置の周辺に配された物体が動くと、当該動画を撮像した撮像装置が静止している場合であっても、当該動画を構成する複数のフレームの間で、当該物体に対応する画素の画素値が変動する。また、情報処理端末の設置位置の周辺に配された物体、及び、当該動画を撮像した撮像装置が静止している場合であっても、当該物体の表面で反射する光、当該物体を透過する光又は当該物体から発せられる光の揺らぎにより、当該動画を構成する複数のフレームの間で特定の画素の画素値が変動する。 When an object located near the installation position of the information processing terminal moves, the pixel value of the pixel corresponding to the object fluctuates between the multiple frames that make up the video, even if the imaging device that captured the video is stationary. Also, even if the object located near the installation position of the information processing terminal and the imaging device that captured the video are stationary, the pixel value of a specific pixel fluctuates between the multiple frames that make up the video due to fluctuations in light reflected from the surface of the object, light that penetrates the object, or light emitted from the object.

例えば、光の強度の平均値が巨視的には一定であっても、微視的には、光の強度と、光の強度の平均値との間に小さなずれがある場合、光の揺らぎが検出される。光の揺らぎは、例えば、当該光の強度及び/又は色が、特定の平均に従いながらも、部分的にランダムに変動していることを示す。情報処理端末の設置位置の周辺で観察される光の揺らぎは、例えば、(i)光源と、当該光源からの光を反射又は透過する被写体との間に存在する又は存在した様々な他の物体の動きの程度、及び/又は、(ii)当該被写体と、撮像装置との間に配された他の物体の動きの程度を表す。上記の他の物体は、固体であってもよく、気体であってもよく、液体であってもよい。光の揺らぎは、(i)ある程度周期性の高い変化を含んでもよく、(ii)ランダムな動きに近いものを含んでもよい。 For example, even if the average value of the light intensity is constant macroscopically, if there is a small deviation between the light intensity and the average value of the light intensity microscopically, light fluctuation is detected. Light fluctuation indicates, for example, that the intensity and/or color of the light fluctuates partially randomly while following a specific average. Light fluctuation observed around the installation position of the information processing terminal represents, for example, (i) the degree of movement of various other objects that exist or have existed between a light source and a subject that reflects or transmits light from the light source, and/or (ii) the degree of movement of other objects arranged between the subject and the imaging device. The other objects may be solid, gas, or liquid. Light fluctuation may (i) include changes with a high degree of periodicity to a certain extent, or (ii) include movements close to random.

情報処理端末の安全性を評価する手法としては、情報処理端末の設置位置の周辺において、物体の動き又は光の揺らぎが検出される程度を評価することが例示される。上記の程度としては、検出された動き又は揺らぎの大きさの程度、動き又は揺らぎが検出される頻度などが例示される。 An example of a method for evaluating the safety of an information processing terminal is to evaluate the degree to which object movement or light fluctuation is detected in the vicinity of the installation location of the information processing terminal. Examples of the degree include the magnitude of the detected movement or fluctuation, and the frequency with which the movement or fluctuation is detected.

情報処理端末の設置位置の周辺において物体の動きが検出された場合、情報処理端末の設置位置の周辺に第三者が存在する可能性が高い。同様に、情報処理端末の設置位置の周辺において比較的大きな光の揺らぎが検出された場合、情報処理端末の設置位置の周辺に第三者が存在する可能性が高い。また、情報処理端末の設置位置の周辺における光の揺らぎのパターンが変化した場合、情報処理端末の設置位置の周辺に第三者が存在する可能性が高い。そのため、物体の動き又は光の揺らぎが検出される程度が小さいほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。 When object movement is detected around the installation location of the information processing terminal, there is a high possibility that a third party is present around the installation location of the information processing terminal. Similarly, when relatively large light fluctuations are detected around the installation location of the information processing terminal, there is a high possibility that a third party is present around the installation location of the information processing terminal. Furthermore, when the pattern of light fluctuations around the installation location of the information processing terminal changes, there is a high possibility that a third party is present around the installation location of the information processing terminal. Therefore, the smaller the degree to which object movement or light fluctuations are detected, the greater the degree of safety of the information processing terminal can be evaluated (i.e., the smaller the possibility that the output image will be viewed by a third party).

情報処理端末の設置位置の周辺において観察される光の揺らぎのパターンが、自然光の揺らぎのパターンに類似している場合、当該設置位置の近傍に屋外に通じる窓又は開口が存在する可能性、又は、当該設置位置が屋外である可能性が高い。一方、情報処理端末の設置位置の周辺において観察される光の揺らぎのパターンが、人工光の揺らぎのパターンに類似している場合、当該設置位置の近傍に屋外に通じる窓又は開口が存在する可能性、又は、当該設置位置が屋外である可能性が低い。そのため、自然光に類似する光の揺らぎが検出される程度が小さいほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。 When the light fluctuation pattern observed around the installation location of the information processing terminal resembles the natural light fluctuation pattern, there is a high possibility that a window or opening leading to the outdoors is present near the installation location, or that the installation location is outdoors. On the other hand, when the light fluctuation pattern observed around the installation location of the information processing terminal resembles the artificial light fluctuation pattern, there is a low possibility that a window or opening leading to the outdoors is present near the installation location, or that the installation location is outdoors. Therefore, the lower the degree to which light fluctuations similar to natural light are detected, the higher the degree of safety of the information processing terminal can be evaluated (i.e., the lower the possibility that the output image will be viewed by a third party).

また、情報処理端末の設置位置の周辺において観察される光の揺らぎのパターンが、情報処理端末が予め定められた種類の移動体に搭載されている場合における光の揺らぎのパターンに類似している場合、情報処理端末が当該移動体に搭載されている可能性が高い。予め定められた種類の移動体としては、車両、飛行体、船舶などが例示される。予め定められた種類の移動体は、電車、バス、旅客機、客船などの公共交通機関であってよい。そこで、検出された光の揺らぎが予め定められた第1パターンを有する場合、情報処理端末の安全性の程度が小さい(つまり、第三者により出力画像が閲覧される可能性が大きい。)と評価され得る。同様に、検出された光の揺らぎが予め定められた第2パターンを有する場合、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。光の揺らぎのパターンは、光の揺らぎが検出される程度の一例であってよい。 In addition, if the pattern of light fluctuation observed around the installation position of the information processing terminal is similar to the pattern of light fluctuation when the information processing terminal is mounted on a predetermined type of moving object, there is a high possibility that the information processing terminal is mounted on the moving object. Examples of the predetermined type of moving object include vehicles, aircraft, and ships. The predetermined type of moving object may be public transportation such as trains, buses, passenger planes, and passenger ships. Therefore, if the detected light fluctuation has a predetermined first pattern, it may be evaluated that the degree of safety of the information processing terminal is low (i.e., there is a high possibility that the output image will be viewed by a third party). Similarly, if the detected light fluctuation has a predetermined second pattern, it may be evaluated that the degree of safety of the information processing terminal is high (i.e., there is a low possibility that the output image will be viewed by a third party). The pattern of light fluctuation may be an example of the degree to which light fluctuation is detected.

例えば、室内に入射した自然光が室内に配された物体の表面で反射し、情報処理端末の設置位置に配されたカメラが当該反射光を受光する場合を考える。この場合、上記のカメラが受光する光の揺らぎは、光源である太陽及び上記の物体の間並びに上記の物体及びカメラの間における、(i)樹木の枝葉の揺れ、(ii)水面の揺れ、(iii)空気中に浮遊する塵、水滴、水蒸気などの流れ、(iv)空気の屈折率の変動などの影響を受ける。そのため、光の揺らぎを周波数解析すると、当該揺らぎは比較的広い範囲の周波数を含む。例えば、光の揺らぎの周波数分布は、比較的ブロードな山状又は正規分布状の形状を有する。 For example, consider a case where natural light entering a room is reflected by the surface of an object placed in the room, and the reflected light is received by a camera placed at the installation position of the information processing terminal. In this case, the fluctuation of the light received by the camera is affected by (i) the swaying of tree branches and leaves, (ii) the swaying of the water surface, (iii) the flow of dust, water droplets, water vapor, etc. suspended in the air, and (iv) fluctuations in the refractive index of the air, between the sun, which is the light source, and the object, and between the object and the camera. Therefore, when the fluctuation of light is subjected to a frequency analysis, the fluctuation includes a relatively wide range of frequencies. For example, the frequency distribution of the fluctuation of light has a relatively broad mountain-like or normal distribution shape.

同様に、室内に配された光源から射出された人工光が室内に配された物体の表面で反射し、情報処理端末の設置位置に配されたカメラが当該反射光を受光する場合を考える。この場合、光源が太陽である場合と比較して、光源及び上記の物体の間の距離が短い。その結果、光の揺らぎを周波数解析すると、当該揺らぎは比較的狭い範囲の周波数を含む、又は、特定の周波数成分を多く含む。例えば、光の揺らぎの周波数分布は、光源が太陽である場合と比較してシャープ山状又は正規分布状の形状を有する、又は、特定の周波数成分が突出した形状を有する。 Similarly, consider a case where artificial light emitted from a light source placed in a room is reflected off the surface of an object placed in the room, and the reflected light is received by a camera placed at the installation position of the information processing terminal. In this case, the distance between the light source and the above-mentioned object is shorter than when the light source is the sun. As a result, when the light fluctuation is subjected to a frequency analysis, the fluctuation contains a relatively narrow range of frequencies, or contains many specific frequency components. For example, the frequency distribution of the light fluctuation has a sharp peak shape or a normal distribution shape, or has a shape in which specific frequency components stand out, compared to when the light source is the sun.

発明者は、(i)自然光は、人工光源からの光と比較して、数Hz~数十Hz程度の周波数帯の光の揺らぎを多く含むこと、(ii)30フレーム/秒程度の撮像装置により撮像された動画像の解析により当該光の揺らぎを検出可能であること、及び、(iii)光の揺らぎのパターン(例えば、揺らぎの周波数分布のパターンである)に基づいて、当該光の観察場所で生じている事象を推定可能であることを見出した。また、発明者は、観察された光の揺らぎに基づいて、当該光の観察地点の安全性を評価することを想到した。 The inventors have found that (i) natural light contains more light fluctuations in the frequency band of about several Hz to several tens of Hz than light from artificial light sources, (ii) the light fluctuations can be detected by analyzing video images captured by an imaging device at about 30 frames per second, and (iii) it is possible to estimate an event occurring at the location where the light is observed based on the pattern of the light fluctuations (e.g., a pattern of the frequency distribution of the fluctuations). The inventors have also come up with the idea of evaluating the safety of the location where the light is observed based on the observed light fluctuations.

(遮蔽物の有無又は多寡に基づく安全性の評価)
他の実施形態において、情報処理端末の設置位置の周辺に配された構造物(遮蔽物と称される場合がある)の配置に基づいて、情報処理端末の安全性を評価することが考えられる。遮蔽物は、固体であってもよく、液体であってもよく、気体であってもよく、これらの組み合わせであってもよい。上記の安全性を評価する他の手法としては、上記の遮蔽物の配置を評価することが例示される。
(Evaluation of safety based on the presence or absence of shielding or the amount of shielding)
In another embodiment, it is possible to evaluate the safety of an information processing terminal based on the arrangement of structures (sometimes called shields) arranged around the installation position of the information processing terminal. The shields may be solid, liquid, gas, or a combination of these. Another method for evaluating the above safety is, for example, evaluating the arrangement of the shields.

例えば、遮蔽物によりディスプレイ、スクリーンなどへの第三者の視線が遮られる程度が大きいほど、情報処理端末の安全性の程度が大きいと評価される。情報処理端末の設置位置と、遮蔽物との距離が小さいほど、当該設置位置及び遮蔽物の間に第三者が入り込む可能性が小さくなる。そこで、情報処理端末の設置位置と、遮蔽物との距離が小さいほど、情報処理端末の安全性の程度が大きいと評価されてよい。同様に、上記の距離が大きいほど、情報処理端末の安全性の程度が小さいと評価されてもよい。 For example, the greater the degree to which a third party's view of a display, screen, etc. is blocked by an obstruction, the greater the degree of safety of the information processing terminal is evaluated. The smaller the distance between the installation position of the information processing terminal and the obstruction, the smaller the possibility of a third party getting between the installation position and the obstruction. Thus, the smaller the distance between the installation position of the information processing terminal and the obstruction, the greater the degree of safety of the information processing terminal may be evaluated. Similarly, the greater the above distance, the less the degree of safety of the information processing terminal may be evaluated.

(周辺環境の状況に基づく安全性の評価)
さらに他の実施形態において、情報処理端末の設置位置の周辺の環境(周辺環境と称される場合がある。)の状況に基づいて、情報処理端末の安全性を評価することが考えられる。設置位置の周辺の環境には、設置位置の環境も含まれ得る。周辺環境の状況としては、周辺環境における、温度分布の状況、明るさの状況、気象の状況、空気の状況、人流又は人口の状況などが例示される。周辺環境の状況は、高度であってもよい。情報処理端末の安全性を評価する手法としては、周辺環境の状況を評価することが例示される。周辺環境は、表示領域の周辺の環境の一例であってよい。
(Evaluation of safety based on the surrounding environment)
In yet another embodiment, it is possible to evaluate the safety of an information processing terminal based on the status of the environment (sometimes referred to as the surrounding environment) around the installation position of the information processing terminal. The environment around the installation position may include the environment of the installation position. Examples of the status of the surrounding environment include the temperature distribution status, brightness status, weather status, air status, and the flow of people or population status in the surrounding environment. The status of the surrounding environment may be advanced. An example of a method for evaluating the safety of an information processing terminal is to evaluate the status of the surrounding environment. The surrounding environment may be an example of the environment around the display area.

(温度分布の状況)
周辺環境の温度は、例えば、赤外線カメラ、サーモカメラ、熱画像直視装置などを用いて測定され得る。情報処理端末の設置位置の温度と、情報処理端末の設置位置の周辺の温度とを比較することで、周辺環境の状況が評価され得る。上記の赤外線カメラは、中赤外線カメラ又は遠赤外線カメラであってよい。
(Temperature distribution status)
The temperature of the surrounding environment can be measured using, for example, an infrared camera, a thermo camera, a thermal imaging camera, etc. The condition of the surrounding environment can be evaluated by comparing the temperature at the installation position of the information processing terminal with the temperature around the installation position of the information processing terminal. The infrared camera may be a mid-infrared camera or a far-infrared camera.

例えば、人、人の用いる道具(例えば電子機器である)、自然光の当たる場所などは、周囲の環境と比較して高温になりやすい。上記の傾向は、室内において特に顕著である。そのため、特定の空間内において、当該空間内の他の部分と比較して温度が高い部分は、情報処理端末の安全性の程度が小さい(つまり、第三者により出力画像が閲覧される可能性が大きい。)と評価され得る。 For example, people, tools used by people (such as electronic devices), and places exposed to natural light tend to become hotter than the surrounding environment. This tendency is particularly noticeable indoors. Therefore, within a particular space, areas that are hotter than other areas within the space can be evaluated as having a low level of security for information processing terminals (i.e., there is a high possibility that output images will be viewed by a third party).

例えば、室内に小型カメラが密かに設置されている場合、当該小型カメラの設置場所の温度が、当該設置場所の近傍の温度よりも高くなりうる。この場合、小型カメラの設置場所の近傍における情報処理端末の安全性が小さくなり得る。その結果、小型カメラによる情報漏洩のリスクが抑制され得る。 For example, if a small camera is secretly installed in a room, the temperature at the location where the small camera is installed may be higher than the temperature in the vicinity of the installation location. In this case, the safety of information processing terminals in the vicinity of the installation location of the small camera may be reduced. As a result, the risk of information leakage due to the small camera may be reduced.

(明るさの状況)
明るさを評価するための指標としては、(i)現在時刻、現在時刻が属する時間帯、及び/又は、天候、(ii)照度などが例示される。現在時刻は、日付を示す情報を含んでもよく、日付を示す情報を含まなくてもよい。特定の時刻における屋外の明るさは、季節によって異なる場合がある。現在時刻が日付を示す情報を含む場合(現在日時と称される場合がある)、明るさがより正確に評価され得る。
(Brightness situation)
Examples of indicators for evaluating brightness include (i) the current time, the time zone to which the current time belongs, and/or weather, and (ii) illuminance. The current time may or may not include information indicating a date. The outdoor brightness at a specific time may vary depending on the season. When the current time includes information indicating a date (sometimes referred to as the current date and time), the brightness may be evaluated more accurately.

例えば、(i)周辺環境の明るさの程度が大きいほど、又は、(ii)設置位置の周辺に設定された領域の面積に対する、照度が予め定められた基準よりも大きな領域の面積の割合が大きいほど、情報処理端末のユーザが周囲に存在する第三者の存在に気が付きやすくなる一方、第三者も情報処理端末が出力した情報を閲覧しやすくなる。そこで、上記の明るさの程度が大きいほど又は上記の割合が大きいほど、情報処理端末の安全性の程度が大きいと評価され得る。また、上記の明るさの程度が大きいほど又は上記の割合が大きいほど、情報処理端末の安全性の程度が小さいと評価され得る。 For example, (i) the greater the brightness of the surrounding environment, or (ii) the greater the ratio of the area of the area set around the installation location where the illuminance is greater than a predetermined standard, the easier it is for the user of the information processing terminal to notice the presence of a third party in the vicinity, while also making it easier for the third party to view the information output by the information processing terminal. Thus, the greater the brightness or the greater the ratio, the greater the degree of safety of the information processing terminal can be evaluated. Also, the greater the brightness or the greater the ratio, the less safe the information processing terminal can be evaluated.

(気象の状況)
気象の状況としては、天候、気温、湿度、風速、気圧などが例示される。天候としては、天気の種類、日射量、降雨量、降雪量、霧の濃さなどが例示される。例えば、降雨量、降雪量、霧の濃さなどが大きいほど、視程が小さくなる。視程が小さいほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。
(Weather conditions)
Examples of meteorological conditions include weather, temperature, humidity, wind speed, and air pressure. Examples of meteorological conditions include type of weather, amount of solar radiation, amount of rainfall, amount of snowfall, and thickness of fog. For example, the greater the amount of rainfall, amount of snowfall, thickness of fog, and the like, the smaller the visibility. The smaller the visibility, the higher the degree of safety of the information processing terminal (i.e., the lower the possibility that an output image will be viewed by a third party).

また、例えば、気温が予め定められた第1域値よりも小さい場合(例えば、非常に寒い場合)、又は、気温が予め定められた第2閾値よりも小さい場合(例えば、非常に暑い場合)、設置位置の周辺に第三者が存在する可能性が小さくなる。そこで、気温が予め定められた第1域値よりも小さい場合又は気温が予め定められた第2閾値よりも小さい場合、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。 Furthermore, for example, if the temperature is lower than a predetermined first threshold (e.g., if it is very cold) or if the temperature is lower than a predetermined second threshold (e.g., if it is very hot), the possibility of a third party being present in the vicinity of the installation location is reduced. Therefore, if the temperature is lower than the predetermined first threshold or the temperature is lower than the predetermined second threshold, the degree of security of the information processing terminal can be evaluated as being high (i.e., the possibility that the output image will be viewed by a third party is low).

例えば、風速が大きい場合には、ドローンを利用した覗き見の可能性が小さくなる。また、気圧が低い場合には、高度が高い可能性がある。高度が大きければ、周囲からの覗き見の可能性が小さくなる。そのため、風速、気圧、高度などに基づいて、情報処理端末の安全性の程度が評価され得る。 For example, when the wind speed is high, the possibility of spying using a drone is reduced. Also, when the air pressure is low, the altitude may be high. If the altitude is high, the possibility of spying from the surroundings is reduced. Therefore, the degree of safety of an information processing terminal can be evaluated based on the wind speed, air pressure, altitude, etc.

(空気の状況)
空気の状況としては、(i)空気の透明さの度合い、視程、又は、浮遊物質若しくは飛散物質の濃度、(ii)匂いの度合い又は臭気物質の濃度などが例示される。例えば、空気の透明さの度合いが小さいほど、又は、浮遊物質若しくは飛散物質の濃度が大きいほど、視程が小さくなる。視程が小さいほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。浮遊物質又は飛散物質は、固体であってもよく、液体であってもよく、気体であってもよい。浮遊物質又は飛散物質としては、水滴(例えば、霧又は雨である)、化学物質、アレルゲン、砂塵、PM2.5などが例示される。アレルゲンとしては、花粉が例示される。
(Air conditions)
Examples of air conditions include (i) the degree of air transparency, visibility, or the concentration of suspended or scattered substances, and (ii) the degree of odor or the concentration of odorous substances. For example, the lower the degree of air transparency or the higher the concentration of suspended or scattered substances, the lower the visibility. The lower the visibility, the higher the degree of safety of the information processing terminal (i.e., the lower the possibility that the output image will be viewed by a third party). The suspended or scattered substances may be solid, liquid, or gas. Examples of suspended or scattered substances include water droplets (e.g., mist or rain), chemical substances, allergens, sand dust, PM2.5, etc. An example of an allergen is pollen.

また、例えば、周辺環境の臭気強度が大きいほど、設置位置の周辺に第三者が存在する可能性が小さくなる。そこで、匂いの度合い又は臭気物質の濃度が大きいほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。臭気物質は、固体であってもよく、液体であってもよく、気体であってもよい。 For example, the stronger the odor intensity in the surrounding environment, the less likely it is that a third party is present near the installation location. Therefore, the greater the degree of odor or the concentration of the odorous substance, the greater the degree of safety of the information processing terminal (i.e., the less likely it is that the output image will be viewed by a third party). The odorous substance may be a solid, liquid, or gas.

(人流の状況)
人流又は人口の状況としては、歩行者及び/又は車両の通行量又は流動量などが例示される。人流又は人口の状況は、歩行者の通行量又は流動量であってよい。歩行者及び/又は車両が少ないほど、情報処理端末の安全性の程度が大きい(つまり、第三者により出力画像が閲覧される可能性が小さい。)と評価され得る。
(Personnel flow situation)
Examples of the situation of people flow or population include the amount or flow of pedestrians and/or vehicles. The situation of people flow or population may be the amount or flow of pedestrians. The fewer the pedestrians and/or vehicles, the higher the degree of safety of the information processing terminal (i.e., the lower the possibility that the output image will be viewed by a third party) can be evaluated.

(物体検出結果に基づく安全性の評価)
さらに他の実施形態において、情報処理端末の設置位置及びその周辺における物体又は事象の検出結果に基づいて、情報処理端末の安全性を評価することが考えられる。情報処理端末の安全性は、検出された物体又は事象の種類及び/又は属性に基づいて評価されてもよい。物体又は事象の検出手法は、特に限定されるものではないが、画像解析、音声解析などが例示される。本手法は、情報処理端末の安全性が、設置位置又はその周辺の特徴ではなく、設置位置又はその周辺に配された物体の特徴に基づいて評価される点で、上述された他の実施形態に関連して説明された手法と相違する。
(Safety assessment based on object detection results)
In still another embodiment, it is possible to evaluate the safety of an information processing terminal based on the detection result of an object or event at the installation position of the information processing terminal and its surroundings. The safety of the information processing terminal may be evaluated based on the type and/or attribute of the detected object or event. The method of detecting the object or event is not particularly limited, but examples include image analysis and audio analysis. This method differs from the methods described in relation to the other embodiments described above in that the safety of the information processing terminal is evaluated based on the characteristics of an object disposed at the installation position or its surroundings, rather than the characteristics of the installation position or its surroundings.

(画像解析の一例)
例えば、情報処理端末の設置位置又はその周辺(設置位置等と称される場合がある。)を撮像して得られた画像を解析することで、当該設置位置等に配された物体又は当該設置位置等で生じた事象を検出したり、当該検出された物体又は事象の種類及び/又は属性を判別したりすることができる。上記の画像中に特定の物体に固有の色値、及び/又は、特定の物体に固有の特徴が検出された場合、当該特定の物体が検出及び判別され得る。特定の物体としては、人の顔、TV、額縁、ARマーカー、窓、ドア、撮像装置、ドローンなどが例示される。物体は、固体であってもよく、液体であってもよく、気体であってもよく、これらの組み合わせであってもよい。本願明細書においては、空、暗闇、海、波、炎のように定まった形状を有しないものであっても、色又は屈折率を有するものであれば物体として取り扱われ得る。
(An example of image analysis)
For example, by analyzing an image obtained by capturing an image of the installation position or its surroundings (sometimes referred to as the installation position, etc.) of the information processing terminal, it is possible to detect an object arranged at the installation position, etc. or an event occurring at the installation position, etc., and to determine the type and/or attribute of the detected object or event. When a color value and/or a feature unique to a specific object is detected in the above image, the specific object can be detected and determined. Examples of specific objects include a human face, a TV, a picture frame, an AR marker, a window, a door, an imaging device, a drone, etc. An object may be a solid, a liquid, a gas, or a combination thereof. In this specification, even if it does not have a fixed shape, such as the sky, darkness, the sea, waves, or a flame, it can be treated as an object as long as it has a color or a refractive index.

上記の画像が遠赤外線カメラにより撮像された画像である場合、例えば、布、壁などの背後に存在する人間が検出され得る。そこで、例えば、人間、撮像装置、ドローンなど予め定められた第1の種類の物体が検出された場合、情報処理端末の安全性の程度が小さい(つまり、第三者により出力画像が閲覧される可能性が大きい。)と評価され得る。 If the above image is an image captured by a far-infrared camera, for example, a human being present behind a cloth, a wall, etc. may be detected. Therefore, for example, if a predetermined first type of object such as a human being, an imaging device, or a drone is detected, the degree of security of the information processing terminal may be evaluated as low (i.e., there is a high possibility that the output image may be viewed by a third party).

一方、人間の顔が検出された場合であっても、検出された人間の顔がユーザの顔若しくは事前に登録された人間の顔である場合、情報漏洩のリスクは比較的小さい。人間の顔は、人間の特徴の一例であってよい。そこで、検出された物体の特徴と、予め安全性が確認された物体の特徴と比較するための処理が実行されてもよい。例えば、安全性が確認された物体の特徴は、例えば、予め作成されたホワイトリストに記録される。検出された物体の特徴と、予め安全性が確認された物体の特徴とが一致しない場合に、情報処理端末の安全性の程度が小さい(つまり、第三者により出力画像が閲覧される可能性が大きい。)と評価されてよい。 On the other hand, even if a human face is detected, if the detected human face is the user's face or a pre-registered human face, the risk of information leakage is relatively small. A human face may be an example of a human feature. Therefore, a process may be executed to compare the features of the detected object with the features of objects whose safety has been confirmed in advance. For example, the features of objects whose safety has been confirmed are recorded in a whitelist created in advance. If the features of the detected object do not match the features of objects whose safety has been confirmed in advance, the information processing terminal may be evaluated as having a low level of safety (i.e., there is a high possibility that the output image will be viewed by a third party).

また、人間、撮像装置、ドローンなどが検出された場合であっても、それらの検出位置がTVの画面の内側又は額縁の内側である場合、情報漏洩のリスクは比較的小さい。そこで、画像中に予め定められた第2の種類の物体が検出された場合、当該画像中の当該物体が検出された領域に位置する他の物体が、情報処理端末の安全性の評価に与える影響を小さくするための処理が実行されてよい。例えば、上記の領域の内部と外部とで、安全性の評価に関連する重み及び/又は閾値を調整するための処理が実行される。 Even if a human, imaging device, drone, etc. is detected, if the detection position is inside the TV screen or inside the frame, the risk of information leakage is relatively small. Therefore, when a predetermined second type of object is detected in an image, processing may be performed to reduce the impact on the safety evaluation of the information processing terminal of other objects located in the area in which the object in the image is detected. For example, processing is performed to adjust weights and/or thresholds related to the safety evaluation inside and outside the above-mentioned area.

さらに、画像中にARマーカー、QRコード(登録商標)、バーコードなどの符号化コードが検出された場合、当該符号化コードにより示される情報に基づいて、情報処理端末の安全性を評価するための処理が実行されてよい。符号化コードにより示される情報としては、当該符号化コードが検出された場合には安全と評価してよいこと、当該符号化コードが検出された場合には安全でないと評価してよいこと、当該符号化コードが配された位置における情報漏洩のリスクが小さいこと、当該符号化コードが配された位置における情報漏洩のリスクが大きいことなどが例示される。 Furthermore, when an encoded code such as an AR marker, a QR code (registered trademark), or a barcode is detected in an image, a process for evaluating the safety of the information processing terminal may be executed based on the information indicated by the encoded code. Examples of information indicated by the encoded code include that the encoded code may be evaluated as safe when detected, that the encoded code may be evaluated as unsafe when detected, that there is a low risk of information leakage at the position where the encoded code is placed, and that there is a high risk of information leakage at the position where the encoded code is placed.

(音声解析の一例)
例えば、情報処理端末の設置位置等で録音された音声を解析することで、当該設置位置等に配された物体又は当該設置位置等で生じた事象を検出したり、当該検出された物体又は事象の種類及び/又は属性を判別したりすることができる。例えば、上記の音声から犬の咆哮、人間の足音などが検出及び判別された場合、設置位置等の近傍に人間が存在する可能性が高い。
(An example of voice analysis)
For example, by analyzing a sound recorded at the installation position, etc. of the information processing terminal, it is possible to detect an object placed at the installation position, etc. or an event that occurred at the installation position, etc., and to determine the type and/or attribute of the detected object or event. For example, if a dog's howl, human footsteps, etc. are detected and determined from the above-mentioned sound, there is a high possibility that a human being is present near the installation position, etc.

そこで、特定の種類の音声が検出された場合、情報処理端末の安全性の程度が小さい(つまり、第三者により出力画像が閲覧される可能性が大きい。)と評価され得る。一方、人間の足音が検出された場合であっても、当該人間が設置位置等に近づいてきていると判定された場合と、当該人間が設置位置等から遠ざかっていると判定された場合とでは、情報漏洩のリスクが大きく異なる。そこで、音源の位置及び/又は当該位置の変動に基づいて、情報処理端末の安全性を評価するための処理が実行されてよい。例えば、音源の位置及び/又は当該位置の変動に基づいて、安全性の評価に関連する重み及び/又は閾値を調整するための処理が実行される。 Therefore, when a particular type of sound is detected, the information processing terminal may be evaluated as having a low level of safety (i.e., there is a high possibility that the output image may be viewed by a third party). On the other hand, even when human footsteps are detected, the risk of information leakage differs greatly between when it is determined that the human is approaching the installation location or the like and when it is determined that the human is moving away from the installation location or the like. Therefore, processing may be performed to evaluate the safety of the information processing terminal based on the position of the sound source and/or a change in the position. For example, processing is performed to adjust weights and/or thresholds related to the evaluation of safety based on the position of the sound source and/or a change in the position.

(その他の評価手法)
情報処理端末の安全性を評価する手法は、上述された手法に限定されない。また、上述された2以上の手法の組み合わせにより、情報処理端末の安全性が評価されてもよい。情報漏洩抑制システム100は、上述された2以上の手法の組み合わせのそれぞれにより導出された評価を総合的に判断することで、情報処理端末の安全性に関する最終的な評価を決定してよい。例えば、情報漏洩抑制システム100は、複数の手法のそれぞれに対する重みと、各手法により導出された評価とに基づいて、情報処理端末の安全性に関する最終的な評価を決定する。情報漏洩抑制システム100は、1以上の条件分岐と、複数の手法とを組み合わせて、情報処理端末の安全性に関する最終的な評価を決定してもよい。これにより、情報処理端末の安全性を精度よく評価することができる。例えば、第三者がカメラ154の前にユーザ本人の写真を提示して、ユーザになりすますことを試みた場合であっても、情報漏洩抑制システム100が、赤外線画像の解析、物体の動き又は光の揺らぎの解析などの解析結果も考慮して、情報処理端末の安全性を総合的に判断することで、情報漏洩抑制システム100は、上記のなりすまし行為による情報の漏洩を防止することができる。
(Other evaluation methods)
The method of evaluating the safety of the information processing terminal is not limited to the above-mentioned method. The safety of the information processing terminal may be evaluated by a combination of two or more of the above-mentioned methods. The information leakage prevention system 100 may determine a final evaluation of the safety of the information processing terminal by comprehensively judging the evaluations derived by each of the combinations of two or more of the above-mentioned methods. For example, the information leakage prevention system 100 determines a final evaluation of the safety of the information processing terminal based on the weights for each of the multiple methods and the evaluations derived by each method. The information leakage prevention system 100 may determine a final evaluation of the safety of the information processing terminal by combining one or more conditional branches and multiple methods. This allows the safety of the information processing terminal to be evaluated accurately. For example, even if a third party presents a photo of the user in front of camera 154 and attempts to impersonate the user, the information leakage prevention system 100 can prevent information leakage due to the above-mentioned impersonation act by taking into consideration the results of analysis such as infrared image analysis, analysis of object movement or light fluctuation, and making a comprehensive judgment on the safety of the information processing terminal.

(情報漏洩抑制システム100)
本実施形態によれば、図1から図12を用いて、情報漏洩抑制システム100の詳細が説明される。また、図13から図20を用いて、物体の動き又は光の揺らぎが検出される程度を評価する手法の詳細が説明される。本明細書の記載に接した当業者であれば、技術的に矛盾しない範囲において、一の実施形態について説明された技術的事項が、他の実施形態にも適用され得ることを理解することができる。
(Information Leakage Prevention System 100)
According to this embodiment, the details of the information leakage prevention system 100 are described with reference to Figures 1 to 12. In addition, the details of a method for evaluating the degree to which object movement or light fluctuation is detected are described with reference to Figures 13 to 20. A person skilled in the art who has come into contact with the description of this specification can understand that technical matters described in one embodiment can also be applied to other embodiments to the extent that there is no technical contradiction.

(情報漏洩抑制システム100の概要)
図1は、情報漏洩抑制システム100のシステム構成の一例を概略的に示す。本実施形態において、情報漏洩抑制システム100は、ユーザ端末120の安全性を評価する。より具体的には、情報漏洩抑制システム100は、第三者がユーザ端末120の出力画像を閲覧することに対する安全性を評価する。ユーザ端末120の安全性は、特定の位置及び方向に設置されたユーザ端末120の安全性を表してもよく、ユーザ端末120の設置位置の安全性を表してもよく、ユーザ端末120の設置位置及び設置方向の安全性を表してもよい。ユーザ端末120の設置位置は、表示領域142の設置位置の一例であってよい。ユーザ端末120の設置方向は、表示領域142の設置方向の一例であってよい。
(Overview of information leakage prevention system 100)
FIG. 1 is a schematic diagram showing an example of a system configuration of an information leakage prevention system 100. In this embodiment, the information leakage prevention system 100 evaluates the safety of the user terminal 120. More specifically, the information leakage prevention system 100 evaluates the safety of a third party viewing an output image of the user terminal 120. The safety of the user terminal 120 may represent the safety of the user terminal 120 installed at a specific position and direction, may represent the safety of the installation position of the user terminal 120, or may represent the safety of the installation position and installation direction of the user terminal 120. The installation position of the user terminal 120 may be an example of the installation position of the display area 142. The installation direction of the user terminal 120 may be an example of the installation direction of the display area 142.

例えば、情報漏洩抑制システム100は、(i)ユーザ端末120の設置位置の周辺における物体の動き又は光の揺らぎが検出される程度を示す指標、(ii)ユーザ端末120の設置位置の周辺に存在する遮蔽物の配置状況を示す指標、(iii)ユーザ端末120の設置位置の周辺環境の状況を示す指標の少なくとも1つに基づいて、ユーザ端末120の安全性を評価する。情報漏洩抑制システム100は、上記の少なくとも1つの指標に代えて、又は、上記の少なくとも1つの指標に加えて、ユーザ端末120の設置位置の周辺において検出された物体の特徴又は種類に基づいて、ユーザ端末120の安全性を評価してよい。上記の物体の特徴としては、当該物体に固有の色値が例示される。例えば、黒い物体と、夜空とは、それぞれ異なる色値を有する。これにより、夜空の絵画と、窓越しの夜空とが区別され得る。 For example, the information leakage prevention system 100 evaluates the safety of the user terminal 120 based on at least one of the following: (i) an index indicating the degree to which object movement or light fluctuation is detected around the installation location of the user terminal 120; (ii) an index indicating the arrangement of obstructions existing around the installation location of the user terminal 120; and (iii) an index indicating the surrounding environment of the installation location of the user terminal 120. Instead of or in addition to the at least one index described above, the information leakage prevention system 100 may evaluate the safety of the user terminal 120 based on the characteristics or type of objects detected around the installation location of the user terminal 120. Examples of the characteristics of the objects include color values unique to the objects. For example, a black object and a night sky have different color values. This allows a painting of the night sky to be distinguished from the night sky seen through a window.

本実施形態において、情報漏洩抑制システム100は、ユーザ端末120の設置を支援する。本実施形態において、情報漏洩抑制システム100は、ユーザ端末120が使用されている間、ユーザ端末120の安全性を監視する。 In this embodiment, the information leakage prevention system 100 assists in the installation of the user terminal 120. In this embodiment, the information leakage prevention system 100 monitors the security of the user terminal 120 while the user terminal 120 is in use.

本実施形態においては、ユーザ端末120が、上述された各種の情報処理を実行する場合を例として、情報漏洩抑制システム100の詳細が説明される。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、ユーザ端末120は、他のコンピュータと通信可能に構成され、当該他のコンピュータと協働して上述された各種の情報処理を実行してよい。 In this embodiment, the details of the information leakage prevention system 100 are described using an example in which the user terminal 120 executes the various information processes described above. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, the user terminal 120 may be configured to be able to communicate with other computers and may cooperate with the other computers to execute the various information processes described above.

(情報漏洩抑制システム100の各部の概要)
本実施形態において、情報漏洩抑制システム100は、ユーザ端末120を備える。本実施形態において、ユーザ端末120は、例えば、筐体130と、表示装置140と、環境センサ150と、入力装置160と、制御装置170とを有する。本実施形態において、表示装置140は、例えば、表示領域142を含む。本実施形態において、環境センサ150は、周辺データ生成装置152と、カメラ154と、照度センサ156とを含む。本実施形態において、表示領域142の設置位置が、ユーザ端末120の設置位置と称される場合がある。また、表示領域142の設置方向が、ユーザ端末120の設置方向と称される場合がある。
(Overview of each part of the information leakage prevention system 100)
In this embodiment, the information leakage prevention system 100 includes a user terminal 120. In this embodiment, the user terminal 120 includes, for example, a housing 130, a display device 140, an environmental sensor 150, an input device 160, and a control device 170. In this embodiment, the display device 140 includes, for example, a display area 142. In this embodiment, the environmental sensor 150 includes a peripheral data generating device 152, a camera 154, and an illuminance sensor 156. In this embodiment, the installation position of the display area 142 may be referred to as the installation position of the user terminal 120. In addition, the installation direction of the display area 142 may be referred to as the installation direction of the user terminal 120.

本実施形態において、ユーザ端末120は、ユーザに情報を出力する。ユーザ端末120は、画像により情報を出力してもよく、音声により情報を出力してもよい。ユーザ端末120は、ユーザからの情報の入力を受け付けてもよい。ユーザ端末120は、各種の情報処理を実行する。 In this embodiment, the user terminal 120 outputs information to the user. The user terminal 120 may output information by image or by sound. The user terminal 120 may accept information input from the user. The user terminal 120 executes various types of information processing.

本実施形態において、ユーザ端末120は、画像を出力する。ユーザ端末120が出力した画像は、表示領域142に表示される。表示領域142の視野角の範囲内に存在する人物(閲覧者と称される場合がある。)は、表示領域142に表示された画像を閲覧することができる。表示領域142の視野角の範囲内に撮像装置が配されている場合、当該撮像装置は、表示領域142に表示された画像を撮像することができる。撮像装置が撮像した画像データを取得した人物(閲覧者と称される場合がある。)は、表示領域142に表示された画像を閲覧することができる。 In this embodiment, the user terminal 120 outputs an image. The image output by the user terminal 120 is displayed in the display area 142. A person (sometimes referred to as a viewer) present within the viewing angle range of the display area 142 can view the image displayed in the display area 142. If an imaging device is disposed within the viewing angle range of the display area 142, the imaging device can capture the image displayed in the display area 142. A person (sometimes referred to as a viewer) who has acquired image data captured by the imaging device can view the image displayed in the display area 142.

一実施形態において、上記の画像は、ユーザによるユーザ端末120の操作に伴って出力される。例えば、ユーザは、入力装置160を介して、ユーザ端末120の上で動作するBIOS、オペレーションシステム(OSと称される場合がある。)又はアプリケーションプログラム(これらの総称としてプログラムという用語が用いられる場合がある。)に対する指示を、ユーザ端末120に入力する。ユーザ端末120は、当該指示に応じた情報処理を実行し、当該情報処理の結果を示す画像を表示領域142に表示する。 In one embodiment, the above image is output in response to a user's operation of the user terminal 120. For example, the user inputs instructions to the user terminal 120 via the input device 160 for the BIOS, operating system (sometimes referred to as OS), or application program (sometimes referred to collectively as program) running on the user terminal 120. The user terminal 120 executes information processing in response to the instructions, and displays an image showing the results of the information processing in the display area 142.

他の実施形態において、上記の画像は、ユーザ端末120の安全性の程度が予め定められた基準に合致しない場合に出力される。このような場合、例えば、警告メッセージ、警告画面、ロック画面、一部の領域の情報が隠匿された画面などが、表示領域142に表示される。 In another embodiment, the above image is output when the degree of security of the user terminal 120 does not meet a predetermined standard. In such a case, for example, a warning message, a warning screen, a lock screen, a screen in which information in some areas is concealed, or the like is displayed in the display area 142.

ユーザ端末120としては、パーソナルコンピュータ、携帯端末などが例示される。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。 Examples of user terminals 120 include personal computers and mobile terminals. Examples of mobile terminals include mobile phones, smartphones, PDAs, tablets, notebook or laptop computers, and wearable computers.

本実施形態において、筐体130は、表示装置140、周辺データ生成装置152、入力装置160及び制御装置170を支持する。表示装置140、周辺データ生成装置152、入力装置160及び制御装置170のそれぞれは、その少なくとも一部が筐体130の内部に収容されてもよく、筐体130の外部に取り付けられてもよい。 In this embodiment, the housing 130 supports the display device 140, the peripheral data generating device 152, the input device 160, and the control device 170. Each of the display device 140, the peripheral data generating device 152, the input device 160, and the control device 170 may be at least partially housed inside the housing 130, or may be attached to the outside of the housing 130.

本実施形態において、表示装置140は、画像を出力する。表示装置140は、制御装置170からの指示に従って画像を出力したり、画像の出力を停止したりしてよい。制御装置170からの指示に従って画像の明るさ又はコントラストを調整してもよい。表示装置140としては、ディスプレイ、プロジェクタなどが例示される。 In this embodiment, the display device 140 outputs an image. The display device 140 may output an image or stop outputting an image according to an instruction from the control device 170. The display device 140 may adjust the brightness or contrast of the image according to an instruction from the control device 170. Examples of the display device 140 include a display and a projector.

本実施形態において、表示領域142には、表示装置140の出力する画像(出力画像と称される場合がある。)が表示される。本実施形態において、表示領域142は、筐体130に配される。これにより、周辺データ生成装置152の光軸の向きと、表示領域142の法線ベクトルの向きとが略一致する。 In this embodiment, the image output by the display device 140 (sometimes referred to as an output image) is displayed in the display area 142. In this embodiment, the display area 142 is disposed in the housing 130. This causes the direction of the optical axis of the peripheral data generating device 152 and the direction of the normal vector of the display area 142 to approximately coincide.

本実施形態において、環境センサ150は、表示領域142の周辺環境に関する各種の情報を取得する。環境センサ150は、上記の各種の情報を取得するための1以上のセンサを含んでよい。上記のセンサとしては、各種の画像を取得するセンサ、音声を取得するセンサ、明るさを検出するセンサ、温度を検出するセンサ、距離又は深度を検出するセンサなどが例示される。環境センサ150は、上記の1以上のセンサが取得した情報を制御装置170に出力してよい。 In this embodiment, the environmental sensor 150 acquires various information related to the surrounding environment of the display area 142. The environmental sensor 150 may include one or more sensors for acquiring the above-mentioned various information. Examples of the above-mentioned sensors include a sensor for acquiring various images, a sensor for acquiring sound, a sensor for detecting brightness, a sensor for detecting temperature, a sensor for detecting distance or depth, and the like. The environmental sensor 150 may output the information acquired by the above-mentioned one or more sensors to the control device 170.

本実施形態において、周辺データ生成装置152は、表示領域142の周辺に配された1以上の物体(遮蔽物と称される場合がある。)に関する情報(周辺データと称される場合がある。)を生成する。周辺データ生成装置152は、生成された周辺データを制御装置170に出力する。表示領域142の周辺としては、表示領域142の視野角の範囲内の位置、表示領域142からの距離が予め定められた数値範囲である位置などが例示される。 In this embodiment, the peripheral data generating device 152 generates information (sometimes referred to as peripheral data) about one or more objects (sometimes referred to as obstructions) arranged around the display area 142. The peripheral data generating device 152 outputs the generated peripheral data to the control device 170. Examples of the periphery of the display area 142 include positions within the range of the viewing angle of the display area 142, positions whose distance from the display area 142 is within a predetermined numerical range, and the like.

例えば、周辺データ生成装置152は、表示領域142の周辺に配された1以上の遮蔽物と、表示領域142との相対位置を示す情報を生成する。各遮蔽物及び表示領域142の相対位置を示す情報としては、(i)表示領域142の代表点と、各遮蔽物の代表点との距離、(ii)表示領域142の代表点から各遮蔽物の代表点に向かう向き、(iii)表示領域142の代表点から各遮蔽物の代表点に向かう1以上のベクトルのそれぞれの大きさ及び向きなどが例示される。周辺データ生成装置152は、遮蔽物の位置、形状及び大きさの少なくとも1つを示す情報を生成してもよい。 For example, the surrounding data generating device 152 generates information indicating the relative position of one or more obstructions arranged around the display area 142 and the display area 142. Examples of information indicating the relative position of each obstruction and the display area 142 include (i) the distance between the representative point of the display area 142 and the representative point of each obstruction, (ii) the direction from the representative point of the display area 142 to the representative point of each obstruction, and (iii) the magnitude and direction of one or more vectors pointing from the representative point of the display area 142 to the representative point of each obstruction. The surrounding data generating device 152 may generate information indicating at least one of the position, shape, and size of the obstruction.

遮蔽物は、寸法に関する条件を満足する物体であってよい。寸法に関する条件としては、幅、高さ及び奥行きの少なくとも1つの大きさが予め定められた値より大きいという条件が例示される。遮蔽物は、当該物体が閲覧者及び表示領域142の間に配された場合に、閲覧者の視線を遮ることができる程度の大きさを有する物体であってよい。遮蔽物は、光の透過を抑制する物体であることが好ましい。しかしながら、遮蔽物が光の透過を抑制する程度は特に限定されない。遮蔽物は、ガラスのように透明な物体、及び/又は、格子のように貫通孔が形成された物体を含んでもよい。遮蔽物は、静止した物体であってよもよく、予め定められた範囲内で移動可能に構成された物体であってもよい。遮蔽物としては、家具、装飾品、電化製品、床、天井、壁、柱、梁、ドア、窓などが例示される。 The shielding object may be an object that satisfies a dimensional condition. An example of the dimensional condition is that at least one of the width, height, and depth is greater than a predetermined value. The shielding object may be an object that is large enough to block the viewer's line of sight when the object is placed between the viewer and the display area 142. The shielding object is preferably an object that suppresses the transmission of light. However, the degree to which the shielding object suppresses the transmission of light is not particularly limited. The shielding object may include a transparent object such as glass, and/or an object with through holes formed therein such as a lattice. The shielding object may be a stationary object, or may be an object that is configured to be movable within a predetermined range. Examples of the shielding object include furniture, ornaments, electrical appliances, floors, ceilings, walls, pillars, beams, doors, and windows.

一実施形態において、周辺データ生成装置152は、上記の周辺データとして、表示領域142の周辺に配された1以上の物体を被写体とする画像のデータ(画像データと称される場合がある。)を生成する。遮蔽物を被写体とする画像としては、二次元画像、ステレオ画像などが例示される。他の実施形態において、周辺データ生成装置152は、上記の周辺データとして、表示領域142の周辺に配された1以上の遮蔽物の三次元点群データ又は距離データ(三次元データと称される場合がある)を生成する。 In one embodiment, the peripheral data generating device 152 generates image data (sometimes referred to as image data) of one or more objects arranged around the display area 142 as the peripheral data. Examples of images of obstructing objects as subjects include two-dimensional images and stereoscopic images. In another embodiment, the peripheral data generating device 152 generates three-dimensional point cloud data or distance data (sometimes referred to as three-dimensional data) of one or more obstructing objects arranged around the display area 142 as the peripheral data.

三次元データの測定精度は特に限定されない。また、三次元データは、遮蔽物の一部に関する情報が欠落していてもよく、遮蔽物の一部の情報が他の情報から類推された情報であってもよい。距離データは、相対距離を示す情報、距離的な順位指標を示す情報等が含んでもよい。 The measurement accuracy of the three-dimensional data is not particularly limited. Furthermore, the three-dimensional data may be missing information about a portion of the obstruction, or the information about the portion of the obstruction may be inferred from other information. The distance data may include information indicating a relative distance, information indicating a distance ranking index, etc.

周辺データ生成装置152が三次元データを生成する場合、表示領域142の周辺の三次元仮想空間が構築され得る。これにより、遮蔽物により第三者の視線が遮蔽される度合いの算出手順が簡素化される。その結果、上述された遮蔽物の配置状況を示す指標を導出するための計算量が削減され得る。 When the surrounding data generating device 152 generates three-dimensional data, a three-dimensional virtual space around the display area 142 can be constructed. This simplifies the calculation procedure for the degree to which a third party's line of sight is blocked by an obstruction. As a result, the amount of calculation required to derive an index indicating the positioning status of the obstruction described above can be reduced.

なお、周辺データ生成装置152は、三次元データを生成しなくてもよい。この場合であっても、遮蔽物により第三者の視線が遮蔽される度合いは、周辺データ生成装置152が生成した画像データに基づき導出され得る。特に、周辺データ生成装置152及び表示領域142の位置座標が略同一であり、且つ、周辺データ生成装置152の光軸の方向と、及び表示領域142の法線ベクトルの方向とが略平行である場合には、遮蔽物により第三者の視線が遮蔽される度合いが精度よく導出される。 The peripheral data generating device 152 does not have to generate three-dimensional data. Even in this case, the degree to which the line of sight of a third party is blocked by an obstruction can be derived based on image data generated by the peripheral data generating device 152. In particular, when the position coordinates of the peripheral data generating device 152 and the display area 142 are approximately the same, and the direction of the optical axis of the peripheral data generating device 152 and the direction of the normal vector of the display area 142 are approximately parallel, the degree to which the line of sight of a third party is blocked by the obstruction can be derived with high accuracy.

周辺データ生成装置152としては、(i)画像を撮像するセンサ、(ii)音波、超音波又は電磁波を利用して対象物との距離を測定するセンサなどが例示される。より具体的には、周辺データ生成装置152としては、イメージセンサ、カメラ、ステレオカメラ、LiDAR、単眼カメラ深度距離計測装置(単眼デプス推定装置と称される場合がある。)などが例示される。上記のカメラに、魚眼レンズ、超広角レンズなどの光学部材が取り付けられてもよい。これにより、カメラの画角が増加する。 Examples of the peripheral data generating device 152 include (i) a sensor that captures an image, and (ii) a sensor that measures the distance to an object using sound waves, ultrasonic waves, or electromagnetic waves. More specifically, examples of the peripheral data generating device 152 include an image sensor, a camera, a stereo camera, LiDAR, and a monocular camera depth distance measuring device (sometimes referred to as a monocular depth estimation device). Optical components such as a fisheye lens or an ultra-wide-angle lens may be attached to the above-mentioned camera. This increases the angle of view of the camera.

周辺データ生成装置152の視野角(画角と称される場合がある。)は、表示領域142の視野角よりも大きくてよい。この場合、情報漏洩抑制システム100は、例えば、周辺データ生成装置152が生成した単一の画像データ又は単一の三次元データに基づいて、表示領域142が設置される方向(設置方向と称される場合がある。)の異なる複数の場合について、表示領域142の安全性を評価することができる。これにより、表示領域142の安全性が精度よく評価され得る。表示領域142の安全性としては、特定の位置及び方向に設置された表示領域142の安全性、表示領域142の設置位置の安全性、表示領域142の設置位置及び設置方向の安全性などが例示される。 The viewing angle (sometimes referred to as the viewing angle) of the peripheral data generating device 152 may be larger than the viewing angle of the display area 142. In this case, the information leakage prevention system 100 can evaluate the safety of the display area 142 for multiple cases in which the direction in which the display area 142 is installed (sometimes referred to as the installation direction) is different, for example, based on a single image data or a single three-dimensional data generated by the peripheral data generating device 152. This allows the safety of the display area 142 to be evaluated with high accuracy. Examples of the safety of the display area 142 include the safety of the display area 142 installed at a specific position and direction, the safety of the installation position of the display area 142, and the safety of the installation position and installation direction of the display area 142.

表示領域142の設置方向は、上述された情報処理端末の向きの一例であってよい。表示領域142の設置方向は、表示領域142の法線ベクトルの向きにより表されてもよく、表示領域142の前後の軸、上下の軸、及び、左右の軸の少なくとも1つの軸の周りの回転により表されてもよい。 The installation direction of the display area 142 may be an example of the orientation of the information processing terminal described above. The installation direction of the display area 142 may be represented by the direction of a normal vector of the display area 142, or may be represented by rotation around at least one of the front-back axis, the up-down axis, and the left-right axis of the display area 142.

表示領域142が筐体130に収容される場合、表示領域142の設置位置は、ユーザ端末120の設置位置と略一致する。また、この場合、表示領域142の設置方向は、ユーザ端末120の設置方向と略一致する。 When the display area 142 is housed in the housing 130, the installation position of the display area 142 approximately coincides with the installation position of the user terminal 120. In this case, the installation direction of the display area 142 approximately coincides with the installation direction of the user terminal 120.

本実施形態において、カメラ154は、複数の静止画像(フレームと称される場合がある。)を含む動画のデータ(動画データと称される場合がある。)を生成する。例えば、カメラ154は、表示領域142の設置予定場所又は設置場所(上述されたとおり、単に、設置位置と表記される場合がある。)の周辺を撮像し、動画データを生成する。カメラ154は、生成された動画データを制御装置170に出力する。カメラ154は、二次元画像を撮像するためのイメージセンサであってもよく、赤外線画像(熱画像と称される場合がある)を撮像する赤外線カメラであってもよい。 In this embodiment, camera 154 generates video data (sometimes referred to as video data) including multiple still images (sometimes referred to as frames). For example, camera 154 captures an image of the periphery of the planned installation location or installation location (as described above, sometimes simply referred to as the installation position) of display area 142, and generates video data. Camera 154 outputs the generated video data to control device 170. Camera 154 may be an image sensor for capturing two-dimensional images, or an infrared camera for capturing infrared images (sometimes referred to as thermal images).

本実施形態において、カメラ154は、筐体130に配される。本実施形態においては、表示領域142も筐体130に配されていることから、カメラ154が動画を撮像した位置(撮像位置と称される場合がある。)と、表示領域142又はユーザ端末120の設置位置とが略一致する。また、カメラ154の光軸の向きと、表示領域142の法線ベクトルの向きとが略一致する。そのため、カメラ154が動画を撮像した方向(撮像方向と称される場合がある。)と、表示領域142又はユーザ端末120の設置方向とが略一致する。 In this embodiment, the camera 154 is disposed in the housing 130. In this embodiment, the display area 142 is also disposed in the housing 130, so the position where the camera 154 captures the video (sometimes referred to as the capture position) and the installation position of the display area 142 or the user terminal 120 are approximately the same. In addition, the direction of the optical axis of the camera 154 and the direction of the normal vector of the display area 142 are approximately the same. Therefore, the direction where the camera 154 captures the video (sometimes referred to as the capture direction) and the installation direction of the display area 142 or the user terminal 120 are approximately the same.

なお、周辺データ生成装置152が撮像素子を備える場合、ユーザ端末120はカメラ154を備えなくてもよい。この場合、上記の撮像素子が、本実施形態に係るカメラ154と同様の機能を有してよい。 Note that if the peripheral data generating device 152 includes an imaging element, the user terminal 120 does not need to include the camera 154. In this case, the imaging element may have the same function as the camera 154 according to this embodiment.

本実施形態において、照度センサ156は、表示領域142の設置位置の周辺の照度を測定する。照度センサ156は、測定結果を示す情報を制御装置170に出力する。 In this embodiment, the illuminance sensor 156 measures the illuminance around the installation position of the display area 142. The illuminance sensor 156 outputs information indicating the measurement result to the control device 170.

本実施形態において、入力装置160は、ユーザ端末120のユーザからの入力を受け付ける。入力装置160は、ユーザが入力した情報を制御装置170に出力する。入力装置160としては、キーボード、ポインティングデバイス、タッチパネル、マイクなどが例示される。 In this embodiment, the input device 160 accepts input from a user of the user terminal 120. The input device 160 outputs information input by the user to the control device 170. Examples of the input device 160 include a keyboard, a pointing device, a touch panel, and a microphone.

本実施形態において、制御装置170は、ユーザ端末120を制御する。制御装置170は、ユーザ端末120における各種の情報処理を実行する。例えば、制御装置170は、周辺データ生成装置152が取得したデータに基づいて、ユーザ端末120の設置位置及び/又は設置方向の安全性を評価する。制御装置170は、周辺データ生成装置152が取得したデータを、複数のアプリケーションプログラムに入力してよい。例えば、制御装置170は、周辺データ生成装置152が取得したデータを、複数のアプリケーションプログラムに入力するための仮想カメラドライバを備える。制御装置170の詳細は後述される。 In this embodiment, the control device 170 controls the user terminal 120. The control device 170 executes various information processing in the user terminal 120. For example, the control device 170 evaluates the safety of the installation position and/or installation direction of the user terminal 120 based on the data acquired by the peripheral data generating device 152. The control device 170 may input the data acquired by the peripheral data generating device 152 to multiple application programs. For example, the control device 170 includes a virtual camera driver for inputting the data acquired by the peripheral data generating device 152 to multiple application programs. Details of the control device 170 will be described later.

制御装置170により実行される情報処理方法は、例えば、画像出力装置の出力する出力画像が表示される表示領域の周辺の状態を示す周辺状態情報を取得する周辺状態取得を有する。上記の情報処理方法は、例えば、周辺状態取得段階において取得された周辺状態情報により示される表示領域の周辺の状態に基づいて、画像出力装置のユーザとは異なる第三者による出力画像の閲覧可能性の程度を導出する閲覧可能性導出段階を有する。 The information processing method executed by the control device 170 includes, for example, peripheral state acquisition, which acquires peripheral state information indicating the peripheral state of the display area in which the output image output by the image output device is displayed. The above information processing method includes, for example, a viewability derivation step, which derives the degree of viewability of the output image by a third party other than the user of the image output device, based on the peripheral state of the display area indicated by the peripheral state information acquired in the peripheral state acquisition step.

制御装置170により実行される情報処理方法は、画像処理方法であってよい。上記の画像処理方法は、例えば、複数のフレームを含む動画のデータを取得する動画取得段階を有する。上記の画像処理方法は、例えば、(a)動画の各フレームを予め定められた複数の領域に区分し、(b)複数の領域のそれぞれについて、各領域に含まれる画素の画素値に基づいて、複数のフレームの間における各領域の色及び/又は明るさの変動を示す指標である変動指標の値を導出する変動指標導出段階を有する。上記の画像処理方法において、複数の領域のそれぞれは、例えば、1以上の画素を含む。 The information processing method executed by the control device 170 may be an image processing method. The above image processing method, for example, has a video acquisition step of acquiring data of a video including a plurality of frames. The above image processing method, for example, has a variation index derivation step of (a) dividing each frame of the video into a plurality of predetermined regions, and (b) deriving, for each of the plurality of regions, a value of a variation index that is an index showing the variation of color and/or brightness of each region among a plurality of frames, based on the pixel values of the pixels included in each region. In the above image processing method, each of the plurality of regions includes, for example, one or more pixels.

情報漏洩抑制システム100は、情報処理装置の一例であってよい。ユーザ端末120は、情報処理装置又は画像出力装置の一例であってよい。表示装置140は、画像出力装置の一例であってよい。カメラ154は、撮像装置の一例であってよい。撮像装置は、周辺状態取得部の一例であってよい。撮像装置は、周辺状態情報を生成し、当該周辺状態情報を周辺状態取得部に出力する装置の一例であってもよい。照度センサ156は、環境情報取得部の一例であってよい。照度センサ156は、環境情報を生成し、当該環境情報を環境情報取得部に出力する装置の一例であってもよい。制御装置170は、情報処理装置、画像出力装置、撮像装置、環境情報取得部又は出力制御部の一例であってよい。 The information leakage prevention system 100 may be an example of an information processing device. The user terminal 120 may be an example of an information processing device or an image output device. The display device 140 may be an example of an image output device. The camera 154 may be an example of an imaging device. The imaging device may be an example of a surrounding state acquisition unit. The imaging device may be an example of a device that generates surrounding state information and outputs the surrounding state information to the surrounding state acquisition unit. The illuminance sensor 156 may be an example of an environmental information acquisition unit. The illuminance sensor 156 may be an example of a device that generates environmental information and outputs the environmental information to the environmental information acquisition unit. The control device 170 may be an example of an information processing device, an image output device, an imaging device, an environmental information acquisition unit, or an output control unit.

表示装置140が出力する画像は、出力画像の一例であってよい。ユーザ端末120の安全性の程度は、出力画像の閲覧可能性の程度の一例であってよい。表示領域142の安全性の程度は、出力画像の閲覧可能性の程度の一例であってよい。周辺データ生成装置152が生成する遮蔽物に関する情報は、周辺データの一例であってよい。画像データは、周辺データの一例であってよい。三次元データは、周辺データの一例であってよい。 The image output by the display device 140 may be an example of an output image. The degree of safety of the user terminal 120 may be an example of the degree of viewability of the output image. The degree of safety of the display area 142 may be an example of the degree of viewability of the output image. Information about obstructions generated by the surrounding data generating device 152 may be an example of surrounding data. Image data may be an example of surrounding data. Three-dimensional data may be an example of surrounding data.

(別実施形態の一例)
本実施形態においては、表示領域142が表示装置140の一部である場合を例として、情報漏洩抑制システム100の一例が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、表示領域142は、表示装置140から物理的に離れた位置に配される。例えば、表示装置140がプロジェクタである場合、表示領域142としてスクリーンが用いられる。
(An example of another embodiment)
In the present embodiment, an example of the information leakage prevention system 100 has been described by taking as an example a case where the display area 142 is a part of the display device 140. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, the display area 142 is disposed at a position physically separated from the display device 140. For example, when the display device 140 is a projector, a screen is used as the display area 142.

図2は、表示領域142及び周辺データ生成装置152の視野角を概略的に示す。図2に関連して説明される実施形態においては、表示領域142の代表点240と、周辺データ生成装置152の代表点250とが略一致する場合を例として、表示領域142及び周辺データ生成装置152の視野角の関係が説明される。図1に関連して説明されたとおり、本実施形態においては、表示領域142が表示装置140の一部であり、表示装置140及び周辺データ生成装置152が同一の筐体130に収容される。そのため、図2に示されるとおり、表示領域142の法線ベクトル242の方向と、周辺データ生成装置152の光軸252の方向とが略一致する。 2 shows a schematic diagram of the viewing angles of the display area 142 and the peripheral data generating device 152. In the embodiment described in relation to FIG. 2, the relationship between the viewing angles of the display area 142 and the peripheral data generating device 152 is described using an example in which the representative point 240 of the display area 142 and the representative point 250 of the peripheral data generating device 152 are approximately coincident. As described in relation to FIG. 1, in this embodiment, the display area 142 is part of the display device 140, and the display device 140 and the peripheral data generating device 152 are housed in the same housing 130. Therefore, as shown in FIG. 2, the direction of the normal vector 242 of the display area 142 and the direction of the optical axis 252 of the peripheral data generating device 152 are approximately coincident.

本実施形態において、表示領域142の視野角(視野角θ又は画角と称される場合がある。)は、法線ベクトル242及びベクトル244のなす角度θDRの絶対値と、法線ベクトル242及びベクトル246のなす角度θDLの絶対値との和として導出される。同様に、本実施形態において、周辺データ生成装置152の視野角(視野角θ又は画角と称される場合がある。)は、光軸252及びベクトル254のなす角度θCRの絶対値と、光軸252及びベクトル256のなす角度θCLの絶対値との和として導出される。 In this embodiment, the viewing angle (sometimes referred to as viewing angle θ D or angle of view) of the display region 142 is derived as the sum of the absolute value of the angle θ DR between the normal vector 242 and the vector 244 and the absolute value of the angle θ DL between the normal vector 242 and the vector 246. Similarly, in this embodiment, the viewing angle (sometimes referred to as viewing angle θ C or angle of view) of the peripheral data generating device 152 is derived as the sum of the absolute value of the angle θ CR between the optical axis 252 and the vector 254 and the absolute value of the angle θ CL between the optical axis 252 and the vector 256.

(別実施形態の一例)
本実施形態においては、表示領域142の視野角が、周辺データ生成装置152の視野角よりも小さい場合を例として、情報漏洩抑制システム100の一例が説明された。例えば、表示領域142の表面に、第三者からの覗き見を防止するためのフィルムが貼付されている場合、表示領域142の視野角は、周辺データ生成装置152の視野角よりも小さくなり得る。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、表示領域142の視野角は、周辺データ生成装置152の視野角より大きくてよい。
(An example of another embodiment)
In this embodiment, an example of the information leakage suppression system 100 has been described using a case where the viewing angle of the display area 142 is smaller than the viewing angle of the peripheral data generating device 152 as an example. For example, if a film for preventing a third party from peeking is attached to the surface of the display area 142, the viewing angle of the display area 142 may be smaller than the viewing angle of the peripheral data generating device 152. However, the information leakage suppression system 100 is not limited to this embodiment. In other embodiments, the viewing angle of the display area 142 may be larger than the viewing angle of the peripheral data generating device 152.

図3は、ユーザ端末120の配置の一例を概略的に示す。本実施形態においては、ユーザ端末120が作業部屋300の内部の位置A、位置B又は位置Cに配される場合を例として、ユーザ端末120の配置の一例が説明される。 Figure 3 shows a schematic diagram of an example of the arrangement of the user terminal 120. In this embodiment, an example of the arrangement of the user terminal 120 is described using as an example a case where the user terminal 120 is arranged at position A, position B, or position C inside the work room 300.

本実施形態において、作業部屋300は、壁312と、壁314と、壁316と、壁318と、床320とを備える。本実施形態において、作業部屋300の内部には、遮蔽物330が配される。壁316の表面には、マーカ342、マーカ344及びマーカ346が配される。壁318には、ガラス窓322が配される。 In this embodiment, the work room 300 includes a wall 312, a wall 314, a wall 316, a wall 318, and a floor 320. In this embodiment, a shield 330 is arranged inside the work room 300. Markers 342, 344, and 346 are arranged on the surface of the wall 316. A glass window 322 is arranged on the wall 318.

(位置Aにおける安全性)
図3に示されるとおり、ユーザ端末120のユーザ22が、表示領域142の法線ベクトル242が図中下向きとなるように、ユーザ端末120を位置Aに設置する場合、表示領域142に表示される画像を閲覧可能な空間は、ベクトル244、ベクトル246、壁314及び床320により囲まれた空間となる。この場合、ユーザ22とは異なる第三者32及び第三者34は、表示領域142に表示される画像を閲覧することができない。
(Safety at Position A)
3, when a user 22 of the user terminal 120 places the user terminal 120 at position A so that a normal vector 242 of the display area 142 faces downward in the figure, the space in which the image displayed in the display area 142 can be viewed is the space surrounded by vectors 244 and 246, a wall 314, and a floor 320. In this case, a third party 32 and a third party 34 different from the user 22 cannot view the image displayed in the display area 142.

そのため、第三者32及び第三者34が、ユーザ端末120の出力画像に含まれる情報を閲覧する正当な権限を有していない場合であっても、当該情報が漏洩する可能性は小さく、位置Aにおけるユーザ端末120の安全性は高いと評価され得る。このように、制御装置170は、例えば、ユーザ端末120の設置位置の周辺に配された遮蔽物の配置を評価することで、ユーザ端末120の安全性を評価することができる。 Therefore, even if third parties 32 and 34 do not have the proper authority to view the information contained in the output image of user terminal 120, the possibility of the information being leaked is small, and the safety of user terminal 120 at position A can be evaluated as high. In this way, control device 170 can evaluate the safety of user terminal 120, for example, by evaluating the placement of obstructions around the installation position of user terminal 120.

(位置Bにおける安全性)
ユーザ端末120のユーザ22が、表示領域142の法線ベクトル242が図中右向きとなるように、ユーザ端末120を位置Bに設置する場合、表示領域142に出力される画像を閲覧可能な空間は、ベクトル244、ベクトル246、壁316、遮蔽物330及び床320により囲まれた空間となる。この場合、第三者32は、表示領域142に表示される画像を閲覧することができる。一方、第三者34は、表示領域142に表示される画像を閲覧することができない。
(Safety at Position B)
When a user 22 of the user terminal 120 places the user terminal 120 at position B so that a normal vector 242 of the display area 142 faces rightward in the figure, the space in which the image output to the display area 142 can be viewed is the space surrounded by vector 244, vector 246, wall 316, obstruction 330, and floor 320. In this case, a third party 32 can view the image displayed in the display area 142. On the other hand, a third party 34 cannot view the image displayed in the display area 142.

本実施形態において、位置Bと、壁318との距離Lbは、位置Aと、壁314との距離Laよりも大きい。そのため、ユーザ端末120を位置Bに設置する場合には、ユーザ端末120を位置Aに設置する場合と比較して、上記の画像を閲覧可能な空間の大きさが大きくなり、第三者32が当該空間内に侵入する可能性も大きくなる(つまり、安全性は低下する)。 In this embodiment, the distance Lb between position B and wall 318 is greater than the distance La between position A and wall 314. Therefore, when user terminal 120 is installed at position B, the size of the space in which the above images can be viewed becomes larger than when user terminal 120 is installed at position A, and the possibility that a third party 32 will enter the space also becomes greater (i.e., safety is reduced).

そのため、制御装置170は、上記の空間の内部における第三者の有無、上記の空間の内部への第三者の侵入の有無などを考慮して、位置Bにおけるユーザ端末120の安全性を評価することが好ましい。上述されたとおり、制御装置170は、例えば、ユーザ端末120の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度を評価することができる。これにより、制御装置170は、ユーザ端末120の安全性を精度よく評価することができる。 Therefore, it is preferable that the control device 170 evaluates the safety of the user terminal 120 at position B, taking into consideration the presence or absence of a third party within the above-mentioned space, and the presence or absence of a third party intruding into the above-mentioned space. As described above, the control device 170 can evaluate, for example, the degree to which object movement or light fluctuation is detected in the vicinity of the installation position of the user terminal 120. This allows the control device 170 to accurately evaluate the safety of the user terminal 120.

加えて、本実施形態によれば、ユーザ22の背後に位置する壁318にガラス窓322が配されている。そのため、制御装置170は、ガラス窓322の外部に存在する第三者が出力画像を閲覧する可能性を考慮して、位置Bにおけるユーザ端末120の安全性を評価することが好ましい。 In addition, according to this embodiment, a glass window 322 is provided in the wall 318 located behind the user 22. Therefore, it is preferable that the control device 170 evaluates the safety of the user terminal 120 at position B, taking into account the possibility that a third party outside the glass window 322 may view the output image.

特に、ガラス窓322の外部が作業部屋300の内部よりも暗い場合には、ガラス窓322の外部が作業部屋300の内部よりも明るい場合と比較して、周辺データ生成装置152又はカメラ154が取得した情報に基づいてガラス窓322の外部に存在する第三者を検出することが難しい。そのため、上記の空間中にガラス窓322が存在する場合、及び/又は、ガラス窓322の外部が作業部屋300の内部よりも暗い場合には、位置Bにおけるユーザ端末120の安全性が低下する。 In particular, when the outside of the glass window 322 is darker than the inside of the work room 300, it is more difficult to detect a third party outside the glass window 322 based on the information acquired by the peripheral data generating device 152 or the camera 154, compared to when the outside of the glass window 322 is brighter than the inside of the work room 300. Therefore, when the glass window 322 is present in the above-mentioned space and/or when the outside of the glass window 322 is darker than the inside of the work room 300, the safety of the user terminal 120 at position B is reduced.

上述されたとおり、制御装置170は、例えば、ユーザ端末120の設置位置の周辺の明るさを評価することができる。制御装置170は、ガラス窓322の明るさを評価することで、ガラス窓322の外部の明るさを評価してよい。これにより、制御装置170は、ユーザ端末120の安全性を精度よく評価することができる。 As described above, the control device 170 can, for example, evaluate the brightness around the installation location of the user terminal 120. The control device 170 can evaluate the brightness outside the glass window 322 by evaluating the brightness of the glass window 322. This allows the control device 170 to accurately evaluate the safety of the user terminal 120.

(位置Cにおける安全性)
ユーザ端末120のユーザ22が、表示領域142の法線ベクトル242が図中右向きとなるように、ユーザ端末120を位置Cに設置する場合、表示領域142に出力される画像を閲覧可能な空間は、ベクトル244、ベクトル246、壁318及び床320により囲まれた空間となる。第三者32及び第三者34は、表示領域142に表示される画像を閲覧することができない
(Safety at Position C)
When the user 22 of the user terminal 120 places the user terminal 120 at position C so that the normal vector 242 of the display area 142 faces rightward in the figure, the space in which the image output to the display area 142 can be viewed is the space surrounded by the vector 244, the vector 246, the wall 318, and the floor 320. The third parties 32 and 34 cannot view the image displayed in the display area 142.

本実施形態によれば、ユーザ22の背後に位置する壁316にマーカ342、マーカ344及びマーカ346が配される。本実施形態において、マーカ342及びマーカ344は、上記の空間の内部に配される。一方。マーカ346は、上記の空間の外部に配される。ユーザ22がユーザ端末120を使用している期間中、制御装置170は、環境センサ150が取得したデータを解析して、マーカ342及びマーカ344を検出する。制御装置170がマーカ342及びマーカ344の少なくとも一方を検出することができなくなった場合、制御装置170は、例えば、何らかの原因によりユーザ端末120の安全性が低下したと判定する。上記の原因としては、ユーザ端末120と壁316との間に第三者が侵入したこと、ユーザ端末120の設置位置及び設置方向の少なくとも一方が変更されたことなどが例示される。 According to this embodiment, markers 342, 344, and 346 are arranged on the wall 316 located behind the user 22. In this embodiment, markers 342 and 344 are arranged inside the above-mentioned space. On the other hand, marker 346 is arranged outside the above-mentioned space. While the user 22 is using the user terminal 120, the control device 170 analyzes the data acquired by the environmental sensor 150 to detect markers 342 and 344. If the control device 170 is no longer able to detect at least one of markers 342 and 344, the control device 170 determines, for example, that the safety of the user terminal 120 has decreased due to some cause. Examples of the above-mentioned cause include a third party entering between the user terminal 120 and the wall 316, or at least one of the installation position and installation direction of the user terminal 120 being changed.

このように、制御装置170は、ユーザ端末120の周辺に配された各種のマーカを利用して、ユーザ端末120の安全性を精度よく評価することができる。これにより、情報の漏洩が高度に防止され得る。 In this way, the control device 170 can use various markers placed around the user terminal 120 to accurately evaluate the safety of the user terminal 120. This can highly effectively prevent information leaks.

マーカ342、マーカ344及びマーカ346には、各種の情報が付与され得る。制御装置170は、各マーカに付与された情報を利用してユーザ端末120の安全性を評価することができる。これにより、安全性の判定精度がさらに向上する。そのため、位置Cにおけるユーザ端末120の安全性がさらに向上する。各マーカの詳細は後述される。 Various pieces of information may be attached to markers 342, 344, and 346. The control device 170 can use the information attached to each marker to evaluate the safety of the user terminal 120. This further improves the accuracy of the safety determination. Therefore, the safety of the user terminal 120 at position C is further improved. Details of each marker will be described later.

(制御装置170における情報処理の概要)
図3に示されるとおり、ユーザ端末120のユーザ22とは異なる第三者32又は第三者34により出力画像が閲覧される可能性(閲覧可能性と称される場合がある。)の程度は、ユーザ端末120の設置位置及び設置方向によって大きく異なる。しかしながら、ユーザ22が閲覧可能性の程度を客観的に把握することは難しい。そのため、ユーザ22が、感覚的に安全だと考えた場所にユーザ端末120を設置した場合であっても、当該設置位置の周辺に存在する遮蔽物の配置の状況によっては、客観的には閲覧可能性の程度が大きいということがあり得る。なお、閲覧可能性の程度が大きいほど、第三者の覗き見による情報漏洩のリスクが大きく、安全性が小さい。
(Overview of information processing in the control device 170)
As shown in Fig. 3, the degree of possibility (sometimes referred to as viewability) that the output image will be viewed by a third party 32 or a third party 34 other than the user 22 of the user terminal 120 varies greatly depending on the installation position and installation direction of the user terminal 120. However, it is difficult for the user 22 to objectively grasp the degree of viewability. Therefore, even if the user 22 installs the user terminal 120 in a place that the user 22 intuitively considers to be safe, the degree of viewability may be objectively high depending on the arrangement of obstructions around the installation position. Note that the higher the degree of viewability, the higher the risk of information leakage due to a third party peeking, and the lower the safety.

そこで、本実施形態において、制御装置170は、周辺データ生成装置152が生成した各種の周辺データに基づいて、上記の閲覧可能性の程度を導出する。これにより、ユーザ端末120の設置位置及び設置方向の安全性が客観的に担保され得る。閲覧可能性の程度を導出するための手順の詳細は後述される。 Therefore, in this embodiment, the control device 170 derives the degree of viewability based on various types of peripheral data generated by the peripheral data generating device 152. This makes it possible to objectively ensure the safety of the installation position and installation direction of the user terminal 120. The procedure for deriving the degree of viewability will be described in detail later.

(マーカの概要)
マーカ342、マーカ344及びマーカ346のそれぞれは、各種の情報を含むことができる。マーカ342、マーカ344及びマーカ346のそれぞれは、制御装置170が各マーカを識別するための識別情報を含んでよい。マーカ342、マーカ344及びマーカ346のそれぞれは、AR(Augmented Reality)マーカ、QRコード(登録商標)、バーコードなどの符号化コードであってもよい。
(Marker Overview)
Each of the markers 342, 344, and 346 may include various types of information. Each of the markers 342, 344, and 346 may include identification information that allows the control device 170 to identify each marker. Each of the markers 342, 344, and 346 may be an encoded code such as an AR (Augmented Reality) marker, a QR code (registered trademark), or a barcode.

マーカ342、マーカ344及びマーカ346のそれぞれがARマーカとして利用される場合、各マーカは、例えば、各マーカに対応する物体の三次元モデルに関する情報を含む。これにより、制御装置170は、作業部屋300に対応する三次元仮想空間における各マーカの位置に、各マーカにより示される物体に対応する三次元モデルを配置することができる。 When each of markers 342, 344, and 346 is used as an AR marker, each marker includes, for example, information regarding a three-dimensional model of the object corresponding to each marker. This allows the control device 170 to place a three-dimensional model corresponding to the object indicated by each marker at the position of each marker in the three-dimensional virtual space corresponding to the work room 300.

マーカ342は、例えば、マーカ342の検出位置の右側に、遮蔽物330の三次元モデル又は遮蔽物330を模した点群を発生するための情報を含む。これにより、制御装置170は、三次元仮想空間上に、遮蔽物330に対応する三次元モデルを構築することができる。マーカ342は、マーカ342の検出位置の左側に、予め定められた幅及び高さを有する三次元モデル又は点群を発生させるための情報を含んでもよい。これにより、制御装置170は、三次元仮想空間上に、壁316の一部に対応する三次元モデルを構築することができる。 Marker 342 includes, for example, information for generating a three-dimensional model of obstruction 330 or a point cloud simulating obstruction 330 to the right of the detection position of marker 342. This allows control device 170 to construct a three-dimensional model corresponding to obstruction 330 in the three-dimensional virtual space. Marker 342 may also include information for generating a three-dimensional model or point cloud having a predetermined width and height to the left of the detection position of marker 342. This allows control device 170 to construct a three-dimensional model corresponding to a portion of wall 316 in the three-dimensional virtual space.

マーカ344は、例えば、マーカ344の検出位置の右側に、予め定められた幅及び高さを有する三次元モデル又は点群を発生させるための情報と、マーカ344の検出位置の左側に、予め定められた幅及び高さを有する三次元モデル又は点群を発生させるための情報とを含む。これにより、制御装置170は、三次元仮想空間上に、壁316の一部の三次元モデルを構築することができる。 The marker 344 includes, for example, information for generating a three-dimensional model or point cloud having a predetermined width and height to the right of the detection position of the marker 344, and information for generating a three-dimensional model or point cloud having a predetermined width and height to the left of the detection position of the marker 344. This allows the control device 170 to construct a three-dimensional model of a portion of the wall 316 in the three-dimensional virtual space.

マーカ346は、例えば、マーカ346の検出位置の右側に、予め定められた幅及び高さを有する三次元モデル又は点群を発生させるための情報を含む。これにより、制御装置170は、三次元仮想空間上に、壁316の一部に対応する三次元モデルを構築することができる。 The marker 346 includes information for generating a three-dimensional model or point cloud having a predetermined width and height, for example, to the right of the detection position of the marker 346. This allows the control device 170 to construct a three-dimensional model corresponding to a portion of the wall 316 in the three-dimensional virtual space.

ARマーカとしては、ArUco、カメレオンコードなどが例示される。しかしながら、ARマーカはこれらに限定されない。他の実施形態によれば、例えば、QRコード(登録商標)及びバーコードが、ARマーカとして利用される。さらに他の実施形態において、画像中の被写体がARマーカとして利用されてもよい。例えば、画像解析により画像中の被写体の中から既知の物体を検出する技術(例えば、各種の深層学習技術である。)を用いることで、当該既知の物体をARマーカとして利用することができる。上記の技術によれば、まず、道路標識、自販機、電子レンジ、本、椅子などの既知の物体の特徴を予め分類器に学習させる。次に、学習済みの分類器を用いて、画像中の被写体うち既知の物体の向き、当該物体と撮像装置との距離などを類推する。これにより、上記の物体の三次元座標が導出され得る。後述されるように、上記の物体の形状及び大きさが既知である場合、三次元仮想空間中に、上記の物体の三次元モデルが構築され得る。 Examples of AR markers include ArUco and chameleon codes. However, the AR marker is not limited to these. According to another embodiment, for example, a QR code (registered trademark) and a barcode are used as the AR marker. In still another embodiment, a subject in an image may be used as an AR marker. For example, by using a technology (for example, various deep learning technologies) that detects a known object from among the subjects in an image by image analysis, the known object can be used as an AR marker. According to the above technology, first, a classifier is made to learn the characteristics of known objects such as road signs, vending machines, microwave ovens, books, and chairs in advance. Next, the learned classifier is used to infer the orientation of the known object among the subjects in the image, the distance between the object and the imaging device, and the like. This allows the three-dimensional coordinates of the object to be derived. As described later, if the shape and size of the object are known, a three-dimensional model of the object can be constructed in a three-dimensional virtual space.

例えば、マーカ342、マーカ344若しくはマーカ346がQRコード(登録商標)若しくはバーコードである場合、又は、既知の物体がARマーカとして利用される場合、制御装置170は、マーカの識別情報と、当該マーカが検出された場合における情報処理の内容とを対応付けて格納するデータベースを参照して、当該マーカが検出された場合における情報処理を実行してよい。上述されたとおり、上記の情報処理は、作業部屋300又はその一部が電子的に再現された三次元仮想空間に関する情報処理であってよい。 For example, when marker 342, marker 344, or marker 346 is a QR code (registered trademark) or a barcode, or when a known object is used as an AR marker, control device 170 may execute information processing when the marker is detected by referring to a database that stores the identification information of the marker in association with the content of information processing when the marker is detected. As described above, the above information processing may be information processing about a three-dimensional virtual space in which workroom 300 or a part of it is electronically reproduced.

三次元仮想空間に関する情報処理は、例えば、上記の三次元仮想空間中の位置であって、現実世界におけるマーカ検出位置に対応する位置を特定する段階と、特定された三次元仮想空間中の位置に、当該マーカに予め対応付けられた点群又は三次元モデルを発生させる段階とを含む。この場合、上記のデータベースには、例えば、マーカの識別情報と、点群又は三次元モデルの形状及び大きさを示す情報とが対応付けて格納されている。 The information processing related to the three-dimensional virtual space includes, for example, a step of identifying a position in the above-mentioned three-dimensional virtual space that corresponds to a marker detection position in the real world, and a step of generating a point cloud or a three-dimensional model that is pre-associated with the marker at the identified position in the three-dimensional virtual space. In this case, the above-mentioned database stores, for example, identification information of the marker and information indicating the shape and size of the point cloud or the three-dimensional model in association with each other.

画像の被写体にマーカが付されることにより、制御装置170における情報処理の負荷が大きく軽減され得る。例えば、(i)マーカの寸法、並びに、(ii)表示領域142及び周辺データ生成装置152の相対的な位置関係が既知である場合、制御装置170は、当該マーカが写り込んだ二次元画像に基づいて、表示領域142と、マーカが付された物体との相対的な位置関係を決定することができる。制御装置170は、当該マーカが映り込んだ二次元画像に基づいて、マーカの法線ベクトルの向き(マーカの姿勢と称される場合がある。)を決定してもよい。 By attaching a marker to the subject of the image, the information processing load on the control device 170 can be significantly reduced. For example, if (i) the dimensions of the marker and (ii) the relative positional relationship between the display area 142 and the peripheral data generating device 152 are known, the control device 170 can determine the relative positional relationship between the display area 142 and the object to which the marker is attached, based on a two-dimensional image in which the marker appears. The control device 170 may also determine the direction of the normal vector of the marker (sometimes referred to as the attitude of the marker) based on the two-dimensional image in which the marker appears.

例えば、マーカの寸法が既知である場合、当該マーカが写り込んだ二次元画像に基づいて、周辺データ生成装置152及びマーカの相対的な位置関係が決定され得る。また、表示領域142及び周辺データ生成装置152の相対的な位置関係が既知である場合、周辺データ生成装置152及びマーカの相対的な位置関係に基づいて、表示領域142及びマーカの相対的な位置関係が決定され得る。 For example, if the dimensions of the marker are known, the relative positional relationship between the peripheral data generating device 152 and the marker can be determined based on a two-dimensional image in which the marker appears. Also, if the relative positional relationship between the display area 142 and the peripheral data generating device 152 is known, the relative positional relationship between the display area 142 and the marker can be determined based on the relative positional relationship between the peripheral data generating device 152 and the marker.

マーカが写り込んだ二次元画像に基づいて、周辺データ生成装置152及びマーカの相対的な位置関係を決定する手順は、例えば、当該二次元画像を解析して当該マーカのカメラ座標を決定する手順を含む。マーカのカメラ座標を決定するための処理は、例えば、公知のライブラリを用いて実現され得る。上述された公知のライブラリとしては、OpenCVのライブラリが例示される。OpenCVのライブラリにおいては、カメラに関する1以上の項目が設定可能に構成される。上記の項目としては、解像度、FPS、焦点距離、上下方向の歪み、左右方向の歪みなどが例示される。 The procedure for determining the relative positional relationship between the peripheral data generating device 152 and the marker based on a two-dimensional image in which the marker appears includes, for example, a procedure for analyzing the two-dimensional image and determining the camera coordinates of the marker. The process for determining the camera coordinates of the marker can be realized, for example, by using a publicly known library. An example of the publicly known library mentioned above is the OpenCV library. In the OpenCV library, one or more items related to the camera can be set. Examples of the above items include resolution, FPS, focal length, vertical distortion, and horizontal distortion.

マーカのカメラ座標を決定するための処理は、例えば、カメラのキャリブレーション処理と、三次元再構成処理とを含む。三次元再構成処理は、例えば、カメラ座標系、画像座標系、及び、マーカ座標系を用いて、座標変換行列を計算することで実現される。座標変換行列は、回転行列と、平行移動行列とを含んでよい。 The process for determining the camera coordinates of the marker includes, for example, a camera calibration process and a three-dimensional reconstruction process. The three-dimensional reconstruction process is realized, for example, by calculating a coordinate transformation matrix using the camera coordinate system, the image coordinate system, and the marker coordinate system. The coordinate transformation matrix may include a rotation matrix and a translation matrix.

座標系算出処理の誤差が大きい場合、制御装置170は、周辺データ生成装置152が撮像した複数のフレームにおけるマーカの座標情報を平均化することで、当該マーカの座標を算出してもよい。上記のフレーム数は、4フレーム以上であってもよく、8フレーム以上であってもよい。これにより、誤差が小さくなり得る。また、インスタンスが特定される前に、上記の平均が算出され得る。なお、複数のフレームのそれぞれにおけるマーカの座標のバラツキ具合が予め定められた程度を超えた場合、制御装置170は、周辺データ生成装置152が動いたと判定し、上記の平均化処理を中断してよい。 If the error in the coordinate system calculation process is large, the control device 170 may calculate the coordinates of the marker by averaging the coordinate information of the marker in multiple frames captured by the peripheral data generation device 152. The number of frames may be four or more, or eight or more. This may reduce the error. The average may be calculated before the instance is identified. Note that if the variation in the coordinates of the marker in each of the multiple frames exceeds a predetermined level, the control device 170 may determine that the peripheral data generation device 152 has moved and interrupt the averaging process.

上述されたとおり、本実施形態によれば、制御装置170は、マーカが検出された位置に、当該マーカにより指定される点群又は3次元モデルを発生させることができる。これにより、例えば、上記の物体の輪郭を特定する処理が不要になったり、上記の物体を単純な形状の点群又はモデルに置き換えたりすることができる。その結果、表示領域142と、マーカが付された物体との相対的な位置関係を決定するための処理の計算量が大幅に削減される。特に、1組のマーカ(1組当たりのマーカの個数は限定されるものではないが、例えば、一対のマーカである。)が遮蔽物の端部に付されている場合、遮蔽物の配置を特定するための処理の計算量が大幅に削減される。 As described above, according to this embodiment, the control device 170 can generate a point cloud or a three-dimensional model specified by the marker at the position where the marker is detected. This, for example, makes it unnecessary to perform a process for identifying the contour of the object, or makes it possible to replace the object with a point cloud or a model of a simple shape. As a result, the amount of calculation required for the process to determine the relative positional relationship between the display area 142 and the object to which the marker is attached is significantly reduced. In particular, when a set of markers (for example, a pair of markers, although the number of markers per set is not limited) is attached to the edge of an obstruction, the amount of calculation required for the process to identify the location of the obstruction is significantly reduced.

上述されたとおり、マーカ342、マーカ344及びマーカ346のそれぞれは、例えば、1以上のマーカのそれぞれを識別するための識別情報、及び/又は、各マーカの位置の周辺に生成される点群又は3次元モデルに関する情報を表すパターンを含む。上記の点群に関する情報は、生成される点群又は3次元モデルのワールド座標系における寸法を示す情報を含んでよい。上記の寸法を示す情報は、形状を示す情報と、大きさを示す情報とを含んでよい。 As described above, each of markers 342, 344, and 346 includes, for example, identification information for identifying each of the one or more markers, and/or a pattern representing information about a point cloud or a three-dimensional model generated around the position of each marker. The information about the point cloud may include information indicating dimensions in the world coordinate system of the generated point cloud or three-dimensional model. The information about the dimensions may include information indicating the shape and information indicating the size.

マーカ342、マーカ344及びマーカ346のそれぞれは、各マーカの寸法を示す情報を含んでもよく、各マーカが付された物体に関する情報を含んでもよく、各マーカが付された場所の閲覧可能性の程度に関する情報を含んでもよい。各マーカが付された物体に関する情報は、光を透過させやすい物体であることを示す情報を含んでよい。光を透過させやすい物体としては、ガラス、格子、パンチングメタルなどが例示される。 Each of markers 342, 344, and 346 may include information indicating the dimensions of the marker, information regarding the object to which the marker is attached, and information regarding the degree of viewability of the location to which the marker is attached. The information regarding the object to which the marker is attached may include information indicating that the object is one that easily transmits light. Examples of objects that easily transmit light include glass, lattices, and punched metal.

なお、本実施形態によれば、現実空間においてARマーカが配されていない物体は、三次元空間に反映されない。例えば、現実空間において幅6m高さ3mの壁に、幅1m高さ3mの壁を示す6個のARマーカが水平方向に1mごとに配置されている場合、三次元空間中には幅6m高さ3mの壁が出現する。一方、現実空間において、上記の壁に、幅1m高さ3mの壁を示す3個のARマーカが2mごとに配置されている場合、三次元仮想空間中には幅1m高さ3mの壁が3個出現し、各壁の間には1mの隙間が配される。このように、三次元仮想空間を利用して閲覧可能性の程度を算出する場合、現実空間におけるARマーカの配置が、閲覧可能性の程度の算出結果に影響を与える可能性がある。 In addition, according to this embodiment, an object that does not have an AR marker arranged in the real space is not reflected in the three-dimensional space. For example, if six AR markers indicating a wall having a width of 1 m and a height of 3 m are arranged horizontally every 1 m on a wall having a width of 6 m and a height of 3 m in the real space, a wall having a width of 6 m and a height of 3 m will appear in the three-dimensional space. On the other hand, if three AR markers indicating a wall having a width of 1 m and a height of 3 m are arranged every 2 m on the wall in the real space, three walls having a width of 1 m and a height of 3 m will appear in the three-dimensional virtual space, with a gap of 1 m between each wall. In this way, when the degree of viewability is calculated using a three-dimensional virtual space, the arrangement of the AR markers in the real space may affect the calculation result of the degree of viewability.

壁312は、1以上の物体又は遮蔽物の一例であってよい。壁314は、1以上の物体又は遮蔽物の一例であってよい。壁316は、1以上の物体又は遮蔽物の一例であってよい。壁318は、1以上の物体又は遮蔽物の一例であってよい。床320は、1以上の物体又は遮蔽物の一例であってよい。ガラス窓322は、1以上の物体又は遮蔽物の一例であってよい。遮蔽物330は、1以上の物体又は遮蔽物の一例であってよい。 Wall 312 may be an example of one or more objects or obstructions. Wall 314 may be an example of one or more objects or obstructions. Wall 316 may be an example of one or more objects or obstructions. Wall 318 may be an example of one or more objects or obstructions. Floor 320 may be an example of one or more objects or obstructions. Glass window 322 may be an example of one or more objects or obstructions. Obstruction 330 may be an example of one or more objects or obstructions.

マーカ342は、1以上のマーカの一例であってよい。マーカ344は、1以上のマーカの一例であってよい。マーカ346は、1以上のマーカの一例であってよい。壁316は、1以上のマーカが付された1以上の物体又は被写体の一例であってよい。 Marker 342 may be an example of one or more markers. Marker 344 may be an example of one or more markers. Marker 346 may be an example of one or more markers. Wall 316 may be an example of one or more objects or subjects having one or more markers attached thereto.

図4及び図5を用いて、制御装置170における情報処理の一例が説明される。図4は、制御装置170がユーザ端末120の安全性を評価するための処理の一例を概略的に示す。図5は、ステップ416における処理の一例を概略的に示す。 An example of information processing in the control device 170 will be described using Figures 4 and 5. Figure 4 shows an example of processing by the control device 170 to evaluate the safety of the user terminal 120. Figure 5 shows an example of processing in step 416.

図4に示されるとおり、本実施形態によれば、まず、ステップ412(ステップがSと省略される場合がある。)において、制御装置170が、ユーザ22からユーザ端末120への指示であって、ユーザ端末120又はユーザ端末120の上で動作するプログラムを起動させるための指示(起動指示と称される場合がある。)を受け付ける。上記のプログラムは、BIOS、OS又はアプリケーションプログラムであってよい。アプリケーションプログラムは、予め指定されたアプリケーションプログラムであってもよく、ユーザ端末120の安全性を評価するためのアプリケーションプログラムであってもよい。 As shown in FIG. 4, according to this embodiment, first, in step 412 (step may be abbreviated as S), the control device 170 accepts an instruction from the user 22 to the user terminal 120, which is an instruction to start the user terminal 120 or a program running on the user terminal 120 (sometimes referred to as a start instruction). The above program may be a BIOS, an OS, or an application program. The application program may be a pre-specified application program, or may be an application program for evaluating the security of the user terminal 120.

制御装置170がユーザ22からの起動指示を受け付けると、制御装置170は、ユーザ22からの指示に対応する起動処理の実行を開始するとともに、ユーザ端末120の安全性を評価するためのアプリケーションプログラム(安全性評価プログラムと称される場合がある。)の実行を開始する。 When the control device 170 receives a startup instruction from the user 22, the control device 170 starts executing the startup process corresponding to the instruction from the user 22 and starts executing an application program (sometimes called a safety evaluation program) for evaluating the safety of the user terminal 120.

安全性評価プログラムが実行されると、制御装置170は、環境センサ150から、ユーザ端末120の周辺に関する各種の情報を取得する。上記の起動処理が実行された直後は、ユーザ端末120の安全性を精度よく評価するために十分な量のデータが収集されない場合がある。このような場合、ユーザ端末120の安全性が確認されるまで、起動処理により示されるプログラムの実行を中断することが考えられる。しかしながら、上記の手法によれば、ユーザ22のユーザ体験が低下する。また、ユーザ端末120又はプログラムの起動直後は、ユーザ22が周囲の安全性を確認している可能性が高い。 When the safety evaluation program is executed, the control device 170 acquires various information related to the surroundings of the user terminal 120 from the environmental sensor 150. Immediately after the above startup process is executed, a sufficient amount of data may not be collected to accurately evaluate the safety of the user terminal 120. In such a case, it is possible to suspend execution of the program indicated by the startup process until the safety of the user terminal 120 is confirmed. However, the above method degrades the user experience of the user 22. In addition, immediately after starting the user terminal 120 or the program, it is highly likely that the user 22 is checking the safety of the surroundings.

そこで、本実施形態によれば、S414において、制御装置170は、ユーザ端末120の安全性の評価に関する設定を決定する。例えば、制御装置170は、(i)少ない量のデータに基づいてユーザ端末120の安全性を評価するための第1設定と、(ii)十分な量のデータに基づいてユーザ端末120の安全性を精度よく評価するための第2設定とを有する。上記の第1設定及び第2設定のそれぞれは、安全性を評価するための各種指標の値を導出するための設定(指標設定と称される場合がある)、及び、各種指標の値に基づいて安全性に関する評価値を導出するための設定(評価設定と称される場合がある。)の少なくとも一方を含んでよい。 Therefore, according to this embodiment, in S414, the control device 170 determines settings related to the evaluation of the safety of the user terminal 120. For example, the control device 170 has (i) a first setting for evaluating the safety of the user terminal 120 based on a small amount of data, and (ii) a second setting for accurately evaluating the safety of the user terminal 120 based on a sufficient amount of data. Each of the above first setting and second setting may include at least one of a setting for deriving values of various indices for evaluating safety (sometimes referred to as an index setting), and a setting for deriving an evaluation value related to safety based on the values of various indices (sometimes referred to as an evaluation setting).

後述されるとおり、各種指標の値が導出される過程において、環境センサ150により収集されるデータの量も増加する。そのため、S414において、制御装置170は、指標設定を決定し、評価設定を決定しなくてもよい。これにより、計算量が削減される。 As described below, in the process of deriving the values of various indices, the amount of data collected by the environmental sensor 150 also increases. Therefore, in S414, the control device 170 determines the index setting, but does not need to determine the evaluation setting. This reduces the amount of calculation.

指標設定としては、ユーザ端末120の安全性に関する1以上の指標のうち、ユーザ端末120の安全性を評価するための処理に用いられる指標の種類を示す設定、上記の指標の値を導出するための関数又はアルゴリズムに関する設定、上記の関数又はアルゴリズムに含まれるパラメータに関する設定などが例示される。評価設定としては、上記の指標の値に基づいて評価値を導出するための関数又はアルゴリズムに関する設定、上記の関数又はアルゴリズムに含まれるパラメータに関する設定などが例示される。 Examples of index settings include settings indicating the type of index used in the process for evaluating the safety of the user terminal 120 out of one or more indexes related to the safety of the user terminal 120, settings related to a function or algorithm for deriving the value of the index, settings related to parameters included in the function or algorithm, etc. Examples of evaluation settings include settings related to a function or algorithm for deriving an evaluation value based on the value of the index, settings related to parameters included in the function or algorithm, etc.

例えば、起動指示が受け付けられてからの経過時間が予め定められた条件を満足する場合、制御装置170は、第1設定に基づいてユーザ端末120の安全性を評価することを決定する。一方、起動指示が受け付けられてからの経過時間が予め定められた条件を満足しない場合、制御装置170は、第2設定に基づいてユーザ端末120の安全性を評価することを決定する。予め定められた条件としては、上記の経過時間の長さが予め定められた第1閾値よりも小さいという条件が例示される。 For example, if the time that has elapsed since the start-up instruction was accepted satisfies a predetermined condition, the control device 170 decides to evaluate the safety of the user terminal 120 based on the first setting. On the other hand, if the time that has elapsed since the start-up instruction was accepted does not satisfy the predetermined condition, the control device 170 decides to evaluate the safety of the user terminal 120 based on the second setting. An example of a predetermined condition is that the length of the elapsed time is less than a predetermined first threshold value.

これにより、例えば、上記の起動処理が実行された直後のように、ユーザ端末120の安全性を精度よく評価するために十分な量のデータが収集されない場合であっても、制御装置170は、一定の安全性を担保しつつ、ユーザ端末120又はプログラムの起動処理を続行することができる。これにより、ユーザ22のユーザ体験が向上する。 As a result, even if a sufficient amount of data is not collected to accurately evaluate the safety of the user terminal 120, such as immediately after the above-mentioned startup process is executed, the control device 170 can continue the startup process of the user terminal 120 or the program while ensuring a certain level of safety. This improves the user experience of the user 22.

次に、S416において、制御装置170は、ユーザ端末120の使用環境の安全性を評価するための処理を実行する。制御装置170は、S414で決定された指標設定に従って、環境センサ150が取得した各種のデータに基づいて、ユーザ端末120の安全性に関する1以上の指標のそれぞれの値(指標値と称される場合がある。)を導出する。制御装置170は、S414で決定された評価設定に従って、上記の指標の値に基づいてユーザ端末120の安全性を評価する。具体的には、上記の指標の値に基づいて、ユーザ端末120の安全性の程度を示す評価値を導出する。 Next, in S416, the control device 170 executes processing to evaluate the safety of the usage environment of the user terminal 120. The control device 170 derives the values of one or more indicators (sometimes referred to as index values) relating to the safety of the user terminal 120 based on various data acquired by the environmental sensor 150 in accordance with the index settings determined in S414. The control device 170 evaluates the safety of the user terminal 120 based on the values of the above indicators in accordance with the evaluation settings determined in S414. Specifically, the control device 170 derives an evaluation value indicating the degree of safety of the user terminal 120 based on the values of the above indicators.

一実施形態において、制御装置170は、表示領域142の現在の設置位置及び現在の設置方向に基づいて、現在のユーザ端末120の安全性に関する評価値を導出する。他の実施形態において、制御装置170は、ユーザ端末120安全性の評価が予め定められた基準を満足するような、表示領域142の設置位置及び設置方向の組み合わせ(パターンと称される場合がある。)を決定する。表示領域142の設置位置は、数値により表されてもよく、数値範囲により表されてもよい。表示領域142の設置方向は、数値により表されてもよく、数値範囲により表されてもよい。 In one embodiment, the control device 170 derives an evaluation value for the current safety of the user terminal 120 based on the current installation position and current installation orientation of the display area 142. In another embodiment, the control device 170 determines a combination (sometimes referred to as a pattern) of the installation position and installation orientation of the display area 142 such that the evaluation of the safety of the user terminal 120 satisfies a predetermined criterion. The installation position of the display area 142 may be represented by a numerical value or a numerical range. The installation orientation of the display area 142 may be represented by a numerical value or a numerical range.

例えば、制御装置170は、上述された閲覧可能性の程度が予め定められた値よりも小さくなるようなパターンを決定する。上述されたとおり、表示領域142が筐体130に収容されている場合、表示領域142の設置位置及び設置方向と、ユーザ端末120の設置位置及び設置方向とは略一致する。指標値の導出手順及び評価値の導出手順の詳細は後述される。 For example, the control device 170 determines a pattern in which the degree of viewability described above is smaller than a predetermined value. As described above, when the display area 142 is housed in the housing 130, the installation position and installation direction of the display area 142 approximately coincide with the installation position and installation direction of the user terminal 120. The procedure for deriving the index value and the procedure for deriving the evaluation value will be described in detail later.

次に、S420において、制御装置170は、ユーザ端末120の安全性の評価値が予め定められた数値範囲(許容範囲と称される場合がある。)の範囲内であるか否かを判定する。上記の数値範囲は、上限及び下限の一方が定められていてもよく、上限及び下限の両方が定められていてもよい。 Next, in S420, the control device 170 determines whether the safety evaluation value of the user terminal 120 is within a predetermined numerical range (sometimes called an acceptable range). The above numerical range may have either an upper limit or a lower limit, or may have both an upper limit and a lower limit.

制御装置170は、ユーザ体験及びシステムの安定性を考慮して、ユーザ端末120の安全性の評価値の変動に対する上記の判定の感度又は応答性を調整してよい。後述されるとおり、ユーザ端末120の安全性の評価値が許容範囲外である場合、S432において、ユーザ端末120の使用を制限するための処理(使用制限処理と称される場合がある。)が実行され得る。また、ユーザ端末120の安全性の評価値が許容範囲内に戻ると、上記の使用制限が解除され得る。上記の判定の感度又は応答性が高すぎると、ユーザ端末120の使用の制限と、当該制限の解除とが頻繁に繰り返される。その結果、画面の表示が不安定になり、ユーザ体験が低下する。 The control device 170 may adjust the sensitivity or responsiveness of the above judgment to fluctuations in the evaluation value of the safety of the user terminal 120, taking into account the user experience and system stability. As described below, if the evaluation value of the safety of the user terminal 120 is outside the acceptable range, processing for restricting the use of the user terminal 120 (sometimes referred to as a usage restriction process) may be executed in S432. Furthermore, if the evaluation value of the safety of the user terminal 120 returns to within the acceptable range, the above usage restriction may be lifted. If the sensitivity or responsiveness of the above judgment is too high, the restriction on the use of the user terminal 120 and the lifting of the restriction are frequently repeated. As a result, the screen display becomes unstable, degrading the user experience.

本実施形態によれば、上記の使用制限及び制限解除が切り替わる頻度が予め定められた値よりも小さくなるように、上記の判定の感度又は応答性が調整される。これにより、システムが安定し、ユーザ体験も向上する。上記の判定の感度又は応答性を調整する手法は、特に限定されるものではなく、公知の任意の手法が採用され得る。 According to this embodiment, the sensitivity or responsiveness of the above-mentioned judgment is adjusted so that the frequency with which the above-mentioned usage restriction and restriction release are switched is less than a predetermined value. This stabilizes the system and improves the user experience. The method for adjusting the sensitivity or responsiveness of the above-mentioned judgment is not particularly limited, and any known method may be adopted.

一実施形態において、制御装置170は、微小時間における評価値の変化量の積分値に基づいて、当該評価値が許容範囲外であると判定してよい。制御装置170は、微小時間における評価値の変化量の積分値に応じた度合いが予め定められた基準を満足するか否かにより、当該評価値が許容範囲外であるか否かを判定してよい。上記の微小時間の長さは、0.1秒から1秒の間であってもよく、0.5秒前後であってもよい。これにより、使用制限の応答性と、システムの安定性とのバランスが調整される。その結果、ユーザの使用体験が向上する。 In one embodiment, the control device 170 may determine that the evaluation value is outside the allowable range based on the integral of the amount of change in the evaluation value over a small amount of time. The control device 170 may determine whether the evaluation value is outside the allowable range based on whether the degree according to the integral of the amount of change in the evaluation value over a small amount of time satisfies a predetermined criterion. The length of the small amount of time may be between 0.1 seconds and 1 second, or may be around 0.5 seconds. This adjusts the balance between the responsiveness of the usage restriction and the stability of the system. As a result, the user's usage experience is improved.

制御装置170は、上記の微小時間内での評価値の変化の積分値に応じた度合いに比例して、ユーザー端末の表示領域142の使用を制限してよい。上記の積分値が予め定められた値(上限値と称される場合がある。)よりも大きい場合、制御装置170は、表示領域142に表示される1以上のウインドウの少なくとも一部の内部の色、模様又は明るさを変更して、当該ウインドウに表示される情報の見読性を低下させてもよい。制御装置170は、1以上のウインドのうち、最大の大きさを有するウインドウの内部の色、模様又は明るさを変更してよい。制御装置170は、上記のウインドの内部の色をグレー、白又は黒に変更してよい。制御装置170は、上記のウインドの内部の色をグレーに変更(グレー化と称される場合がある。)してよい。ウインドウは、ユーザ端末120の上で動作する各プログラムに割り当てられた表示領域であってよい。 The control device 170 may limit the use of the display area 142 of the user terminal in proportion to the degree according to the integral value of the change in the evaluation value within the above-mentioned short time. If the integral value is greater than a predetermined value (sometimes referred to as an upper limit value), the control device 170 may change the color, pattern, or brightness inside at least a part of one or more windows displayed in the display area 142 to reduce the readability of the information displayed in the window. The control device 170 may change the color, pattern, or brightness inside the largest window among the one or more windows. The control device 170 may change the color inside the above-mentioned window to gray, white, or black. The control device 170 may change the color inside the above-mentioned window to gray (sometimes referred to as graying). The window may be a display area assigned to each program running on the user terminal 120.

上記の積分値が予め定められた値(下限値と称される場合がある。)よりも小さい場合、制御装置170は、例えば、表示領域142に100%のソース画像出力を実行する。これにより、最大の見読性が実現される。上記の積分値が上記の下限値以上上限値以下である場合、制御装置170は、当該積分値に応じて、上述された色、模様又は明るさの変更態様を決定してよい。例えば、制御装置170は、上記の積分値に応じて、グレー化(半透明)の度合いを決定する。これにより、上記の積分値に応じて、見読性の度合いが制限され得る。 If the integral value is smaller than a predetermined value (sometimes referred to as a lower limit value), the control device 170, for example, executes 100% source image output to the display area 142. This achieves maximum legibility. If the integral value is equal to or greater than the lower limit value and equal to or less than the upper limit value, the control device 170 may determine the above-mentioned change in color, pattern, or brightness according to the integral value. For example, the control device 170 determines the degree of graying (semi-transparency) according to the integral value. This can limit the degree of legibility according to the integral value.

制御装置170は、ユーザ又はその他の権限者からの指示に基づいて、上記の使用制限処理を一時的に解除してよい。制御装置170は、ユーザ又はその他の権限者からの指示に基づいて、上述された各種の閾値(例えば、上記の上限値及び/又は下限値である。)を緩和してもよい。使用制限処理を解除可能な時間、又は、閾値を緩和可能な時間は、例えば、ユーザ又はその他の権限者により予め決定される。上記の権限者としては、ユーザの上司、システム管理者などが例示される。 The control device 170 may temporarily release the above-mentioned usage restriction process based on instructions from the user or other authorized person. The control device 170 may relax the various thresholds described above (e.g., the above-mentioned upper limit and/or lower limit) based on instructions from the user or other authorized person. The time during which the usage restriction process can be released or the time during which the thresholds can be relaxed is determined in advance, for example, by the user or other authorized person. Examples of the above-mentioned authorized person include the user's superior, a system administrator, etc.

例えば、ユーザがリモート会議において発言している最中に、当該リモート会議用のプログラムに割り当てられたウインドウのグレー化の度合いが徐々に大きくなってきた場合、グレー化の進行を止めなければユーザ体験が低下する。上記の実施形態によれば、このような場合であっても、一時的にグレー化の進行を止めたり、グレー化を解除したりすることができる。これにより、ユーザ体験の低下が抑制される。 For example, if a window assigned to a program for a remote conference becomes increasingly grayed out while a user is speaking in the remote conference, the user experience will be degraded if the graying process is not stopped. According to the above embodiment, even in such a case, the graying process can be temporarily stopped or the graying can be canceled. This prevents the user experience from degrading.

他の実施形態において、制御装置170は、上記の評価値が許容範囲外である状態の継続時間の長さが予め定められた値よりも大きくなった場合に、当該評価値が許容範囲外であると判定してよい。これにより、上記の評価値が突発的に許容範囲外となった場合に、当該評価値が許容範囲外であると判定されることが防止される。その結果、ユーザの使用体験が向上する。 In another embodiment, the control device 170 may determine that the evaluation value is outside the acceptable range when the duration of the state in which the evaluation value is outside the acceptable range becomes greater than a predetermined value. This prevents the evaluation value from being determined to be outside the acceptable range when the evaluation value suddenly becomes outside the acceptable range. As a result, the user's usage experience is improved.

制御装置170は、S416において得られたユーザ端末120の使用環境の安全性に関する評価結果に基づいて、上記の判定の感度又は応答性を調整してよい。制御装置170は、例えば、使用環境の安全性が予め定められた基準を満足する場合には、使用環境の安全性が当該基準を満足しない場合と比較して判定の感度又は応答性が低下するように、上記の判定の感度又は応答性を調整する。制御装置170は、例えば、使用環境の安全性の程度が大きいほど判定の感度又は応答性が低下するように、上記の判定の感度又は応答性を調整する。これにより、ユーザの使用体験が向上する。 The control device 170 may adjust the sensitivity or responsiveness of the above judgment based on the evaluation result regarding the safety of the usage environment of the user terminal 120 obtained in S416. For example, when the safety of the usage environment satisfies a predetermined standard, the control device 170 adjusts the sensitivity or responsiveness of the above judgment so that the sensitivity or responsiveness of the judgment is lower than when the safety of the usage environment does not satisfy the standard. For example, the control device 170 adjusts the sensitivity or responsiveness of the above judgment so that the sensitivity or responsiveness of the judgment is lower the greater the degree of safety of the usage environment. This improves the user's usage experience.

ユーザ端末120の安全性の評価値が許容範囲内である場合(S420のYesの場合)、S440の処理に進む。一方、ユーザ端末120の安全性の評価値が許容範囲外である場合(S420のNoの場合)、S430において、制御装置170は、ユーザ22からの起動指示に基づいてユーザ端末120又はプログラムが起動してからの経過時間の長さが、予め定められた第2閾値より大きいか否かを判定する。上記の経過時間は、起動指示が受け付けられてからの経過時間であってもよく、ユーザ端末120又はプログラムの起動処理が完了してからの経過時間であってもよく、制御装置170がユーザ端末120又はプログラムの起動を検知してからの経過時間であってもよい。 If the safety evaluation value of the user terminal 120 is within the acceptable range (Yes in S420), the process proceeds to S440. On the other hand, if the safety evaluation value of the user terminal 120 is outside the acceptable range (No in S420), in S430, the control device 170 determines whether the length of time that has elapsed since the user terminal 120 or the program was started based on a start-up instruction from the user 22 is greater than a predetermined second threshold. The above-mentioned elapsed time may be the time that has elapsed since the start-up instruction was accepted, may be the time that has elapsed since the start-up process of the user terminal 120 or the program was completed, or may be the time that has elapsed since the control device 170 detected the start-up of the user terminal 120 or the program.

S430において、例えば、上記の経過時間が第2閾値よりも大きい場合(S430のYesの場合)、S432において、制御装置170は、上述された使用制限処理を実行する。使用制限処理としては、ユーザ22からの指示の受け付けを制限するための処理、表示領域142に表示される画面をロックするための処理、表示領域142に予め定められた画像を表示するための処理、表示領域142に警告を表示するための処理、表示領域142の明るさを調整して画面を暗くするための処理、表示装置140の視野角を小さくするための処理などが例示される。 In S430, for example, if the elapsed time is greater than the second threshold (Yes in S430), in S432, the control device 170 executes the use restriction process described above. Examples of use restriction processes include a process for restricting the acceptance of instructions from the user 22, a process for locking the screen displayed in the display area 142, a process for displaying a predetermined image in the display area 142, a process for displaying a warning in the display area 142, a process for adjusting the brightness of the display area 142 to darken the screen, and a process for narrowing the viewing angle of the display device 140.

表示領域142に予め定められた画像を表示するための処理において、当該画像は、画面の全体に表示されてもよく、画面の一部に表示されてもよい。表示領域142に予め定められた画像を表示するための処理において、当該画像は、半透明の画像であってもよい。表示領域142に予め定められた画像を表示するための処理は、使用制限処理が実行されなければ表示されていた画面の少なくとも一部を非表示にするための処理であってもよく、使用制限処理が実行されなければ表示されていた画面の少なくとも一部に半透明の画像を重畳するための処理であってもよい。 In the process for displaying a predetermined image in display area 142, the image may be displayed over the entire screen or over a portion of the screen. In the process for displaying a predetermined image in display area 142, the image may be a semi-transparent image. The process for displaying a predetermined image in display area 142 may be a process for hiding at least a portion of the screen that would have been displayed if the usage restriction process had not been executed, or may be a process for superimposing a semi-transparent image over at least a portion of the screen that would have been displayed if the usage restriction process had not been executed.

制御装置170は、S416において得られたユーザ端末120の使用環境の安全性に関する評価結果に基づいて、使用制限処理の種類及び/又は程度を決定してもよい。上記の評価結果としては、(i)ユーザ端末120の安全性に関する1以上の指標の少なくとも1つの指標値、(ii)ユーザ端末120の安全性に関する1以上の指標のうち、指標値の大きさが予め定められた条件を満足する指標値の種類、(iii)ユーザ端末120の安全性の程度を示す評価値などが例示される。予め定められた条件としては、指標値が予め定められた値よりも大きいという条件、指標値が予め定められた値以上であるという条件、指標値が予め定められた値よりも小さいという条件、指標値が予め定められた値以下であるという条件などが例示される。 The control device 170 may determine the type and/or level of usage restriction processing based on the evaluation result regarding the safety of the usage environment of the user terminal 120 obtained in S416. Examples of the evaluation result include (i) at least one index value of one or more indexes regarding the safety of the user terminal 120, (ii) a type of index value whose magnitude satisfies a predetermined condition among one or more indexes regarding the safety of the user terminal 120, and (iii) an evaluation value indicating the degree of safety of the user terminal 120. Examples of the predetermined condition include a condition that the index value is greater than a predetermined value, a condition that the index value is equal to or greater than a predetermined value, a condition that the index value is smaller than a predetermined value, and a condition that the index value is equal to or less than a predetermined value.

制御装置170は、特定の指標の指標値が上記の予め定められた条件を満足する場合と、当該指標の指標値が当該条件を満足しない場合とで、使用制限処理の種類及び/又は程度が異なるように、使用制限処理の種類及び/又は程度を決定してよい。制御装置170は、予め定められた条件を満足する指標の組み合わせが特定の組み合わせである場合と、そうではない場合とで、使用制限処理の種類及び/又は程度が異なるように、使用制限処理の種類及び/又は程度を決定してもよい。 The control device 170 may determine the type and/or degree of the usage restriction processing so that the type and/or degree of the usage restriction processing differs between a case where the index value of a specific index satisfies the above-mentioned predetermined condition and a case where the index value of the index does not satisfy the condition. The control device 170 may determine the type and/or degree of the usage restriction processing so that the type and/or degree of the usage restriction processing differs between a case where the combination of indexes that satisfies the predetermined condition is a specific combination and a case where it does not.

例えば、安全性の評価値が許容範囲外であっても、使用環境の安全性が予め定められた基準を満足している場合、制御装置170は、ユーザ22からの指示の受け付けを制限するための処理、表示領域142に表示される画面をロックするための処理、及び、表示領域142に警告を表示するための処理の少なくとも1つとは異なる処理を、使用制限処理として決定する。この場合において、制御装置170は、表示領域142に予め定められた画像を表示するための処理、表示領域142の明るさを調整して画面を暗くするための処理、及び、表示装置140の視野角を小さくするための処理の少なくとも1つを、使用制限処理として決定してよい。これにより、例えば、使用環境が比較的安全である場合には、ユーザはユーザ端末120の使用を継続することができる。その結果、ユーザの使用体験が向上する。 For example, even if the safety evaluation value is outside the allowable range, if the safety of the usage environment satisfies a predetermined standard, the control device 170 determines, as the usage restriction process, a process other than at least one of the process for restricting the reception of instructions from the user 22, the process for locking the screen displayed in the display area 142, and the process for displaying a warning in the display area 142. In this case, the control device 170 may determine, as the usage restriction process, at least one of the process for displaying a predetermined image in the display area 142, the process for adjusting the brightness of the display area 142 to darken the screen, and the process for narrowing the viewing angle of the display device 140. This allows the user to continue using the user terminal 120, for example, when the usage environment is relatively safe. As a result, the user's usage experience is improved.

使用制限処理の程度としては、明るさの変更量、視野角の変更量、重畳させる画像の大きさ、重畳させる画像の透明度などが例示される。制御装置170は、使用環境が安全であるほど、使用制限の程度が小さくなるように、使用制限処理の程度を決定してよい。制御装置170は、使用環境が安全であるほど、使用制限の程度が小さくなるように、使用制限処理の程度を決定してよい。これにより、例えば、使用環境が比較的安全である場合には、ユーザはユーザ端末120の使用を継続することができる。その結果、ユーザの使用体験が向上する。 Examples of the degree of usage restriction processing include the amount of change in brightness, the amount of change in the viewing angle, the size of the image to be superimposed, and the transparency of the image to be superimposed. The control device 170 may determine the degree of usage restriction processing so that the safer the usage environment, the less the degree of usage restriction. The control device 170 may determine the degree of usage restriction processing so that the safer the usage environment, the less the degree of usage restriction. This allows the user to continue using the user terminal 120, for example, when the usage environment is relatively safe. As a result, the user's usage experience is improved.

ユーザ端末120の使用が制限されている間、制御装置170は、S416に関連して説明された処理を実行してもよく、当該処理を実行しなくてもよい。制御装置170が、ユーザ端末120の使用が制限されている期間中にS416に関連して説明された処理を実行する場合、当該期間中に安全性の評価値が許容範囲内に戻ることがあり得る。 While the use of the user terminal 120 is restricted, the control device 170 may or may not execute the process described in relation to S416. If the control device 170 executes the process described in relation to S416 during the period during which the use of the user terminal 120 is restricted, the safety evaluation value may return to within the acceptable range during that period.

この場合、制御装置170は、S432に関連して説明された処理又はS434に関連して説明される処理の実行を中止又は中断し、上記の制限を解除してよい。制御装置170は、例えば、ユーザ端末120の安全性の程度が予め定められた程度よりも大きい場合(つまり、第三者により出力画像が閲覧される可能性の程度が予め定められた程度よりも小さい場合)、本来の出力画像の出力を許可する。 In this case, the control device 170 may cancel or suspend the execution of the process described in relation to S432 or the process described in relation to S434, and remove the above-mentioned restriction. For example, if the degree of security of the user terminal 120 is greater than a predetermined degree (i.e., if the degree of possibility that the output image will be viewed by a third party is less than a predetermined degree), the control device 170 permits the output of the original output image.

制御装置170は、制御装置170がユーザ端末120の使用を制限するか否かを判定する場合と同様に、当該制限を解除するか否かの判定の感度又は応答性を調整してよい。これにより、使用制限及び制限解除の切り替わりが抑制される。その結果、ユーザの使用体験が向上する。 The control device 170 may adjust the sensitivity or responsiveness of the determination as to whether or not to lift the restriction, in the same manner as when the control device 170 determines whether or not to restrict the use of the user terminal 120. This suppresses switching between restricting use and lifting the restriction. As a result, the user's usage experience is improved.

次に、S434において、制御装置170は、ユーザ22を誘導して、ユーザ端末120の安全性が向上するように、又は、ユーザ端末120の安全性が予め定められた基準を満足するように、ユーザ端末120の設置位置及び設置方向をユーザ22に調整させるための処理(誘導処理と称される場合がある)を実行する。これにより、制御装置170は、ユーザ22によるユーザ端末120の設置位置及び/又は設置方向の調整を支援することができる。 Next, in S434, the control device 170 executes a process (sometimes referred to as a guidance process) for guiding the user 22 to adjust the installation position and installation direction of the user terminal 120 so as to improve the safety of the user terminal 120 or so that the safety of the user terminal 120 satisfies a predetermined standard. In this way, the control device 170 can assist the user 22 in adjusting the installation position and/or installation direction of the user terminal 120.

誘導処理としては、適切な設置位置及び/又は設置方向をユーザ22に案内するための処理(ガイド処理と称される場合がある。)が例示される。一実施形態において、制御装置170は、「表示領域142を、右の方に約10度向けてください」のようなメッセージを出力することで、ユーザ22を誘導する。制御装置170は、表示領域142に上記のメッセージを出力してもよく、上記のメッセージを音声で出力してもよい。他の実施形態において、制御装置170は、表示領域142に、周辺データ生成装置152及び/又はカメラ154が撮像した作業部屋300の室内の現在の画像と、安全性の基準を満足する設置位置及び設置方向のヒントとなる画像とを重畳して表示してよい。ヒントとなる画像としては、安全性が不十分である領域を強調するための画像、安全性が十分に確保されている領域を強調するための画像、表示領域142の調整方向を示すための画像などが例示される。ヒントとなる画像は、透明又は半透明の領域を有してもよい。 The guidance process may be a process for guiding the user 22 to an appropriate installation position and/or installation direction (sometimes referred to as a guide process). In one embodiment, the control device 170 guides the user 22 by outputting a message such as "Turn the display area 142 to the right by about 10 degrees." The control device 170 may output the above message in the display area 142, or may output the above message by voice. In another embodiment, the control device 170 may superimpose a current image of the interior of the workroom 300 captured by the peripheral data generating device 152 and/or the camera 154 on an image that serves as a hint for an installation position and installation direction that satisfies the safety standard in the display area 142. Examples of the hint image include an image for highlighting an area where safety is insufficient, an image for highlighting an area where safety is sufficiently ensured, and an image for indicating the adjustment direction of the display area 142. The hint image may have a transparent or semi-transparent area.

上述されたとおり、本実施形態の一例によれば、ユーザ端末120の安全性の評価値が許容範囲の範囲内であるか否かの判定における感度又は応答性が調整される。これにより、(i)利用環境又は表示領域142の表示内容に応じて、安全性の判定の基準となる1以上の閾値又はパラメータを動的に変更する機能、(ii)安全性の評価値が閾値を超えた後又は当該評価値が許容範囲の範囲外となった後、画面ロックなどのペナルティ又は使用制限が発現するまでの時間を遅延させるディレイ機能などが導入され得る。 As described above, according to one example of this embodiment, the sensitivity or responsiveness in determining whether the safety evaluation value of the user terminal 120 is within an acceptable range is adjusted. This allows the introduction of (i) a function for dynamically changing one or more thresholds or parameters that are the basis for determining safety depending on the usage environment or the display content of the display area 142, and (ii) a delay function for delaying the time until a penalty such as a screen lock or usage restriction is imposed after the safety evaluation value exceeds a threshold or the evaluation value falls outside the acceptable range.

例えば、執務室内なら部外者の侵入も少ないので安全とみなし、安全性の判定の基準となる閾値を下げるなど、環境や表示内容を自動判断し、動的に閾値を変更してもよいし、上席者などのオペレーションで閾値を変更してもよい。また、執務室かの自動判定では、無線接続の識別ID(一般にSIDという)で特定SIDの存在有無から執務室内と判断させてもよいし、有線接続あるいはその属性や特定サーバやインターフェースの存在で確認判断してもよい。 For example, an office is considered safe because there is little chance of intrusion by outsiders, and the threshold value used as the standard for determining safety can be lowered. The environment and display content can be automatically determined and the threshold value can be changed dynamically, or the threshold value can be changed by an operation by a superior. In addition, when automatically determining whether it is an office, it can be determined that it is an office based on the presence or absence of a specific SID using the identification ID of the wireless connection (commonly called a SID), or it can be confirmed and determined based on a wired connection or its attributes, or the presence of a specific server or interface.

表示領域142の表示内容が機密情報である場合は、前述の閾値を上げて、安全性の判定を厳しく評価してもよい。ここでの表示内容の機密度合いの判定は、使用アプリケーション種類や、機密情報と感じるワードの登場度合いで自動評価させてもよい。以上の例外的な機能は、例えば、判定を下げるブーストボタンを導入して、利用者が欲するときや承認が得られた時に、ブーストボタン押下することで、閾値の動的緩和を実施してもよい。ブースト状態の解除は、時間で解除してもよいし、表示領域142の周辺の状態に大きな変動が検出されたタイミング(端末周辺状態で端末場所の移動や向きの変更、明暗などの大きな環境変化を検出したとき)で自動解除してもよい。 If the contents displayed in the display area 142 are confidential information, the aforementioned threshold may be raised to strictly evaluate the security judgment. The confidentiality of the displayed contents may be automatically evaluated based on the type of application used or the frequency of occurrence of words that are perceived as confidential information. The exceptional function described above may, for example, be implemented by introducing a boost button that lowers the judgment, and dynamically relaxing the threshold by pressing the boost button when desired or approved by the user. The boost state may be released over time, or automatically released when a large change in the state around the display area 142 is detected (when a large environmental change such as a movement of the terminal location or a change in orientation, or a change in brightness is detected in the state around the terminal).

さらに制御装置170は、前述の表示領域142に表示される画面をロックするための処理、もしくは、安全性の程度が悪い時や、安全性の判定を明示的に緩和あるいは強化させている時のような例外的な状況下において、環境センサ150の取得した画像や情報の一部もしくは全部を保存してもよい。更にその保存情報の対象時間範囲は、例外的な状況の発生時間を包含する十分な時間であってもよいし、部分であってもよいし、離散していてもよい、少しでも関連する情報を対象してもよい。 Furthermore, the control device 170 may store some or all of the images and information acquired by the environmental sensor 150 during processing to lock the screen displayed in the aforementioned display area 142, or in exceptional circumstances such as when the level of safety is low or when the safety assessment is explicitly relaxed or strengthened. Furthermore, the time range of the stored information may be a sufficient time that includes the occurrence time of the exceptional situation, or it may be a partial time, it may be discrete, or it may target only slightly related information.

(ガイド処理の詳細の一例)
本実施形態においては、周辺データ生成装置152及び/又はカメラ154の撮像方向と、表示領域142の法線方向とが略一致する。この場合、制御装置170は、例えば、下記の手順によりユーザ22によるユーザ端末120の設置位置及び/又は設置方向の調整を支援することができる。
(Example of detailed guide process)
In the present embodiment, the imaging direction of the peripheral data generating device 152 and/or the camera 154 substantially coincides with the normal direction of the display area 142. In this case, the control device 170 can assist the user 22 in adjusting the installation position and/or installation direction of the user terminal 120, for example, by the following procedure.

一実施形態において、制御装置170は、表示装置140を制御して、(a)周辺データ生成装置152及び/又はカメラ154が撮像した作業部屋300の室内の現在の画像と、(b)S416において決定された設置位置及び設置方向の組み合わせに従って表示領域142が設置された場合における(i)作業部屋300の室内の画像(ガイド画像と称される場合がある)又は(ii)作業部屋300の室内の特徴点の位置を示すアイコン(ガイドアイコンと称される場合がある)と、が重畳された画像(調整用画像と称される場合がある。)を、表示領域142に表示させる。現在の画像と、ガイド画像又はガイドアイコンとは、公知の手法により重畳され得る。 In one embodiment, the control device 170 controls the display device 140 to display in the display area 142 an image (sometimes referred to as an adjustment image) in which (a) a current image of the interior of the workroom 300 captured by the peripheral data generating device 152 and/or the camera 154 and (b) (i) an image of the interior of the workroom 300 (sometimes referred to as a guide image) or (ii) an icon indicating the position of a characteristic point in the interior of the workroom 300 (sometimes referred to as a guide icon) in the case where the display area 142 is installed according to the combination of the installation position and installation direction determined in S416 are superimposed. The current image and the guide image or guide icon may be superimposed by a known method.

制御装置170は、表示装置140を制御して、表示領域142の調整方向を示すアイコン(調整用アイコンと称される場合がある。)を表示領域142に表示させてもよい。制御装置170は、表示装置140を制御して、安全性が不十分である領域を強調するための画像、安全性が十分に確保されている領域を強調するための画像などを、表示領域142に表示させてもよい。 The control device 170 may control the display device 140 to display an icon (sometimes referred to as an adjustment icon) indicating the adjustment direction of the display area 142 in the display area 142. The control device 170 may control the display device 140 to display an image for highlighting an area where safety is insufficient, an image for highlighting an area where safety is sufficiently ensured, and the like in the display area 142.

作業部屋300の室内の現在の画像は、例えば、S434において撮像された現在の二次元画像又は三次元データに基づいて生成される。一方、ガイド画像又はガイドアイコンは、例えば、S416において撮像された過去の二次元画像又は三次元データに基づいて生成される。 The current image of the interior of the work room 300 is generated, for example, based on the current two-dimensional image or three-dimensional data captured in S434. On the other hand, the guide image or guide icon is generated, for example, based on the past two-dimensional image or three-dimensional data captured in S416.

S416においては、撮像位置及び/又は撮像方向の異なる複数の二次元画像又は三次元データが取得され得る。制御装置170は、これらの二次元画像又は三次元データに基づいて、S416において決定された設置位置及び設置方向の組み合わせに従って表示領域142が設置された場合に、周辺データ生成装置152及び/又はカメラ154が撮像するであろう二次元画像又は三次元データを生成する。制御装置170は、上記の二次元画像又は三次元データに基づいて、ガイド画像又はガイドアイコンを生成する。 In S416, multiple two-dimensional images or three-dimensional data with different imaging positions and/or imaging directions can be acquired. Based on these two-dimensional images or three-dimensional data, the control device 170 generates two-dimensional images or three-dimensional data that would be captured by the surrounding data generating device 152 and/or the camera 154 if the display area 142 were installed according to the combination of installation position and installation direction determined in S416. The control device 170 generates a guide image or guide icon based on the above two-dimensional images or three-dimensional data.

例えば、制御装置170は、周辺データ生成装置152及び/又はカメラ154が撮像した単一の二次元画像又はその一部をガイド画像として用いることを決定する。制御装置170は、上記の単一の二次元画像に基づいて、ガイドアイコンの表示位置を決定してもよい。制御装置170は、単一又は複数の周辺データ生成装置152及び/又はカメラ154が撮像した複数の二次元画像を合成して結合画像を生成し、当該結合画像又はその一部をガイド画像として用いることを決定してもよい。制御装置170は、上記の結合画像に基づいて、ガイドアイコンの表示位置を決定してもよい。 For example, the control device 170 may determine to use a single two-dimensional image or a portion thereof captured by the peripheral data generating device 152 and/or the camera 154 as a guide image. The control device 170 may determine the display position of the guide icon based on the single two-dimensional image. The control device 170 may determine to generate a combined image by synthesizing multiple two-dimensional images captured by a single or multiple peripheral data generating devices 152 and/or cameras 154, and to use the combined image or a portion thereof as a guide image. The control device 170 may determine the display position of the guide icon based on the combined image.

他の例において、制御装置170は、上述された三次元仮想空間を用いて、ガイド画像又はガイドアイコンを生成してもよい。例えば、まず、制御装置170は、S416において撮像された過去の二次元画像又は三次元データに基づいて、作業部屋300を構成する構造物及び/又は作業部屋300の内部に配された構造物の三次元モデルを生成する。制御装置170は、撮像位置及び/又は撮像方向の異なる複数の二次元画像又は三次元データに基づいて、上記の三次元モデルを生成してよい。 In another example, the control device 170 may generate a guide image or a guide icon using the three-dimensional virtual space described above. For example, the control device 170 first generates a three-dimensional model of the structures constituting the work room 300 and/or the structures arranged inside the work room 300 based on the past two-dimensional images or three-dimensional data captured in S416. The control device 170 may generate the above three-dimensional model based on multiple two-dimensional images or three-dimensional data captured at different imaging positions and/or imaging directions.

これにより、作業部屋300の三次元仮想空間が生成される。例えば、複数の二次元画像に写り込んだ複数のARマーカに基づいて、壁、柱、ドア、窓、家具などの三次元モデルが生成される。また、二次元画像を解析して得られたARマーカの位置及び姿勢に基づいて、生成された三次元モデルが、作業部屋300に対応する三次元空間中の適切な位置に配置される。 This generates a three-dimensional virtual space of the workroom 300. For example, three-dimensional models of walls, pillars, doors, windows, furniture, etc. are generated based on multiple AR markers captured in multiple two-dimensional images. In addition, the generated three-dimensional models are placed in appropriate positions in the three-dimensional space corresponding to the workroom 300 based on the positions and orientations of the AR markers obtained by analyzing the two-dimensional images.

次に、制御装置170は、S416において決定された設置位置及び設置方向の組み合わせに従って表示領域142が設置された場合における、周辺データ生成装置152及び/又はカメラ154の位置及び方向(姿勢と称される場合がある。)を決定する。制御装置170は、作業部屋300の三次元仮想空間において、周辺データ生成装置152及び/又はカメラ154が上記の位置に及び上記の姿勢で配置されたと仮定して、周辺データ生成装置152及び/又はカメラ154が作業部屋300の内部を撮像した場合の画像を生成する。これにより、制御装置170は、ガイド画像又はガイドアイコンを生成することができる。 Next, the control device 170 determines the position and orientation (sometimes referred to as posture) of the peripheral data generating device 152 and/or the camera 154 when the display area 142 is installed according to the combination of the installation position and installation orientation determined in S416. The control device 170 generates an image of the interior of the workroom 300 captured by the peripheral data generating device 152 and/or the camera 154, assuming that the peripheral data generating device 152 and/or the camera 154 are placed at the above-mentioned positions and in the above-mentioned postures in the three-dimensional virtual space of the workroom 300. This enables the control device 170 to generate a guide image or a guide icon.

調整用画像又は調整用アイコンが表示領域142に表示されることにより、ユーザ22は、表示領域142に出力される画面を見ながら、ユーザ端末120の設置位置及び設置方向を調整することができる。例えば、ユーザ22は、作業部屋300の室内の現在の画像と、ガイド画像とが略一致するように、表示領域142の設置位置及び/又は設置方向を調整する。例えば、ユーザ22は、作業部屋300の室内の現在の画像における特徴点の位置と、調整用画像におけるガイドアイコンの位置とが略一致するように、表示領域142の設置位置及び/又は設置方向を調整する。 By displaying the adjustment image or adjustment icon in the display area 142, the user 22 can adjust the installation position and installation direction of the user terminal 120 while viewing the screen output in the display area 142. For example, the user 22 adjusts the installation position and/or installation direction of the display area 142 so that the current image of the interior of the work room 300 and the guide image approximately match. For example, the user 22 adjusts the installation position and/or installation direction of the display area 142 so that the position of the feature point in the current image of the interior of the work room 300 approximately matches the position of the guide icon in the adjustment image.

本実施形態によれば、表示領域142の視野角が、周辺データ生成装置152及び/又はカメラ154の視野角よりも大きい場合であっても、ユーザ端末120の設置位置及び設置方向が調整され得る。なお、本実施形態に係る調整方法は、表示領域142の視野角が、周辺データ生成装置152及び/又はカメラ154の視野角より小さい場合にも適用され得る。 According to this embodiment, even if the viewing angle of the display area 142 is larger than the viewing angle of the peripheral data generating device 152 and/or the camera 154, the installation position and installation direction of the user terminal 120 can be adjusted. Note that the adjustment method according to this embodiment can also be applied when the viewing angle of the display area 142 is smaller than the viewing angle of the peripheral data generating device 152 and/or the camera 154.

本実施形態に係るユーザ端末120のように、周辺データ生成装置152及び/又はカメラ154がユーザ端末120に搭載されている場合、周辺データ生成装置152及び/又はカメラ154の種類によっては、ユーザ端末120の設置位置及び設置方向を調整するために、ユーザ22がユーザ端末120を動かしたときに、周辺データ生成装置152及び/又はカメラ154が撮像した画像に残像が強く写り込む場合がある。例えば、周辺データ生成装置152がレーザを用いたLiDARである場合には、ユーザ22がユーザ端末120を比較的速く動かしても、残像の写り込み量は極めて少ない。一方、周辺データ生成装置152及び/又はカメラ154がCMOSなどのイメージセンサである場合、ユーザ22がユーザ端末120を比較的速く動かすと、周辺データ生成装置152及び/又はカメラ154は鮮明な画像を取得することができない。また、周辺データ生成装置152及び/又はカメラ154が上述されたマーカを撮像する場合には、周辺データ生成装置152及び/又はカメラ154の動きの程度が大きくなると、マーカのカメラ座標を決定するための処理において、マーカの座標を精度よく算出することができない。 When the peripheral data generating device 152 and/or the camera 154 are mounted on the user terminal 120 as in the user terminal 120 according to the present embodiment, depending on the type of the peripheral data generating device 152 and/or the camera 154, when the user 22 moves the user terminal 120 to adjust the installation position and installation direction of the user terminal 120, a strong afterimage may appear in the image captured by the peripheral data generating device 152 and/or the camera 154. For example, when the peripheral data generating device 152 is a LiDAR using a laser, even if the user 22 moves the user terminal 120 relatively quickly, the amount of afterimage is extremely small. On the other hand, when the peripheral data generating device 152 and/or the camera 154 are an image sensor such as a CMOS, when the user 22 moves the user terminal 120 relatively quickly, the peripheral data generating device 152 and/or the camera 154 cannot obtain a clear image. Furthermore, when the peripheral data generating device 152 and/or the camera 154 capture the above-mentioned markers, if the degree of movement of the peripheral data generating device 152 and/or the camera 154 becomes large, the coordinates of the markers cannot be calculated with high accuracy in the process for determining the camera coordinates of the markers.

そこで、制御装置170は、ユーザ端末120の動かし方をガイドするための情報を出力してもよい。例えば、制御装置170は、ユーザ端末120の移動速度を示す指示、ユーザ端末120の移動速度が適切又は不適切であることを示す指示、ユーザ端末120を静止させるための指示などを出力する。上記の指示は、表示領域142に表示されてもよく、音声で出力されてもよい。 The control device 170 may therefore output information to guide the user on how to move the user terminal 120. For example, the control device 170 may output instructions indicating the moving speed of the user terminal 120, instructions indicating whether the moving speed of the user terminal 120 is appropriate or inappropriate, instructions to stop the user terminal 120, and the like. The above instructions may be displayed in the display area 142, or may be output as audio.

ガイド処理が実行されている間、制御装置170は、ユーザ端末120の安全性を繰り返し評価する。制御装置170は、例えば、ユーザ端末120の安全性の評価値が許容範囲内であるか否かを判定する。制御装置170は、表示領域142の設置位置及び設置方向がS416において決定された設置位置及び設置方向と略一致したか否かを判定してもよい。 While the guide process is being executed, the control device 170 repeatedly evaluates the safety of the user terminal 120. For example, the control device 170 determines whether the evaluation value of the safety of the user terminal 120 is within an acceptable range. The control device 170 may determine whether the installation position and installation direction of the display area 142 are approximately the same as the installation position and installation direction determined in S416.

ユーザ端末120の安全性の評価値が許容範囲内であると判定された場合、又は、表示領域142の設置位置及び設置方向がS416において決定された設置位置及び設置方向と略一致したと判定された場合、制御装置170は、ユーザ端末120が安全な位置に設置されたこと示すメッセージを出力する。例えば、制御装置170は、表示装置140を制御して、上記のメッセージを表示領域142に表示させる。制御装置170は、音声により上記のメッセージを出力してもよい。これにより、ユーザ22は、ユーザ端末120の設置位置及び設置方向を容易に調整することができる。 If it is determined that the safety evaluation value of the user terminal 120 is within the acceptable range, or if it is determined that the installation position and installation direction of the display area 142 are approximately the same as the installation position and installation direction determined in S416, the control device 170 outputs a message indicating that the user terminal 120 is installed in a safe position. For example, the control device 170 controls the display device 140 to display the above message in the display area 142. The control device 170 may output the above message by voice. This allows the user 22 to easily adjust the installation position and installation direction of the user terminal 120.

(誘導処理の別実施形態の一例)
本実施形態において、制御装置170は、常時、定期的又は任意のタイミングで、ユーザ端末120の安全性を繰り返し評価する。そのため、ユーザ端末120の動かし方に関するガイド情報が出力されない場合であっても、ユーザ22は、安全性の担保された位置及び方向にユーザ端末120を設置することができる。より具体的には、ユーザ22は、ユーザ端末120の設置位置及び/又は設置方向を任意に変更する。制御装置170は、ユーザ端末120の設置位置及び/又は設置方向が変更されるたびに、当該設置位置及び当該設置方向におけるユーザ端末120の安全性を評価し、当該評価の結果をユーザ22に提示する。これにより、ユーザ22は、安全性の担保された位置及び方向にユーザ端末120を設置することができる。
(An example of another embodiment of the induction process)
In this embodiment, the control device 170 repeatedly evaluates the safety of the user terminal 120 at all times, periodically, or at any timing. Therefore, even if guide information on how to move the user terminal 120 is not output, the user 22 can install the user terminal 120 in a position and direction that ensures safety. More specifically, the user 22 arbitrarily changes the installation position and/or installation direction of the user terminal 120. Each time the installation position and/or installation direction of the user terminal 120 is changed, the control device 170 evaluates the safety of the user terminal 120 at the installation position and installation direction, and presents the result of the evaluation to the user 22. This allows the user 22 to install the user terminal 120 in a position and direction that ensures safety.

S434においてガイド処理が終了すると、制御装置170は、S416以降の処理を繰り返す。これにより、制御装置170は、引き続き、ユーザ端末120の安全性を監視することができる。 When the guidance process ends in S434, the control device 170 repeats the process from S416 onwards. This allows the control device 170 to continue monitoring the safety of the user terminal 120.

一方、S430において、例えば、上記の経過時間が第2閾値よりも小さい場合(S430のNoの場合)、S440において、制御装置170は、例えば、ユーザ22に対して、より適切な使用環境を提案すること希望するか否かを問い合わせる。例えば、ユーザ22が、上記の提案を希望することを示す情報をユーザ端末120に入力した場合(S440のYesの場合)、制御装置170は、上記の入力を受け付け、S434に関連して説明されたガイド処理を実行する。 On the other hand, in S430, for example, if the elapsed time is less than the second threshold (No in S430), in S440, the control device 170 inquires of the user 22, for example, whether or not the user wishes to be suggested a more appropriate usage environment. For example, if the user 22 inputs information indicating that the user wishes to be suggested to the user terminal 120 (Yes in S440), the control device 170 accepts the input and executes the guide process described in relation to S434.

一方、S440において、例えば、ユーザ22が、上記の提案を希望することを示す情報をユーザ端末120に入力しなかった場合、又は、上記の提案を希望しないことを示す情報をユーザ端末120に入力した場合(S440のNoの場合)、S440において、制御装置170は、例えば、ユーザ端末120又はS412において起動させたプログラムを終了させるか否かを判定する。具体的には、制御装置170は、ユーザ端末120又は上記のプログラムを終了させるための指示(終了指示と称される場合がある。)が受け付けられたか否かを判定する。 On the other hand, in S440, for example, if the user 22 does not input information indicating that the above proposal is desired into the user terminal 120, or if the user 22 inputs information indicating that the above proposal is not desired into the user terminal 120 (No in S440), in S440, the control device 170 determines, for example, whether to terminate the user terminal 120 or the program started in S412. Specifically, the control device 170 determines whether an instruction (sometimes referred to as an instruction to terminate) the user terminal 120 or the above program has been received.

終了指示が受け付けられた場合(S450のYesの場合)、制御装置170はユーザ端末120又はプログラムを終了させる。これにより、処理が終了する。一方、終了指示が受け付けられていない場合(S450のNoの場合)、制御装置170は、S416以降の処理を繰り返す。これにより、制御装置170は、引き続き、ユーザ端末120の安全性を監視することができる。 If the termination instruction has been received (Yes in S450), the control device 170 terminates the user terminal 120 or the program. This ends the process. On the other hand, if the termination instruction has not been received (No in S450), the control device 170 repeats the process from S416 onwards. This allows the control device 170 to continue monitoring the safety of the user terminal 120.

(使用環境の安全性を評価するための処理の一例)
上述されたとおり、図5は、ステップ416における処理の一例を概略的に示す。図5に示されるとおり、本実施形態においては、制御装置170が、第1指標、第2指標、第3指標及び第4指標を含む複数の指標のそれぞれの値を総合的に判断して、ユーザ端末120の安全性を評価する場合を例として、ユーザ端末120の安全性を評価するための処理(評価処理と称される場合がある。)の詳細が説明される。なお、制御装置170が、複数の指標のそれぞれの値を総合的に判断してユーザ端末120の安全性を評価する場合であっても、ユーザ端末120の安全性が、結果的に、単一の指標の値に基づいて評価されることもあり得る。
(An example of a process for evaluating the safety of the usage environment)
As described above, FIG. 5 shows an example of the process in step 416. As shown in FIG. 5, in this embodiment, the control device 170 comprehensively judges the values of a plurality of indexes including a first index, a second index, a third index, and a fourth index to evaluate the safety of the user terminal 120, and the details of the process (sometimes referred to as an evaluation process) for evaluating the safety of the user terminal 120 are described as an example. Note that even when the control device 170 comprehensively judges the values of a plurality of indexes to evaluate the safety of the user terminal 120, the safety of the user terminal 120 may ultimately be evaluated based on the value of a single index.

上述されたとおり、S416に関連して説明される評価処理は、ユーザ端末120又はプログラムが起動している間、定期的に繰り返される。最初の評価処理が実行される場合、第1指標、第2指標、第3指標及び第4指標のそれぞれの種類は、例えば、S414において決定された指標設定に基づいて決定される。最初の評価処理においては、第1指標、第2指標、第3指標及び第4指標の少なくとも1つが導出されなくてもよい。 As described above, the evaluation process described in relation to S416 is periodically repeated while the user terminal 120 or the program is running. When the first evaluation process is executed, the types of the first index, second index, third index, and fourth index are determined, for example, based on the index settings determined in S414. In the first evaluation process, at least one of the first index, second index, third index, and fourth index may not be derived.

本実施形態によれば、まず、S512において、制御装置170は、複数の指標に含まれる第1指標の値を導出する。制御装置170は、例えば、S414において決定された指標設定に基づいて、第1指標の値を導出する。第1指標は、ユーザ端末120の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度を示す指標であってよい。 According to this embodiment, first, in S512, the control device 170 derives the value of a first index included in the multiple indexes. The control device 170 derives the value of the first index, for example, based on the index setting determined in S414. The first index may be an index indicating the degree to which object movement or light fluctuation is detected in the vicinity of the installation position of the user terminal 120.

S514において、制御装置170は、複数の指標に含まれる第2指標の値を導出する。制御装置170は、例えば、S414において決定された指標設定に基づいて、第2指標の値を導出する。第2指標は、ユーザ端末120の設置位置の周辺に存在する遮蔽物の配置状況を示す指標であってよい。第2指標は、上記の遮蔽物により表示領域142への第三者の視線が遮られる程度を示す指標であってよい。 In S514, the control device 170 derives the value of a second index included in the multiple indexes. The control device 170 derives the value of the second index based on, for example, the index setting determined in S414. The second index may be an index indicating the arrangement of obstructions present around the installation position of the user terminal 120. The second index may be an index indicating the degree to which the obstruction blocks a third party's line of sight to the display area 142.

S516において、制御装置170は、複数の指標に含まれる第3指標の値を導出する。制御装置170は、例えば、S414において決定された指標設定に基づいて、第3指標の値を導出する。第3指標は、ユーザ端末120の設置位置の周辺環境の状況を示す指標であってよい。 In S516, the control device 170 derives the value of a third index included in the multiple indexes. The control device 170 derives the value of the third index based on, for example, the index setting determined in S414. The third index may be an index indicating the condition of the surrounding environment of the installation location of the user terminal 120.

第3指標は、ユーザ端末120の設置位置の周辺における照度又は当該照度の分布若しくは変動を示す指標であってよい。第3指標は、ユーザ端末120の設置位置が属する地域における屋外の明るさを示す指標であってよい。第3指標は、ユーザ端末120の設置位置の周辺における温度分布の度合いを示す指標であってよい。第3指標は、ユーザ端末120の設置位置の周辺における視程の度合いを示す指標であってよい。第3指標は、ユーザ端末120の設置位置の周辺における浮遊物質、飛散物質若しくは臭気物質の濃度又は当該濃度の分布若しくは変動を示す指標であってよい。 The third index may be an index indicating the illuminance around the installation location of the user terminal 120 or the distribution or variation of the illuminance. The third index may be an index indicating the outdoor brightness in the area where the installation location of the user terminal 120 belongs. The third index may be an index indicating the degree of temperature distribution around the installation location of the user terminal 120. The third index may be an index indicating the degree of visibility around the installation location of the user terminal 120. The third index may be an index indicating the concentration of suspended matter, flying matter, or odorous matter around the installation location of the user terminal 120 or the distribution or variation of the concentration.

S518において、制御装置170は、複数の指標に含まれる第4指標の値を導出する。制御装置170は、例えば、ユーザ端末120の設置位置の周辺において観測された物体又は事象に基づいて、第4指標の値を導出する。第4指標は、物体又は事象の種類に応じた情報漏洩のリスクを示す指標であってよい。例えば、制御装置170は、1以上の物体又は事象のそれぞれについて、物体又は事象の種類及び/又は属性と、当該物体又は事象が観測された位置から第三者が出力画像を閲覧する可能性の程度を示す値とが対応付けられたデータベースを参照して、実際に観測された物体又は事象の種類及び/又は属性に基づいて、上記の第4指標の値を決定する。 In S518, the control device 170 derives the value of a fourth index included in the multiple indexes. The control device 170 derives the value of the fourth index based on, for example, an object or event observed in the vicinity of the installation position of the user terminal 120. The fourth index may be an index indicating the risk of information leakage according to the type of object or event. For example, the control device 170 refers to a database in which, for each of one or more objects or events, the type and/or attributes of the object or event are associated with a value indicating the degree of possibility that a third party will view the output image from the position where the object or event was observed, and determines the value of the fourth index based on the type and/or attributes of the object or event actually observed.

一実施形態において、S512、S514、S516及びS518に含まれる少なくとも2つのステップが、並列に実行される。他の実施形態において、S512、S514、S516及びS518に含まれる少なくとも2つのステップが、順番に実行される。 In one embodiment, at least two steps included in S512, S514, S516, and S518 are performed in parallel. In another embodiment, at least two steps included in S512, S514, S516, and S518 are performed sequentially.

次に、S520において、制御装置170は、1以上の指標の値に基づいてユーザ端末120の安全性の程度を示す評価値を導出するための手順を決定する。本実施形態において、制御装置170は、S512、S514、S516及びS518の実行期間中に環境センサ150が取得した各種のデータに基づいて、上述された評価設定を決定する。 Next, in S520, the control device 170 determines a procedure for deriving an evaluation value indicating the degree of safety of the user terminal 120 based on the values of one or more indicators. In this embodiment, the control device 170 determines the above-mentioned evaluation setting based on various data acquired by the environmental sensor 150 during the execution periods of S512, S514, S516, and S518.

例えば、制御装置170は、(i)環境センサ150が取得した情報、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯に基づいて、複数の指標のうち、評価値の導出に用いられる1以上の指標の種類を決定する。制御装置170は、(i)環境センサ150が取得した情報と、(ii)現在時刻若しくは現在時刻が属する時間帯と、(iii)ユーザ端末120の設置位置の緯度及び/又は経度とに基づいて、複数の指標のうち、評価値の導出に用いられる1以上の指標の種類を決定してよい。 For example, the control device 170 determines the type of one or more indicators to be used to derive the evaluation value from among the multiple indicators based on (i) the information acquired by the environmental sensor 150 and/or (ii) the current time or the time zone to which the current time belongs. The control device 170 may determine the type of one or more indicators to be used to derive the evaluation value from among the multiple indicators based on (i) the information acquired by the environmental sensor 150, (ii) the current time or the time zone to which the current time belongs, and (iii) the latitude and/or longitude of the installation location of the user terminal 120.

例えば、制御装置170は、(i)環境センサ150が取得した情報、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯に基づいて、評価値の導出に用いられる1以上の指標のそれぞれに設定される重みの値を決定する。制御装置170は、(i)環境センサ150が取得した情報と、(ii)現在時刻若しくは現在時刻が属する時間帯と、(iii)ユーザ端末120の設置位置の緯度及び/又は経度とに基づいて、複数の指標のうち、評価値の導出に用いられる1以上の指標のそれぞれに設定される重みの値を決定してよい。 For example, the control device 170 determines a weighting value to be set for each of one or more indicators used to derive an evaluation value based on (i) the information acquired by the environmental sensor 150 and/or (ii) the current time or the time zone to which the current time belongs. The control device 170 may determine a weighting value to be set for each of one or more indicators used to derive an evaluation value among the multiple indicators based on (i) the information acquired by the environmental sensor 150, (ii) the current time or the time zone to which the current time belongs, and (iii) the latitude and/or longitude of the installation location of the user terminal 120.

次に、S530において、制御装置170は、1以上の指標の値に基づいてユーザ端末120の安全性の程度を示す評価値を導出する。制御装置170は、S520において決定された評価設定に基づいて、上記の評価値を導出する。例えば、制御装置170は、S512、S514及びS516において導出された複数の指標のそれぞれの値と、当該複数の指標のそれぞれに設定される重みの値とに基づいて、上記の評価値を導出する。これにより、制御装置170は、ユーザ端末120の安全性又は上述された閲覧可能性の程度を評価することができる。 Next, in S530, the control device 170 derives an evaluation value indicating the degree of safety of the user terminal 120 based on the values of one or more indicators. The control device 170 derives the above evaluation value based on the evaluation settings determined in S520. For example, the control device 170 derives the above evaluation value based on the values of each of the multiple indicators derived in S512, S514, and S516 and the weighting values set for each of the multiple indicators. This allows the control device 170 to evaluate the safety of the user terminal 120 or the degree of viewability described above.

ユーザ端末120の安全性を評価するための処理は、閲覧可能性を導出するための処理の一例であってよい。 The process for evaluating the security of the user terminal 120 may be an example of a process for deriving viewability.

(別実施形態の一例)
本実施形態においては、制御装置170が、複数の指標に基づいて、ユーザ端末120の安全性を評価する場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。
(An example of another embodiment)
In the present embodiment, the details of the information leakage prevention system 100 have been described by taking as an example a case in which the control device 170 evaluates the safety of the user terminal 120 based on a plurality of indexes. However, the information leakage prevention system 100 is not limited to the present embodiment.

他の実施形態において、制御装置170は、第1指標、第2指標、第3指標及び第4指標の少なくとも1つに基づいて、ユーザ端末120の安全性を評価してもよい。例えば、制御装置170は、1以上の指標のそれぞれの値を総合的に判断して、ユーザ端末120の安全性を評価する。さらに他の実施形態において、制御装置170は、予め定められた単一の指標の値に基づいてユーザ端末120の安全性を評価してもよい。 In another embodiment, the control device 170 may evaluate the safety of the user terminal 120 based on at least one of the first index, the second index, the third index, and the fourth index. For example, the control device 170 may evaluate the safety of the user terminal 120 by comprehensively judging the values of one or more indexes. In yet another embodiment, the control device 170 may evaluate the safety of the user terminal 120 based on the value of a single predetermined index.

本実施形態においては、S432において使用制限処理が実行された後、S434において誘導処理が実行される場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。 In this embodiment, the details of the information leakage prevention system 100 are described using as an example a case in which the use restriction process is executed in S432 and then the guidance process is executed in S434. However, the information leakage prevention system 100 is not limited to this embodiment.

他の実施形態において、S434の手順が省略されてよい。例えば、制御装置170は、ユーザの指示又は設定に従って、S434の手順を省略してよい。 In other embodiments, step S434 may be omitted. For example, the control device 170 may omit step S434 in accordance with a user instruction or setting.

図6は、制御装置170の内部構成の一例を概略的に示す。本実施形態において、制御装置170は、例えば、周辺状態取得部610と、起動検知部622と、計時部624と、仮想空間構築部630と、安全管理部640と、配置決定部652と、配置支援部654と、出力制御部660と、格納部670とを備える。本実施形態において、周辺状態取得部610は、例えば、構造情報取得部612と、物性情報取得部614と、環境情報取得部616、属性情報取得部618とを有する。制御装置170を構成する各要素は、互いに情報を送受可能に構成される。 Figure 6 shows an example of the internal configuration of the control device 170. In this embodiment, the control device 170 includes, for example, a surrounding state acquisition unit 610, a start-up detection unit 622, a timing unit 624, a virtual space construction unit 630, a safety management unit 640, a placement determination unit 652, a placement support unit 654, an output control unit 660, and a storage unit 670. In this embodiment, the surrounding state acquisition unit 610 includes, for example, a structural information acquisition unit 612, a physical property information acquisition unit 614, an environmental information acquisition unit 616, and an attribute information acquisition unit 618. Each element constituting the control device 170 is configured to be able to send and receive information to each other.

本実施形態において、周辺状態取得部610は、表示領域142の周辺の状態を示す情報(周辺状態情報と称される場合がある。)を取得する。周辺状態取得部610は、例えば、環境センサ150が生成した周辺状態情報を取得する。周辺状態取得部610は、周辺状態情報を安全管理部640に出力してよい。本実施形態において、表示領域142の周辺には、表示領域142の設置位置と、当該設置位置の近傍とが含まれ得る。 In this embodiment, the surrounding state acquisition unit 610 acquires information (sometimes referred to as surrounding state information) indicating the state of the surroundings of the display area 142. The surrounding state acquisition unit 610 acquires, for example, surrounding state information generated by the environmental sensor 150. The surrounding state acquisition unit 610 may output the surrounding state information to the safety management unit 640. In this embodiment, the surroundings of the display area 142 may include the installation position of the display area 142 and the vicinity of the installation position.

本実施形態において、構造情報取得部612は、表示領域142の周辺に配された1以上の物体の形状、大きさ及び/又は配置を示す情報(周辺データと称される場合がある。)を取得する。構造情報取得部612は、周辺データを、例えば安全管理部640に出力する。周辺データは、周辺状態情報の一例であってよい。 In this embodiment, the structural information acquisition unit 612 acquires information (sometimes referred to as surrounding data) indicating the shape, size, and/or arrangement of one or more objects arranged around the display area 142. The structural information acquisition unit 612 outputs the surrounding data to, for example, the safety management unit 640. The surrounding data may be an example of surrounding state information.

構造情報取得部612は、例えば、表示領域142の周辺に配された1以上の物体を被写体とする画像の画像データを取得する。構造情報取得部612は、例えば、周辺データ生成装置152から上記の画像データを取得する。上記の画像は、静止画像であってもよく、動画像であってもよい。上記の画像は、ステレオ画像であってよい。画像データは、周辺データの一例であってよい。 The structural information acquisition unit 612 acquires, for example, image data of an image having as its subject one or more objects arranged around the display area 142. The structural information acquisition unit 612 acquires the above image data from, for example, the peripheral data generation device 152. The above image may be a still image or a moving image. The above image may be a stereo image. The image data may be an example of peripheral data.

構造情報取得部612は、例えば、表示領域142の周辺に配された1以上の物体の三次元点群データ又は距離データを取得する。構造情報取得部612は、例えば、周辺データ生成装置152から上記の三次元点群データ又は距離データを取得する。距離データには、基準位置からの相対距離を示す情報、距離的な順位指標を示す情報が含まれてもよい。基準位置は、予め定められた特定の位置であってもよく、特定の物体であってもよい。三次元点群データ及び/又は距離データは、周辺データの一例であってよい。 The structural information acquisition unit 612 acquires, for example, three-dimensional point cloud data or distance data of one or more objects arranged around the display area 142. The structural information acquisition unit 612 acquires the above three-dimensional point cloud data or distance data from, for example, the surrounding data generation device 152. The distance data may include information indicating a relative distance from a reference position and information indicating a distance ranking index. The reference position may be a predetermined specific position or a specific object. The three-dimensional point cloud data and/or distance data may be an example of surrounding data.

距離的な順位指標としては、MiDaSnetなどの単眼カメラ深度推定技術を用いて導出される指標が例示される。上記の指標は、多くの場合、絶対距離に比例したものではなく、順位の参考指標として用いられ得る。例えば、学習した人物情報は、その類似性からそのスケール学習スケールを参考に、推定対象の絶対スケールを類推することができ、これより対象物との距離を類推算出できる。 Examples of distance ranking indices include indices derived using monocular camera depth estimation technology such as MiDaSnet. In many cases, the above indices are not proportional to absolute distance and can be used as reference indices for ranking. For example, the learned person information can be used to infer the absolute scale of the estimation target by referring to the scale learning scale from its similarity, and the distance to the target can be calculated from this.

本実施形態において、物性情報取得部614は、表示領域142の周辺に配された1以上の物体の物性を示す情報(物性情報と称される場合がある。)を取得する。物性情報取得部614は、物性情報を、例えば安全管理部640に出力する。物性情報は、周辺状態情報の一例であってよい。 In this embodiment, the physical property information acquisition unit 614 acquires information indicating the physical properties of one or more objects arranged around the display area 142 (sometimes referred to as physical property information). The physical property information acquisition unit 614 outputs the physical property information to, for example, the safety management unit 640. The physical property information may be an example of surrounding state information.

物性情報は、例えば、上記の物体の表面の光学的な性質を示す情報を含む。物性情報は、例えば、上記の物体の表面から表示領域142に向かって進行する電磁波の特徴を示す情報を含む。電磁波の特徴は、光学的な性質に関する特徴であってよい。上記の電磁波は、上記の物体の表面で反射した電磁波であってもよく、上記の物体を透過した電磁波であってもよく、上記の物体が放射した電磁波であってもよい。光学的な性質としては、波長、振幅、強さ又は明るさなどが例示される。光の強さ又は明るさとしては、放射照度、光量子密度、照度などが例示される。 The physical property information includes, for example, information indicating the optical properties of the surface of the object. The physical property information includes, for example, information indicating the characteristics of the electromagnetic waves traveling from the surface of the object toward the display area 142. The characteristics of the electromagnetic waves may be characteristics related to optical properties. The electromagnetic waves may be electromagnetic waves reflected from the surface of the object, electromagnetic waves transmitted through the object, or electromagnetic waves emitted by the object. Examples of optical properties include wavelength, amplitude, intensity, and brightness. Examples of light intensity and brightness include irradiance, photon density, and illuminance.

物性情報取得部614は、例えば、表示領域142の周辺に配された1以上の物体を被写体とする画像の画像データを取得する。物性情報取得部614は、例えば、カメラ154が出力した画像データを取得する。上記の画像データは、静止画像のデータであってもよく、動画像のデータであってもよい。後述されるとおり、本実施形態においては、光の強度の変動に基づいて上述された第1指標が導出される。そのため、上記の画像データは、動画像のデータであることが好ましい。 The physical property information acquisition unit 614 acquires, for example, image data of an image having one or more objects arranged around the display area 142 as its subject. The physical property information acquisition unit 614 acquires, for example, image data output by the camera 154. The above image data may be still image data or moving image data. As will be described later, in this embodiment, the above-mentioned first index is derived based on the fluctuation in light intensity. For this reason, it is preferable that the above image data is moving image data.

これにより、物性情報取得部614は、表示領域142の周辺に配された1以上の物体の色情報を取得することができる。色情報は、物性情報の一例であってよい。透明又は半透明な物体の物性情報は、当該物体を透過した電磁波の特徴を示す情報を含んでよい。例えば、窓ガラスの色情報は、窓ガラスを通して見える物体の色情報を含み得る。 This allows the physical property information acquisition unit 614 to acquire color information of one or more objects arranged around the display area 142. Color information may be an example of physical property information. Physical property information of a transparent or translucent object may include information indicating the characteristics of electromagnetic waves that have passed through the object. For example, color information of a window glass may include color information of an object that is visible through the window glass.

物性情報取得部614は、現実空間における特定の位置の周辺が撮像された動画であって、撮像方向の異なる複数の動画データを取得してもよい。複数の動画データは、複数回に分割して撮像された複数の動画のデータであってもよく、単一の動画の複数の位置から切り出された複数の動画のデータであってもよい。 The physical property information acquisition unit 614 may acquire multiple pieces of video data captured in different imaging directions, the multiple pieces of video data being video images of the periphery of a specific position in real space. The multiple pieces of video data may be multiple pieces of video data captured in multiple separate sessions, or multiple pieces of video data cut out from multiple positions in a single video.

例えば、ユーザ22が、特定の位置にユーザ端末120を設置することを希望する場合、ユーザ22は、当該設置を希望する位置を中心としてユーザ端末120を回転させながら、ユーザ端末120のカメラ154により当該位置の周辺の様子を撮像する。これにより、撮像方向の異なる複数の動画データが取得され得る。 For example, if the user 22 wishes to install the user terminal 120 at a specific location, the user 22 rotates the user terminal 120 around the desired location and captures an image of the surrounding area of the location using the camera 154 of the user terminal 120. This allows multiple video data captured in different directions to be acquired.

ユーザ22は、ユーザ22自身が画像に写り込まないように、上記の位置の周辺の様子を撮像してよい。例えば、ユーザ22は、カメラ154の背後に位置しながら、ユーザ端末120の周辺の様子を撮像する。これにより、カメラ154が撮像した画像からユーザ22の画像を排除するための処理が省略される。 The user 22 may capture the surroundings of the above-mentioned position without the user 22 himself appearing in the image. For example, the user 22 captures the surroundings of the user terminal 120 while positioned behind the camera 154. This omits the process of removing the image of the user 22 from the image captured by the camera 154.

本実施形態において、環境情報取得部616は、例えば、表示領域142の周辺環境の状況を示す情報(環境情報と称される場合がある。)を取得する。環境情報取得部616は、例えば、環境センサ150が生成した環境情報を取得する。環境情報取得部616は、環境情報を安全管理部640に出力してよい。環境情報は、周辺状態情報の一例であってよい。 In this embodiment, the environmental information acquisition unit 616 acquires, for example, information indicating the status of the surrounding environment of the display area 142 (sometimes referred to as environmental information). The environmental information acquisition unit 616 acquires, for example, environmental information generated by the environmental sensor 150. The environmental information acquisition unit 616 may output the environmental information to the safety management unit 640. The environmental information may be an example of surrounding state information.

例えば、環境情報取得部616は、表示領域142の周辺の照度を示す情報(照度情報と称される場合がある。)を取得する。例えば、環境情報取得部616は、照度センサ156から照度センサ156による照度の測定結果を示す情報を取得する。 For example, the environmental information acquisition unit 616 acquires information indicating the illuminance around the display area 142 (sometimes referred to as illuminance information). For example, the environmental information acquisition unit 616 acquires information from the illuminance sensor 156 indicating the results of the measurement of the illuminance by the illuminance sensor 156.

例えば、環境情報取得部616は、表示領域142の周辺の温度を示す情報(温度情報と称される場合がある。)を取得する。例えば、カメラ154が赤外線画像を生成可能に構成されている場合、環境情報取得部616は、カメラ154が生成した熱画像の画像データを取得する。 For example, the environmental information acquisition unit 616 acquires information (sometimes referred to as temperature information) indicating the temperature around the display area 142. For example, if the camera 154 is configured to be able to generate infrared images, the environmental information acquisition unit 616 acquires image data of the thermal image generated by the camera 154.

例えば、環境情報取得部616は、通信ネットワークを介して、他の情報提供システムが提供する各種の情報を取得してよい。環境情報取得部616は、例えば、他の情報提供システムから、気象情報、時刻情報等を取得する。 For example, the environmental information acquisition unit 616 may acquire various information provided by other information providing systems via a communication network. For example, the environmental information acquisition unit 616 acquires weather information, time information, etc. from other information providing systems.

本実施形態において、属性情報取得部618は、例えば、表示領域142の周辺において検出された物体又は事象の種類又は属性を示す情報(属性情報と称される場合がある。)を取得する。環境情報取得部616は、属性情報を安全管理部640に出力してよい。属性情報は、周辺状態情報の一例であってよい。 In this embodiment, the attribute information acquisition unit 618 acquires, for example, information indicating the type or attributes of an object or event detected in the vicinity of the display area 142 (sometimes referred to as attribute information). The environmental information acquisition unit 616 may output the attribute information to the safety management unit 640. The attribute information may be an example of surrounding state information.

より具体的には、環境情報取得部616は、例えば、環境センサ150が出力した画像データ及び/又は音声データを取得する。属性情報取得部618は、上記の画像データ及び/又は音声データを解析して、物体又は事象を検出する。属性情報取得部618は、例えば、適切なデータベースを参照して、検出された物体又は事象の種類又は属性を決定する。これにより、属性情報取得部618は、属性情報を取得することができる。 More specifically, the environmental information acquisition unit 616 acquires, for example, image data and/or audio data output by the environmental sensor 150. The attribute information acquisition unit 618 analyzes the image data and/or audio data to detect an object or event. The attribute information acquisition unit 618 determines the type or attribute of the detected object or event, for example, by referring to an appropriate database. In this way, the attribute information acquisition unit 618 can acquire attribute information.

例えば、属性情報取得部618は、表示領域142の周辺が撮像された画像データを解析して、表示領域142の周辺に配される1以上の物体を検出する。属性情報取得部618は、各種の物体の特徴及び/又は属性を格納したデータベースを参照して、検出された物体を判別したり、当該物体の属性を決定したりしてよい。画像中から物体を検出し、当該検出された物体を判別する手法は、特に限定されるものではなく、公知の任意の手法が適用され得る。 For example, the attribute information acquisition unit 618 analyzes image data of the periphery of the display area 142 to detect one or more objects disposed in the periphery of the display area 142. The attribute information acquisition unit 618 may refer to a database that stores the characteristics and/or attributes of various objects to identify the detected object or determine the attributes of the object. The method of detecting an object in an image and identifying the detected object is not particularly limited, and any known method may be applied.

例えば、属性情報取得部618は、表示領域142の周辺の音声が収録された音声データを解析して、表示領域142の周辺で生じた事象を検出する。属性情報取得部618は、各種の事象の特徴及び/又は属性を格納したデータベースを参照して、検出された事象を判別したり、当該事象の属性を決定したりしてよい。 For example, the attribute information acquisition unit 618 may analyze audio data that records audio around the display area 142 to detect events that have occurred around the display area 142. The attribute information acquisition unit 618 may refer to a database that stores the characteristics and/or attributes of various events to distinguish the detected event and determine the attributes of the event.

例えば、犬の鳴き声又は唸り声が検出された場合、近くに人が存在しているという事象が判別される。また、人の話し声又は足音が検出された場合、近くに人が存在しているという事象が判別され得る。近づいてくる人の足音が検出された場合、近くに存在する人の数が増加したという事象が判別され得る。遠ざかっていく人の足音が検出された場合、近くに存在する人の数が減少したという事象が判別され得る。 For example, if a dog's bark or growl is detected, it is determined that there is a person nearby. Also, if a person's voice or footsteps are detected, it is possible to determine that there is a person nearby. If the footsteps of an approaching person are detected, it is possible to determine that there is an increase in the number of people nearby. If the footsteps of a person moving away are detected, it is possible to determine that there is a decrease in the number of people nearby.

本実施形態において、起動検知部622は、ユーザ端末120の起動、又は、ユーザ端末120の上で動作するBIOS、OS若しくはアプリケーションプログラムの起動を検知する。ユーザ端末120の起動、又は、ユーザ端末120の上で動作するBIOS、OS若しくはアプリケーションプログラムの起動が検知された場合、起動検知部622は、上記の起動が検知されたことを示す情報を計時部624及び/又は安全管理部640に出力してよい。 In this embodiment, the startup detection unit 622 detects the startup of the user terminal 120, or the startup of the BIOS, OS, or application program running on the user terminal 120. When the startup of the user terminal 120, or the startup of the BIOS, OS, or application program running on the user terminal 120 is detected, the startup detection unit 622 may output information indicating that the above startup has been detected to the timer unit 624 and/or the safety management unit 640.

本実施形態において、計時部624は、起動検知部622が上記の起動を検知してからの経過時間を計測する。計時部624は、計測結果を示す情報を安全管理部640に出力してよい。 In this embodiment, the timing unit 624 measures the elapsed time since the activation detection unit 622 detected the above-mentioned activation. The timing unit 624 may output information indicating the measurement result to the safety management unit 640.

本実施形態において、仮想空間構築部630は、ユーザ端末120の周辺に対応する三次元仮想空間を構築する。仮想空間構築部630は、例えば、構造情報取得部612が取得した情報に基づいて、上記の三次元仮想空間を構築する。仮想空間構築部630の詳細は後述される。 In this embodiment, the virtual space construction unit 630 constructs a three-dimensional virtual space corresponding to the periphery of the user terminal 120. The virtual space construction unit 630 constructs the above-mentioned three-dimensional virtual space based on, for example, information acquired by the structural information acquisition unit 612. Details of the virtual space construction unit 630 will be described later.

本実施形態において、安全管理部640は、周辺状態取得部610が取得した周辺状態情報により示される表示領域142の周辺の状態に基づいて、ユーザ22とは異なる第三者による出力画像の閲覧可能性の程度を導出する。安全管理部640は、上記の表示領域142の周辺の状態に基づいて、表示領域142の安全性を評価してもよい。 In this embodiment, the safety management unit 640 derives the degree of viewability of the output image by a third party other than the user 22 based on the state of the vicinity of the display area 142 indicated by the surrounding state information acquired by the surrounding state acquisition unit 610. The safety management unit 640 may evaluate the safety of the display area 142 based on the state of the vicinity of the display area 142.

安全管理部640は、例えば、表示領域142に表示される情報が漏洩するリスクが小さいほど(つまり、閲覧可能性の程度が小さいほど)、表示領域142の安全性が高いと判定する。表示領域142の安全性としては、特定の位置及び方向に設置された表示領域142の安全性、表示領域142の設置位置の安全性、表示領域142の設置位置及び設置方向の安全性などが例示される。表示領域142が筐体130に収容される場合、表示領域142の安全性は、ユーザ端末120の安全性を意味してよい。 For example, the safety management unit 640 determines that the safety of the display area 142 is higher when the risk of information displayed in the display area 142 being leaked is lower (i.e., the degree of viewability is lower). Examples of the safety of the display area 142 include the safety of the display area 142 installed in a specific position and direction, the safety of the installation position of the display area 142, and the safety of the installation position and installation direction of the display area 142. When the display area 142 is housed in the housing 130, the safety of the display area 142 may mean the safety of the user terminal 120.

安全管理部640は、例えば、構造情報取得部612が収集した各種の情報を総合的に評価して、表示領域142が特定の位置及び方向に設置されている場合における閲覧可能性の程度を導出する。より具体的には、安全管理部640は、例えば、上記の閲覧可能性の程度を示す1以上の種類の指標の値を算出する。安全管理部640は、上記の1以上の指標の値を総合的に評価するための学習モデル又は関数を用いて、閲覧可能性の程度又は安全性の程度を示す評価値を導出する。安全管理部640は、表示領域142の配置が異なる複数のパターンのそれぞれについて、評価値を導出してもよい。安全管理部640の詳細は後述される。 The safety management unit 640, for example, comprehensively evaluates various pieces of information collected by the structural information acquisition unit 612 to derive the degree of viewability when the display area 142 is installed at a specific position and direction. More specifically, the safety management unit 640, for example, calculates the values of one or more types of indices indicating the degree of viewability. The safety management unit 640 derives an evaluation value indicating the degree of viewability or the degree of safety using a learning model or function for comprehensively evaluating the values of the one or more indices. The safety management unit 640 may derive an evaluation value for each of multiple patterns having different arrangements of the display area 142. Details of the safety management unit 640 will be described later.

一実施形態において、安全管理部640は、表示領域142の配置の決定処理が実行されるときに、表示領域142の安全性を評価する。表示領域142の配置の決定処理は、例えば、ユーザ22がユーザ端末120の使用を開始するタイミング、ユーザ22が特定のアプリケーションプログラムの使用を開始するタイミング、及び、ロック又はスリープが解除されるタイミングの少なくとも1つのタイミングで、実行される。他の実施形態において、安全管理部640は、ユーザ22がユーザ端末120を使用している期間中、定期的に、又は、任意のタイミングで、表示領域142の安全性を評価する。 In one embodiment, the safety management unit 640 evaluates the safety of the display area 142 when the process of determining the layout of the display area 142 is executed. The process of determining the layout of the display area 142 is executed, for example, at least one of the following times: when the user 22 starts using the user terminal 120, when the user 22 starts using a specific application program, and when the lock or sleep mode is released. In another embodiment, the safety management unit 640 evaluates the safety of the display area 142 periodically or at any time during the period when the user 22 is using the user terminal 120.

本実施形態において、配置決定部652は、表示領域142の配置を決定する。配置決定部652は、安全管理部640の評価結果に基づいて、表示領域142の配置を決定してよい。安全管理部640の評価結果としては、閲覧可能性の程度が例示される。上述されたとおり、ユーザ端末120の安全性の程度は、閲覧可能性の程度の一例である。 In this embodiment, the placement determination unit 652 determines the placement of the display area 142. The placement determination unit 652 may determine the placement of the display area 142 based on the evaluation result of the safety management unit 640. An example of the evaluation result of the safety management unit 640 is the degree of viewability. As described above, the degree of safety of the user terminal 120 is an example of the degree of viewability.

表示領域142の配置としては、表示領域142の位置(設置位置と称される場合がある。)、及び/又は、表示領域142の法線ベクトル242の方向(設置方向と称される場合がある。)が例示される。法線ベクトル242の方向としては、水平方向におけるベクトルの向き、及び、鉛直方向におけるベクトルの向きの少なくとも一方が例示される。なお、表示領域142が筐体130に収容される場合、表示領域142の配置と、ユーザ端末120の配置とが略一致する。 Examples of the arrangement of the display area 142 include the position of the display area 142 (sometimes referred to as the installation position) and/or the direction of the normal vector 242 of the display area 142 (sometimes referred to as the installation direction). Examples of the direction of the normal vector 242 include at least one of the direction of the vector in the horizontal direction and the direction of the vector in the vertical direction. Note that when the display area 142 is housed in the housing 130, the arrangement of the display area 142 and the arrangement of the user terminal 120 approximately match.

一実施形態において、配置決定部652は、安全管理部640から、表示領域142の配置を示す情報と、当該配置における閲覧可能性の程度を示す情報とを取得する。表示領域142の配置を示す情報としては、表示領域142の設置位置を示す情報、表示領域142の設置位置及び設置方向を示す情報などが例示される。 In one embodiment, the placement determination unit 652 acquires information indicating the placement of the display area 142 and information indicating the degree of viewability in the placement from the safety management unit 640. Examples of information indicating the placement of the display area 142 include information indicating the installation position of the display area 142, and information indicating the installation position and installation direction of the display area 142.

上記の閲覧可能性の程度が予め定められた基準を満足する場合、配置決定部652は、上記の配置を表示領域142の配置として決定する。予め定められた基準としては、閲覧可能性の程度が予め定められた程度よりも小さくなることが例示される。 If the degree of viewability satisfies a predetermined criterion, the layout determination unit 652 determines the above layout as the layout of the display area 142. An example of the predetermined criterion is that the degree of viewability is smaller than a predetermined degree.

表示領域142が予め定められた特徴を有するエリアの範囲内に位置する場合と、当該エリアの範囲外に位置する場合とで、上記の予め定められた程度が異なってよい。上記エリアは、表示領域142の設置位置を規定するものであってもよく、表示領域142の設置位置及び設置方向を規定するものであってもよい。 The above-mentioned predetermined degree may be different when the display area 142 is located within an area having a predetermined characteristic and when the display area 142 is located outside the area. The above-mentioned area may define the installation position of the display area 142, or may define the installation position and installation direction of the display area 142.

情報漏洩抑制システム100の一実施形態によれば、閲覧可能性の程度が比較的大きいエリアであっても、ユーザ22に対してユーザ端末120の使用を許可する権限を有する人物(承認者と称される場合がある。)により、当該エリアにおけるユーザ端末120の使用が予め承認されている場合、ユーザ22は、ユーザ端末120を使用することができる。この場合、表示領域142が当該エリアの範囲内に位置することが確認された場合に適用される閲覧可能性の程度に関する基準と、表示領域142が当該エリアの範囲内に位置することが確認されていない場合に適用される閲覧可能性の程度に関する基準とが異なる。なお、上記の承認には、当該承認が有効となる開始時期が定められていてもよく、当該承認の有効期限が定められていてもよい。 According to one embodiment of the information leakage prevention system 100, even in an area where the degree of viewability is relatively high, if the use of the user terminal 120 in that area has been approved in advance by a person (sometimes called an approver) who has the authority to permit the user 22 to use the user terminal 120, the user 22 can use the user terminal 120. In this case, the standard regarding the degree of viewability that is applied when it is confirmed that the display area 142 is located within the range of the area is different from the standard regarding the degree of viewability that is applied when it is not confirmed that the display area 142 is located within the range of the area. Note that the above approval may specify a start time when the approval becomes effective, and may specify an expiration date for the approval.

表示領域142が当該エリアの範囲内に位置することが確認された場合に適用される閲覧可能性の程度は、表示領域142が当該エリアの範囲内に位置することが確認されていない場合に適用される閲覧可能性の程度よりも大きくてよい。表示領域142が当該エリアの範囲内に位置することが確認された場合には、閲覧可能性の程度に関する判定が省略されてもよい。 The degree of viewability that is applied when it is confirmed that the display area 142 is located within the range of the area may be greater than the degree of viewability that is applied when it is not confirmed that the display area 142 is located within the range of the area. When it is confirmed that the display area 142 is located within the range of the area, the determination regarding the degree of viewability may be omitted.

この場合、予め定められた特徴としては、承認者がユーザ端末120の使用を承認したエリアに配されたユーザ端末120の周辺データ生成装置152が取得した周辺データの特徴が例示される。より具体的には、周辺データ生成装置152が撮像した二次元画像に含まれる1以上の特徴点、周辺データ生成装置152が取得した点群データに含まれる1以上の特徴点が例示される。予め定められた特徴は、承認者がユーザ端末120の使用を承認したときに、周辺データ生成装置152が撮像した二次元画像又は三次元データであってもよい。なお、上記の承認には、当該承認が有効となる開始時期が定められていてもよく、当該承認の有効期限が定められていてもよい。 In this case, examples of the predetermined features include features of the peripheral data acquired by the peripheral data generating device 152 of the user terminal 120 located in the area where the approver has approved the use of the user terminal 120. More specifically, examples include one or more feature points included in a two-dimensional image captured by the peripheral data generating device 152, and one or more feature points included in the point cloud data acquired by the peripheral data generating device 152. The predetermined features may be two-dimensional images or three-dimensional data captured by the peripheral data generating device 152 when the approver approves the use of the user terminal 120. Note that the above approval may specify a start time when the approval becomes effective, and may specify an expiration date for the approval.

本実施形態によれば、ユーザ端末120には、承認者がユーザ端末120の使用を承認したときの空間構造を示す情報が記録されている。ユーザ端末120は、承認者がユーザ端末120の使用を承認したときの空間構造を示す情報と、閲覧可能性の程度を示す情報とを格納するデータベースを備えてよい。 According to this embodiment, information indicating the spatial structure at the time when the approver approves the use of the user terminal 120 is recorded in the user terminal 120. The user terminal 120 may be provided with a database that stores information indicating the spatial structure at the time when the approver approves the use of the user terminal 120 and information indicating the degree of viewability.

これにより、例えば、ユーザ端末120の制御装置170は、ユーザ端末120の現在の位置及び方向において周辺データ生成装置152が取得したデータと、記録された空間構造のデータとを比較することができる。両者が一致する場合、制御装置170は、例えば、上記のデータベースを参照して、記録された空間構造に対応付けて格納されている閲覧可能性の程度を示す情報を抽出する。制御装置170は、抽出された閲覧可能性の程度を示す情報に基づいて、ユーザ端末120の安全性を評価してよい。なお、両者が一致する場合、制御装置170は、閲覧可能性の程度が予め定められた程度よりも小さく、ユーザ端末120の設置位置及び/又は方向が安全であると判定してもよい。 This allows, for example, the control device 170 of the user terminal 120 to compare the data acquired by the surrounding data generating device 152 at the current position and orientation of the user terminal 120 with the data of the recorded spatial structure. If the two match, the control device 170, for example, refers to the above-mentioned database and extracts information indicating the degree of viewability stored in correspondence with the recorded spatial structure. The control device 170 may evaluate the safety of the user terminal 120 based on the extracted information indicating the degree of viewability. Note that, if the two match, the control device 170 may determine that the degree of viewability is less than a predetermined degree and that the installation position and/or orientation of the user terminal 120 is safe.

本実施形態によれば、ユーザ端末120又は表示領域142が過去に承認者がユーザ端末120の使用を承認した空間と同様の態様で設置されている場合、ユーザ22は、ユーザ端末120を使用することができる。例えば、新幹線の特定の特徴を有する座席において、承認者がユーザ端末120の使用を承認した場合、ユーザ22は、新幹線を利用するたびに承認を申請することなく、ユーザ端末120を使用することができる。 According to this embodiment, if the user terminal 120 or the display area 142 is installed in a similar manner to a space in which an approving person has previously approved the use of the user terminal 120, the user 22 can use the user terminal 120. For example, if an approving person has approved the use of the user terminal 120 in a seat having specific characteristics on a Shinkansen train, the user 22 can use the user terminal 120 without having to apply for approval every time he or she uses the Shinkansen.

上記の承認は、ユーザ22ごとに設定されていてもよく、空間又は空間の特徴ごとに設定されていてもよい。上記の承認が空間又は空間の特徴ごとに設定されている場合、例えば、ユーザAが新幹線の特定の特徴を有する座席において承認作業を実施し、当該座席について承認がえられた場合、他のユーザBが、他の新幹線の同様の特徴を有する座席を利用するとき、ユーザBは、承認を申請することなく、ユーザ端末120を使用することができる。 The above approval may be set for each user 22, or for each space or feature of a space. When the above approval is set for each space or feature of a space, for example, if user A performs an approval operation for a seat with specific features on a Shinkansen train and approval is obtained for that seat, when another user B uses a seat with similar features on another Shinkansen train, user B can use the user terminal 120 without applying for approval.

情報漏洩抑制システム100の一実施形態によれば、閲覧可能性の程度が比較的大きいエリアであっても、例えば、ユーザ22が、守秘義務を有する者しか入室することのできない室内においてユーザ端末120を使用する場合、ユーザ22は、ユーザ端末120を使用することができる。この場合、表示領域142が当該エリアの範囲内に位置することが確認された場合に適用される閲覧可能性の程度に関する基準と、表示領域142が当該エリアの範囲内に位置することが確認されていない場合に適用される閲覧可能性の程度に関する基準とが異なる。 According to one embodiment of the information leakage prevention system 100, even in an area where the degree of viewability is relatively high, for example, when the user 22 uses the user terminal 120 in a room where only persons with confidentiality obligations can enter, the user 22 can use the user terminal 120. In this case, the standard regarding the degree of viewability that is applied when it is confirmed that the display area 142 is located within the range of the area is different from the standard regarding the degree of viewability that is applied when it is not confirmed that the display area 142 is located within the range of the area.

表示領域142が当該エリアの範囲内に位置することが確認された場合に適用される閲覧可能性の程度は、表示領域142が当該エリアの範囲内に位置することが確認されていない場合に適用される閲覧可能性の程度よりも大きくてよい。表示領域142が当該エリアの範囲内に位置することが確認された場合には、閲覧可能性の程度に関する判定が省略されてもよい。なお、表示領域142が当該エリアの範囲内に位置することが確認された場合には、閲覧可能性の程度に関する判定するための機能又はシステムが起動しなくてもよい。 The degree of viewability that is applied when it is confirmed that the display area 142 is located within the range of the area may be greater than the degree of viewability that is applied when it is not confirmed that the display area 142 is located within the range of the area. When it is confirmed that the display area 142 is located within the range of the area, the determination regarding the degree of viewability may be omitted. Note that when it is confirmed that the display area 142 is located within the range of the area, a function or system for determining the degree of viewability may not be activated.

この場合、予め定められた特徴としては、当該エリアで受信可能な無線信号、音波、当該エリアの有線LAN接続による特定OBJへの存在又は接続チェックなどが例示される。同様に、ユーザ端末120が、在籍管理システムなどから、ユーザ22が当該エリアの範囲内に位置することを示す情報を取得した場合、閲覧可能性の程度に関する判定が省略されてもよい。また、ユーザ端末120が、(i)承認者又は本人が、表示領域142が当該エリアの範囲内に位置することを承認したことを示す情報、又は、(ii)承認者又は本人が、ユーザ端末120の使用を承認したことを示す情報を取得した場合、閲覧可能性の程度に関する判定が省略されてもよい。 In this case, examples of the predetermined characteristic include a wireless signal or sound wave that can be received in the area, a presence or connection check to a specific OBJ via a wired LAN connection in the area, and the like. Similarly, when the user terminal 120 acquires information indicating that the user 22 is located within the range of the area from an attendance management system or the like, the determination regarding the degree of viewability may be omitted. Also, when the user terminal 120 acquires (i) information indicating that the approver or the person himself/herself has approved that the display area 142 is located within the range of the area, or (ii) information indicating that the approver or the person himself/herself has approved the use of the user terminal 120, the determination regarding the degree of viewability may be omitted.

一方、上記の閲覧可能性の程度が予め定められた基準を満足しない場合、配置決定部652は、ユーザ22に対して、表示領域142の設置位置及び設置方向の少なくとも一方の変更を促すためのメッセージを出力することを決定する。配置決定部652は、例えば、表示装置140を制御して、上記のメッセージを表示領域142に表示させる。なお、上記のメッセージは音声で出力されてもよい。 On the other hand, if the degree of viewability does not satisfy the predetermined criteria, the placement determination unit 652 determines to output a message to the user 22 to prompt the user 22 to change at least one of the installation position and installation direction of the display area 142. The placement determination unit 652 controls the display device 140 to display the message in the display area 142, for example. The message may be output by voice.

他の実施形態において、配置決定部652は、安全管理部640から、表示領域142の配置が異なる複数のケースのそれぞれについて、表示領域142の配置を示す情報と、当該配置における閲覧可能性の程度を示す情報とを取得する。表示領域142の配置を示す情報としては、表示領域142の設置位置を示す情報、表示領域142の設置位置及び設置方向を示す情報などが例示される。 In another embodiment, the placement determination unit 652 acquires from the safety management unit 640 information indicating the placement of the display area 142 and information indicating the degree of viewability in that placement for each of a plurality of cases in which the placement of the display area 142 is different. Examples of information indicating the placement of the display area 142 include information indicating the installation position of the display area 142, and information indicating the installation position and installation direction of the display area 142.

配置決定部652は、複数のケースのそれぞれの閲覧可能性の程度と、予め定められた基準とを比較して、上記の閲覧可能性の程度が予め定められた基準を満足するケースを抽出する。配置決定部652は、抽出されたケースにより示される配置のうちの1つを表示領域142の配置として決定する。 The arrangement determination unit 652 compares the degree of viewability of each of the multiple cases with a predetermined criterion, and extracts cases in which the degree of viewability satisfies the predetermined criterion. The arrangement determination unit 652 determines one of the arrangements indicated by the extracted cases as the arrangement of the display area 142.

例えば、配置決定部652は、閲覧可能性の程度が最も優れたケースにより示される配置を表示領域142の配置として決定する。例えば、配置決定部652は、閲覧可能性の程度が特に優れた複数のケースを抽出する。配置決定部652は、閲覧可能性の程度によって上記のケースを抽出してもよく、抽出されるケースの個数が予め定められた個数以下となるように上記のケースを抽出してもよい。配置決定部652は、抽出されたケースのそれぞれにおける配置を示す情報をユーザ22に提示し、ユーザ22により選択されたケースを表示領域142の配置として決定する。 For example, the placement determination unit 652 determines the placement indicated by the case with the best degree of viewability as the placement of the display area 142. For example, the placement determination unit 652 extracts a number of cases with an especially good degree of viewability. The placement determination unit 652 may extract the above cases based on the degree of viewability, or may extract the above cases such that the number of extracted cases is equal to or less than a predetermined number. The placement determination unit 652 presents information indicating the placement of each of the extracted cases to the user 22, and determines the case selected by the user 22 as the placement of the display area 142.

本実施形態において、配置支援部654は、ユーザ22による表示領域142又はユーザ端末120の設置を支援する。配置支援部654は、図4に関連して説明されたS434における誘導処理又はガイド処理を実行することで、ユーザ22による表示領域142又はユーザ端末120の設置を支援してよい。 In this embodiment, the placement support unit 654 supports the user 22 in setting up the display area 142 or the user terminal 120. The placement support unit 654 may support the user 22 in setting up the display area 142 or the user terminal 120 by executing the guidance process or guide process in S434 described in relation to FIG. 4.

本実施形態において、出力制御部660は、表示装置140による画像の出力を制御する。出力制御部660は、図4に関連して説明されたS432における各種の使用制限処理を実行してよい。出力制御部660は、使用制限を解除するための処理(制限解除処理と称される場合がある。)を実行してもよい。 In this embodiment, the output control unit 660 controls the output of images by the display device 140. The output control unit 660 may execute various usage restriction processes in S432 described in relation to FIG. 4. The output control unit 660 may execute a process for removing usage restrictions (sometimes referred to as a restriction removal process).

例えば、安全管理部640が導出した閲覧可能性の程度が予め定められた程度より小さい場合、出力制御部660は出力画像の出力を許可する。例えば、出力制御部660は、上述された閲覧可能性の程度又は安全性の程度を示す評価値が上述された許容範囲の範囲内である場合、閲覧可能性の程度が予め定められた程度より小さいと判定する。 For example, if the degree of viewability derived by the safety management unit 640 is less than a predetermined degree, the output control unit 660 permits the output of the output image. For example, if the evaluation value indicating the degree of viewability or the degree of safety described above is within the range of the above-mentioned tolerance, the output control unit 660 determines that the degree of viewability is less than a predetermined degree.

例えば、安全管理部640が導出した閲覧可能性の程度が予め定められた程度を超えた場合、出力制御部660は上述された使用制限処理を実行することを決定する。例えば、上述された閲覧可能性の程度又は安全性の程度を示す評価値が上述された許容範囲の範囲外である場合、出力制御部660は、閲覧可能性の程度が予め定められた程度を超えていると判定する。出力制御部660は、閲覧可能性の程度が予め定められた程度を超える前に表示されていた出力画像の出力を停止してもよく、出力画像の明るさ若しくはコントラストを調整してもよく、上記の出力画像とは異なる画像を表示領域142に表示させてもよい。 For example, if the degree of viewability derived by the safety management unit 640 exceeds a predetermined degree, the output control unit 660 decides to execute the above-mentioned usage restriction process. For example, if the evaluation value indicating the above-mentioned degree of viewability or degree of safety is outside the above-mentioned allowable range, the output control unit 660 determines that the degree of viewability exceeds the predetermined degree. The output control unit 660 may stop outputting the output image that was displayed before the degree of viewability exceeded the predetermined degree, may adjust the brightness or contrast of the output image, or may display an image different from the above-mentioned output image in the display area 142.

出力制御部660は、出力画像の明るさ若しくはコントラストを調整することで、表示領域142に表示される画面をホワイトアウトさせたり、ブラックアウトさせたりすることができる。これにより、本来の出力画像の出力が妨害される。出力制御部660は、本来の出力画像とは異なる画像を表示領域142に表示させることで、本来の出力画像の一部又は全部の出力が妨害される。本来の出力画像の出力を妨害するために出力される画像は、半透明の画像であってもよく、不透明の画像であってもよい。 The output control unit 660 can adjust the brightness or contrast of the output image to white out or black out the screen displayed in the display area 142. This interferes with the output of the original output image. The output control unit 660 causes an image different from the original output image to be displayed in the display area 142, thereby interfering with the output of part or all of the original output image. The image that is output to interfere with the output of the original output image may be a translucent image or an opaque image.

例えば、ユーザ端末120の使用が制限されている状態において、安全管理部640が導出した閲覧可能性の程度が予め定められた程度より小さくなった場合、出力制御部660は、本来の出力画像の出力を許可する。例えば、出力制御部660は、制限解除処理の実行を決定する。制限解除処理が実行されると、本来の出力画像の出力が再開される。出力制御部660は、上述された閲覧可能性の程度又は安全性の程度を示す評価値が上述された許容範囲の範囲内である場合に、閲覧可能性の程度が予め定められた程度よりも小さいと判定してよい。 For example, when the degree of viewability derived by the safety management unit 640 becomes smaller than a predetermined degree while the use of the user terminal 120 is restricted, the output control unit 660 permits the output of the original output image. For example, the output control unit 660 decides to execute a restriction release process. When the restriction release process is executed, the output of the original output image is resumed. When the evaluation value indicating the degree of viewability or the degree of safety described above is within the allowable range described above, the output control unit 660 may determine that the degree of viewability is smaller than the predetermined degree.

上記の出力画像とは異なる画像としては、第三者に閲覧されてもよい画面を出力するための画像、警告を出力するための画像、本来の出力画像の閲覧を妨害するための画像などが例示される。これらの画像は、使用制限処理に関連して説明された各種の画像と同様の構成を有してよい。 Examples of images that are different from the above output image include images for outputting a screen that may be viewed by a third party, images for outputting a warning, and images for preventing the viewing of the original output image. These images may have the same configuration as the various images described in relation to the usage restriction process.

閲覧可能性の程度が予め定められた程度を超えた瞬間に出力制御部660が使用制限処理の実行を開始したり、閲覧可能性の程度が予め定められた程度より小さくなった瞬間に出力制御部660が制限解除処理の実行を開始したりすると、ユーザ端末120の使用が制限された状態と、ユーザ端末120の使用が制限されていない状態とが頻繁に切り替わる可能性がある。ユーザ端末120の使用が制限された状態と、ユーザ端末120の使用が制限されていない状態とが頻繁に切り替わると、ユーザ体験が低下する。 If the output control unit 660 starts to execute the usage restriction process the moment the degree of viewability exceeds a predetermined degree, or if the output control unit 660 starts to execute the restriction removal process the moment the degree of viewability falls below a predetermined degree, there is a possibility that the user terminal 120 may frequently switch between a state in which the use of the user terminal 120 is restricted and a state in which the use of the user terminal 120 is not restricted. Frequent switching between a state in which the use of the user terminal 120 is restricted and a state in which the use of the user terminal 120 is not restricted results in a degraded user experience.

そこで、出力制御部660は、ユーザ体験及びシステムの安定性を考慮して、ユーザ端末120の安全性の評価値の変動に対する、閲覧可能性の程度に関する上記の判定の感度又は応答性を調整してよい。上述されたとおり、感度又は応答性の調整手法としては、公知の任意の手法が採用され得る。これにより、例えば、ユーザ端末120の安全性の評価値の変動が、閲覧可能性の程度及び予め定められた程度の大小関係に関する判定結果に影響を及ぼすまでの時間が調整される。これにより、ユーザ端末120の安全性の評価値が突発的に変動する場合であっても、ユーザ端末120の使用が制限された状態と、ユーザ端末120の使用が制限されていない状態との切り替わりの頻度が低減され得る。 Therefore, the output control unit 660 may adjust the sensitivity or responsiveness of the above-mentioned judgment regarding the degree of viewability to fluctuations in the evaluation value of the safety of the user terminal 120, taking into account the user experience and the stability of the system. As described above, any known method may be adopted as a method for adjusting the sensitivity or responsiveness. This adjusts, for example, the time until a fluctuation in the evaluation value of the safety of the user terminal 120 affects the judgment result regarding the degree of viewability and the magnitude relationship of the predetermined degree. This can reduce the frequency of switching between a state in which the use of the user terminal 120 is restricted and a state in which the use of the user terminal 120 is not restricted, even if the evaluation value of the safety of the user terminal 120 suddenly fluctuates.

出力制御部660は、上記の時間の長さが予め定められた値よりも大きくなるように、上記の感度又は応答性を調整してよい。ユーザ端末120の安全性の評価値に基づいて、上記の判定の感度又は応答性を調整してもよい。 The output control unit 660 may adjust the sensitivity or responsiveness so that the length of time is greater than a predetermined value. The sensitivity or responsiveness of the judgment may be adjusted based on the safety evaluation value of the user terminal 120.

上記の実施形態においては、出力制御部660が、本来の出力画像の出力を停止したり、本来の出力画像の閲覧を妨害したりすることで、ユーザ端末120の使用が制限される場合を例として、出力制御部660による使用制限の詳細が説明された。しかしながら、出力制御部660による使用制限は、上記の実施形態に限定されない。 In the above embodiment, the details of the usage restriction by the output control unit 660 are described using as an example a case where the output control unit 660 restricts the use of the user terminal 120 by stopping the output of the original output image or preventing the viewing of the original output image. However, the usage restriction by the output control unit 660 is not limited to the above embodiment.

出力制御部660は、表示装置140による画像の出力を制御することで、ユーザ22からの操作入力の受け付けを制限してもよい。操作入力の受け付けの制限は、使用制限の一例であってよい。 The output control unit 660 may restrict the acceptance of operational input from the user 22 by controlling the output of images by the display device 140. Restricting the acceptance of operational input may be an example of a usage restriction.

例えば、閲覧可能性の程度を導出するための処理、又は、表示領域142の設置位置及び/又は設置方向の安全性を評価するための処理が実行されると、出力制御部660は、表示装置140が出力するデスクトップ画面の最前面に、透明画面を表示させる。この段階では、ユーザ22は、マウス操作、キーボード操作、タッチ操作などにより、各種の指示を入力することができる。一方、安全管理部640が導出した閲覧可能性の程度が予め定められた程度を超えた場合、上述された出力画像とは異なる、第三者に閲覧されてもよい画面、警告画面などを表示させる。 For example, when a process for deriving the degree of viewability or a process for evaluating the safety of the installation position and/or installation direction of the display area 142 is executed, the output control unit 660 displays a transparent screen in front of the desktop screen output by the display device 140. At this stage, the user 22 can input various instructions by mouse operation, keyboard operation, touch operation, etc. On the other hand, if the degree of viewability derived by the safety management unit 640 exceeds a predetermined level, a screen that may be viewed by a third party, a warning screen, etc., different from the output image described above is displayed.

これらの画面の大部分は透明ではなく、例えば、ユーザ22がこれらの画面上でマウスを操作しても、当該マウス操作では、これらの画面を透過して、これらの画面の下に配されたデスクトップ上のアイコンを操作することができない。これにより、ユーザ22からの操作入力の受け付けが制限される。 Most of these screens are not transparent, and even if the user 22 operates a mouse on these screens, for example, the mouse operation cannot penetrate these screens and operate icons on the desktop located below these screens. This limits the acceptance of operational inputs from the user 22.

なお、上記の第三者に閲覧されてもよい画面の一部の画素の状態が透明色に指定されていてもよい。これにより、当該画素が配された領域においてユーザ22が入力した指示が受け付けられる。また、上記の第三者に閲覧されてもよい画面、及び、透明画面は、デスクトップ画面よりも小さな画面であってよい。これにより、デスクトップ画面上の一部の領域において、ユーザ22の指示が受け付けられる。 The state of some pixels of the screen that may be viewed by a third party may be specified as a transparent color. This allows instructions entered by user 22 to be accepted in the area where those pixels are arranged. The screen that may be viewed by a third party and the transparent screen may be smaller than the desktop screen. This allows instructions from user 22 to be accepted in a portion of the desktop screen.

本実施形態において、格納部670は、各種の情報を格納する。一実施形態において、格納部670は、ユーザ端末120において実行される情報処理に利用される各種の情報を格納する。他の実施形態において、格納部670は、ユーザ端末120において実行される情報処理により生成される各種の情報を格納する。ユーザ端末120は、定期的に、又は、予め定められたイベントが検出されたタイミングで、格納部670に格納された情報の少なくとも一部を、外部のサーバに送信してよい。 In this embodiment, the storage unit 670 stores various types of information. In one embodiment, the storage unit 670 stores various types of information used in information processing executed in the user terminal 120. In another embodiment, the storage unit 670 stores various types of information generated by information processing executed in the user terminal 120. The user terminal 120 may transmit at least a portion of the information stored in the storage unit 670 to an external server periodically or when a predetermined event is detected.

安全管理部640は、閲覧可能性導出部の一例であってよい。安全管理部640は、周辺データ取得部又は情報処理装置の一例であってもよい。 The safety management unit 640 may be an example of a viewability derivation unit. The safety management unit 640 may be an example of a peripheral data acquisition unit or an information processing device.

図7は、構造情報取得部612の内部構成の一例を概略的に示す。本実施形態において、構造情報取得部612は、三次元点群取得部712と、距離画像取得部714と、ステレオ画像取得部716と、二次元画像取得部718とを備える。 Figure 7 shows an example of the internal configuration of the structural information acquisition unit 612. In this embodiment, the structural information acquisition unit 612 includes a three-dimensional point cloud acquisition unit 712, a distance image acquisition unit 714, a stereo image acquisition unit 716, and a two-dimensional image acquisition unit 718.

本実施形態において、三次元点群取得部712は、周辺データ生成装置152から、表示領域142の周辺に配された1以上の物体の三次元点群データを取得する。三次元点群データは、1以上の点のそれぞれの三次元座標値を示す情報を有する。三次元点群データは、1以上の点のそれぞれの三次元座標値を示す情報と、各点の色を示す情報とを含んでよい。 In this embodiment, the three-dimensional point cloud acquisition unit 712 acquires three-dimensional point cloud data of one or more objects arranged around the display area 142 from the surrounding data generation device 152. The three-dimensional point cloud data has information indicating the three-dimensional coordinate values of each of the one or more points. The three-dimensional point cloud data may include information indicating the three-dimensional coordinate values of each of the one or more points and information indicating the color of each point.

距離画像取得部714は、周辺データ生成装置152から、表示領域142の周辺に配された1以上の物体の距離画像(深度画像、深度マップなど称される場合がある。)のデータ(距離データ又は深度データと称される場合がある。)を取得する。距離画像は、奥行き又は対象物までの距離を表現した平面画像であり、当該平面画像の各画素の値は、当該画素に対応する物体との距離を示す。 The distance image acquisition unit 714 acquires data (sometimes referred to as distance data or depth data) of a distance image (sometimes referred to as a depth image, depth map, etc.) of one or more objects arranged around the display area 142 from the surrounding data generation device 152. A distance image is a planar image that represents the depth or the distance to an object, and the value of each pixel in the planar image indicates the distance to the object corresponding to that pixel.

ステレオ画像取得部716は、周辺データ生成装置152から、表示領域142の周辺に配された1以上の物体を被写体とするステレオ画像のデータを取得する。ステレオ画像取得部716は、ステレオ画像に基づいて、表示領域142の周辺に配された1以上の物体の距離画像を生成してよい。 The stereo image acquisition unit 716 acquires stereo image data having as its subject one or more objects arranged around the periphery of the display area 142 from the peripheral data generation device 152. The stereo image acquisition unit 716 may generate a distance image of one or more objects arranged around the periphery of the display area 142 based on the stereo image.

二次元画像取得部718は、周辺データ生成装置152から、表示領域142の周辺に配された1以上の物体を被写体とする二次元画像のデータを取得する(画像のデータを取得することが、単に、画像を取得すると表記される場合がある。)。二次元画像取得部718は、1以上のマーカが付された1以上の物体を被写体とする二次元画像を取得してもよい。 The two-dimensional image acquisition unit 718 acquires, from the peripheral data generation device 152, data of a two-dimensional image having as its subject one or more objects arranged around the display area 142 (acquiring image data may be simply referred to as acquiring an image). The two-dimensional image acquisition unit 718 may acquire a two-dimensional image having as its subject one or more objects to which one or more markers are attached.

三次元点群取得部712は、周辺データ取得部の一例であってよい。距離画像取得部714は、周辺データ取得部の一例であってよい。ステレオ画像取得部716は、周辺データ取得部の一例であってよい。二次元画像取得部718は、周辺データ取得部の一例であってよい。 The three-dimensional point cloud acquisition unit 712 may be an example of a peripheral data acquisition unit. The distance image acquisition unit 714 may be an example of a peripheral data acquisition unit. The stereo image acquisition unit 716 may be an example of a peripheral data acquisition unit. The two-dimensional image acquisition unit 718 may be an example of a peripheral data acquisition unit.

図8は、安全管理部640の内部構成の一例を概略的に示す。本実施形態において、安全管理部640は、データ変換部810と、物体位置決定部820とを備える。本実施形態において、データ変換部810は、マーカ位置決定部812と、点群生成部814とを有する。本実施形態において、物体位置決定部820は、第1計算部830と、第2計算部840とを有する。本実施形態において、第1計算部830は、点群データ取得部832と、距離算出部834と、角度算出部836とを含む。第2計算部840は、端部検出部842と、遮蔽角算出部844とを含む。 Figure 8 shows an example of the internal configuration of the safety management unit 640. In this embodiment, the safety management unit 640 includes a data conversion unit 810 and an object position determination unit 820. In this embodiment, the data conversion unit 810 includes a marker position determination unit 812 and a point cloud generation unit 814. In this embodiment, the object position determination unit 820 includes a first calculation unit 830 and a second calculation unit 840. In this embodiment, the first calculation unit 830 includes a point cloud data acquisition unit 832, a distance calculation unit 834, and an angle calculation unit 836. The second calculation unit 840 includes an edge detection unit 842 and a shielding angle calculation unit 844.

本実施形態において、データ変換部810は、二次元データを三次元データに変換する。データ変換部810は、例えば、ステレオ画像取得部716が取得したステレオ画像に基づいて、表示領域142の周辺に配された1以上の物体の少なくとも一部の三次元データを生成する。データ変換部810は、例えば、二次元画像取得部718が取得した二次元画像に基づいて、表示領域142の周辺に配された1以上の物体の少なくとも一部の三次元データを生成する。 In this embodiment, the data conversion unit 810 converts two-dimensional data into three-dimensional data. The data conversion unit 810 generates three-dimensional data of at least a portion of one or more objects arranged around the display area 142, for example, based on the stereo image acquired by the stereo image acquisition unit 716. The data conversion unit 810 generates three-dimensional data of at least a portion of one or more objects arranged around the display area 142, for example, based on the two-dimensional image acquired by the two-dimensional image acquisition unit 718.

データ変換部810は、生成された三次元データを物体位置決定部820に出力する。これにより、物体位置決定部820は、表示領域142の周辺に配された1以上の物体の少なくとも一部の三次元モデルを含む仮想空間を構築することができる。また、物体位置決定部820は、上記の仮想空間上で、表示領域142と、上記の1以上の物体との相対的な位置関係を決定することができる。 The data conversion unit 810 outputs the generated three-dimensional data to the object position determination unit 820. This allows the object position determination unit 820 to construct a virtual space including a three-dimensional model of at least a part of one or more objects arranged around the display area 142. Furthermore, the object position determination unit 820 can determine the relative positional relationship between the display area 142 and the one or more objects in the virtual space.

本実施形態においては、データ変換部810が、二次元画像取得部718が取得した二次元画像に予め定められた種類のマーカが写り込んでいる場合に、当該二次元画像に基づいて、表示領域142の周辺に配された1以上の物体の少なくとも一部の三次元データを生成する場合を例として、データ変換部810の詳細が説明される。予め定められた種類のマーカとしては、上述されたARマーカ、QRコード(登録商標)、バーコードなどが例示される。また、説明を簡単にすることを目的として、本実施形態においては、表示領域142と、周辺データ生成装置152とが同一の筐体130に収容されており、表示領域142の法線ベクトル242の向きと、周辺データ生成装置152の光軸252の向きとが略同一である場合を例として、データ変換部810におけるデータ変換処理の一例が説明される。 In this embodiment, the details of the data conversion unit 810 are described using as an example a case where the data conversion unit 810 generates three-dimensional data of at least a part of one or more objects arranged around the display area 142 based on a two-dimensional image acquired by the two-dimensional image acquisition unit 718 when a predetermined type of marker is captured in the two-dimensional image. Examples of the predetermined type of marker include the above-mentioned AR marker, QR code (registered trademark), and barcode. In addition, for the purpose of simplifying the description, in this embodiment, an example of the data conversion process in the data conversion unit 810 is described using as an example a case where the display area 142 and the peripheral data generation device 152 are housed in the same housing 130, and the direction of the normal vector 242 of the display area 142 and the direction of the optical axis 252 of the peripheral data generation device 152 are approximately the same.

本実施形態において、マーカ位置決定部812は、1以上のマーカが付された1以上の物体を被写体とする二次元画像を解析して、当該1以上のマーカの少なくとも一部と、表示領域142との位置関係を決定する。例えば、マーカ位置決定部812は、まず、二次元画像取得部718が取得した二次元画像を解析して、予め定められた種類のマーカを検出するための処理を実行する。1以上のマーカが検出されなかった場合、マーカ位置決定部812は処理を終了する。これにより、例えば、データ変換部810におけるデータ変換処理が終了する。 In this embodiment, the marker position determination unit 812 analyzes a two-dimensional image having as its subject one or more objects to which one or more markers are attached, and determines the positional relationship between at least a portion of the one or more markers and the display area 142. For example, the marker position determination unit 812 first analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit 718, and executes processing to detect a predetermined type of marker. If one or more markers are not detected, the marker position determination unit 812 ends the processing. This ends, for example, the data conversion processing in the data conversion unit 810.

例えば、マーカ位置決定部812は、各マーカの4個の頂点から、カメラ座標系における三次元座標を算出する。例えば、カメラ座標系が移動した場合、過去の基準となる時点におけるカメラ座標系のARマーカの分布座標と、現時点におけるカメラ座標系のARマーカの分布座標とが異なる場合がある。そこで、マーカ位置決定部812は、カメラ座標系の移動の有無を判定してよい。例えば、マーカ位置決定部812は、過去の基準となる時点におけるカメラ座標系と、現時点におけるカメラ座標系との間で、同一インスタンスとなるマーカーのペア(ペアマーカーと称される場合がある。)を総当たりで見つけるための処理を実行する。また、マーカ位置決定部812は、ペアマーカーの位置に基づいて、カメラ座標系の移動の有無を判定する。 For example, the marker position determination unit 812 calculates three-dimensional coordinates in the camera coordinate system from the four vertices of each marker. For example, if the camera coordinate system moves, the distribution coordinates of the AR markers in the camera coordinate system at a past reference point in time may differ from the distribution coordinates of the AR markers in the camera coordinate system at the current point in time. Therefore, the marker position determination unit 812 may determine whether the camera coordinate system has moved. For example, the marker position determination unit 812 executes a process to find pairs of markers (sometimes called pair markers) that are the same instance between the camera coordinate system at a past reference point in time and the camera coordinate system at the current point in time through a brute force search. In addition, the marker position determination unit 812 determines whether the camera coordinate system has moved based on the position of the pair marker.

具体的には、マーカ位置決定部812は、まず、上記の判定を実施する複数の時点のそれぞれにおいて、2つの座標系の変換行列を総当たりで算出する。これにより、マーカ座標が変わる変換行列が導出される。次に、マーカ位置決定部812は、導出された変換行列を用いて、実際にカレントなマーカー位置を過去の基準点に変換し、表示されているマーカー画像と一致するか、差異が大きいかどうかをユークリッド距離などで評価する。マーカ位置決定部812は、上記の処理を繰り返し試行することで、最も差の少ないペア群、又は、差の絶対値が予め定められた値よりも小さなペア群を決定する。これにより、マーカ位置決定部812は、ペアマーカーを見つけることができる。 Specifically, the marker position determination unit 812 first calculates the transformation matrix between the two coordinate systems in a brute-force manner at each of the multiple time points at which the above determination is performed. This derives the transformation matrix that changes the marker coordinates. Next, the marker position determination unit 812 uses the derived transformation matrix to transform the actual current marker position into a past reference point, and evaluates whether it matches the displayed marker image and whether there is a large difference using Euclidean distance or the like. The marker position determination unit 812 repeatedly attempts the above process to determine the pair group with the smallest difference, or the pair group with the absolute value of the difference smaller than a predetermined value. This allows the marker position determination unit 812 to find the pair marker.

一方、上記の画像解析により1以上のマーカが検出された場合、マーカ位置決定部812は、例えば、検出された1以上のマーカのうち、表示領域142との距離を算出可能なマーカを抽出する。例えば、マーカの寸法が既知である場合、2以上の同種のマーカが略同一平面上に付されていることが既知である場合、当該マーカが写り込んだ二次元画像を解析することで、マーカと、表示領域142との距離が算出され得る。 On the other hand, if one or more markers are detected by the image analysis described above, the marker position determination unit 812 extracts, for example, from the one or more detected markers, a marker whose distance from the display area 142 can be calculated. For example, if the dimensions of the marker are known, or if it is known that two or more markers of the same type are placed on approximately the same plane, the distance between the marker and the display area 142 can be calculated by analyzing a two-dimensional image in which the marker appears.

次に、マーカ位置決定部812は、表示領域142との距離を算出可能なマーカのそれぞれ、又は、少なくとも一部について、当該マーカと、表示領域142との位置関係を決定する。マーカと、表示領域142との位置関係は、現実世界における当該マーカ及び表示領域142の相対的な位置関係であってよい。マーカ位置決定部812は、(i)表示領域142と、各マーカの代表点との距離、及び、(ii)表示領域142の法線ベクトル242と、表示領域142の代表点から各マーカの代表点に向かう方向とのなす角度とを算出してもよい。 Next, the marker position determination unit 812 determines the positional relationship between the marker and the display area 142 for each or at least some of the markers whose distance from the display area 142 can be calculated. The positional relationship between the marker and the display area 142 may be the relative positional relationship between the marker and the display area 142 in the real world. The marker position determination unit 812 may calculate (i) the distance between the display area 142 and the representative point of each marker, and (ii) the angle between the normal vector 242 of the display area 142 and the direction from the representative point of the display area 142 toward the representative point of each marker.

本実施形態において、点群生成部814は、マーカ位置決定部812が表示領域142との位置関係を決定したマーカの位置の周辺に点群を生成する。生成される点群に関する情報がマーカに埋め込まれている場合、点群生成部814は、マーカに埋め込まれた情報に従って点群を生成する。上述されたとおり、点群に関する情報としては、生成される点群のワールド座標系における寸法などが例示される。 In this embodiment, the point cloud generation unit 814 generates a point cloud around the position of the marker whose positional relationship with the display area 142 has been determined by the marker position determination unit 812. If information about the point cloud to be generated is embedded in the marker, the point cloud generation unit 814 generates a point cloud according to the information embedded in the marker. As described above, examples of the information about the point cloud include the dimensions of the generated point cloud in the world coordinate system.

生成される点群に関する情報がマーカに埋め込まれていない場合、点群生成部814は、例えば、マーカの周囲の予め定められた範囲に点群を生成してよい。生成される点群に関する情報がマーカに埋め込まれておらず、マーカの識別情報がマーカに埋め込まれている場合、点群生成部814は、マーカの識別情報と、当該マーカの周辺に生成される点群に関する情報とを対応付けて格納するデータベースを参照し、当該データベースに格納されている情報に従って点群を生成してよい。 If information about the point cloud to be generated is not embedded in the marker, the point cloud generation unit 814 may generate a point cloud in a predetermined range around the marker, for example. If information about the point cloud to be generated is not embedded in the marker and the identification information of the marker is embedded in the marker, the point cloud generation unit 814 may refer to a database that stores the identification information of the marker in association with information about the point cloud to be generated around the marker, and generate a point cloud according to the information stored in the database.

本実施形態において、物体位置決定部820は、構造情報取得部612が取得した周辺データを解析して、1以上の物体のそれぞれと、表示領域142との位置関係を決定する。上記の位置関係は、現実世界における相対的な位置関係であってよい。上記の相対的な位置関係を決定する手順としては、第1計算部830における情報処理による手順と、第2計算部840における情報処理による手順とが例示される。 In this embodiment, the object position determination unit 820 analyzes the surrounding data acquired by the structural information acquisition unit 612 to determine the positional relationship between each of the one or more objects and the display area 142. The above positional relationship may be a relative positional relationship in the real world. Examples of procedures for determining the above relative positional relationship include a procedure using information processing in the first calculation unit 830 and a procedure using information processing in the second calculation unit 840.

本実施形態において、第1計算部830は、表示領域142の周辺に配された1以上の物体の三次元データを利用して、表示領域142と、上記の1以上の物体との相対的な位置関係を決定する。第1計算部830は、表示領域142の周辺に配された1以上の物体の少なくとも一部の三次元モデルを含む仮想空間を構築してもよい。第1計算部830は、上記の仮想空間上で、表示領域142と、上記の1以上の物体との相対的な位置関係を決定してもよい。 In this embodiment, the first calculation unit 830 uses three-dimensional data of one or more objects arranged around the display area 142 to determine the relative positional relationship between the display area 142 and the one or more objects. The first calculation unit 830 may construct a virtual space including a three-dimensional model of at least a part of the one or more objects arranged around the display area 142. The first calculation unit 830 may determine the relative positional relationship between the display area 142 and the one or more objects in the virtual space.

本実施形態において、点群データ取得部832は、構造情報取得部612が取得した周辺データに基づいて、1以上の物体のそれぞれの三次元点群データを取得する。一実施形態において、点群データ取得部832は、三次元点群取得部712又は距離画像取得部714が取得した点群データを取得する。他の実施形態において、点群データ取得部832は、データ変換部810が生成した点群データを取得する。 In this embodiment, the point cloud data acquisition unit 832 acquires three-dimensional point cloud data for each of the one or more objects based on the surrounding data acquired by the structural information acquisition unit 612. In one embodiment, the point cloud data acquisition unit 832 acquires point cloud data acquired by the three-dimensional point cloud acquisition unit 712 or the distance image acquisition unit 714. In another embodiment, the point cloud data acquisition unit 832 acquires point cloud data generated by the data conversion unit 810.

本実施形態において、距離算出部834は、表示領域142の代表点と、点群データ取得部832が取得した三次元点群データにより示される1以上の物体のそれぞれの表面に仮想的に配された複数の点のそれぞれとの距離をする。表示領域142の代表点としては、図2に関連して説明された代表点240が例示される。なお、表示領域142の代表点は、表示領域142において出力画像が表示される側の面上の点であればよく、代表点240に限定されない。 In this embodiment, the distance calculation unit 834 calculates the distance between the representative point of the display area 142 and each of a plurality of points virtually arranged on the surface of each of the one or more objects represented by the three-dimensional point cloud data acquired by the point cloud data acquisition unit 832. An example of the representative point of the display area 142 is the representative point 240 described in relation to FIG. 2. Note that the representative point of the display area 142 may be any point on the surface of the display area 142 on the side where the output image is displayed, and is not limited to the representative point 240.

本実施形態において、角度算出部836は、表示領域142の代表点における法線方向と、表示領域142の代表点から1以上の物体のそれぞれの表面に配された複数の点のそれぞれに向かう方向とのなす角度の絶対値を算出する。表示領域142の代表点における法線方向としては、代表点240における法線ベクトル242の向きが例示される。 In this embodiment, the angle calculation unit 836 calculates the absolute value of the angle between the normal direction at the representative point of the display area 142 and the direction from the representative point of the display area 142 to each of a plurality of points arranged on the surface of each of the one or more objects. An example of the normal direction at the representative point of the display area 142 is the direction of the normal vector 242 at the representative point 240.

本実施形態によれば、距離算出部834における情報処理より、1以上の物体のそれぞれと、表示領域142との相対的な距離が決定される。また、角度算出部836における情報処理により、1以上の物体のそれぞれと、表示領域142との相対的な方向が決定される。これにより、1以上の物体のそれぞれと、表示領域142との位置関係が決定される。 According to this embodiment, the relative distance between each of the one or more objects and the display area 142 is determined by information processing in the distance calculation unit 834. Furthermore, the relative direction between each of the one or more objects and the display area 142 is determined by information processing in the angle calculation unit 836. This determines the positional relationship between each of the one or more objects and the display area 142.

本実施形態において、第2計算部840は、周辺データの解析により表示領域142の周辺に検出された物体と、表示領域142との距離を考慮することなく、1以上の物体のそれぞれと、表示領域142との位置関係を決定する。なお、上記の物体を検出する処理において、当該物体と、表示領域142との距離を示す情報が利用されてもよい。 In this embodiment, the second calculation unit 840 determines the positional relationship between each of the one or more objects and the display area 142 without considering the distance between the object detected around the display area 142 by analyzing the surrounding data and the display area 142. Note that, in the process of detecting the above-mentioned objects, information indicating the distance between the object and the display area 142 may be used.

本実施形態においては、説明を簡単にすることを目的として、1以上の物体のそれぞれに、例えば、略水平方向における各物体の端部を示す1組のマーカが付されており、二次元画像取得部718が取得した二次元画像に当該マーカが写り込んでいる場合を例として、第2計算部840が当該二次元画像を解析して、表示領域142と、1以上の物体との相対的な位置関係を決定する手順の一例が説明される。なお、本明細書の記載に接した当業者であれば、上記の1以上の物体の略水平方向の両端の位置を決定することができれば、二次元画像にマーカが写り込んでいない場合であっても、表示領域142と、1以上の物体との相対的な位置関係が決定され得ることを理解することができる。 In this embodiment, for the purpose of simplifying the explanation, for example, a set of markers indicating the ends of each object in the approximately horizontal direction is attached to each of the one or more objects, and an example of a procedure in which the second calculation unit 840 analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit 718 and determines the relative positional relationship between the display area 142 and one or more objects is explained using a case in which the markers are reflected in the two-dimensional image acquired by the two-dimensional image acquisition unit 718. Note that a person skilled in the art who has come into contact with the description of this specification can understand that the relative positional relationship between the display area 142 and one or more objects can be determined even if the markers are not reflected in the two-dimensional image, as long as the positions of both ends of the one or more objects in the approximately horizontal direction can be determined.

本実施形態において、端部検出部842は、二次元画像取得部718が取得した二次元画像を解析して、二次元画像に含まれる複数のマーカを検出する。端部検出部842は、検出された複数のマーカの組み合わせに基づいて、1以上の物体のそれぞれの略水平方向における一方の端部及び他方の端部を検出する。 In this embodiment, the end detection unit 842 analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit 718 and detects multiple markers included in the two-dimensional image. The end detection unit 842 detects one end and the other end of each of one or more objects in the approximately horizontal direction based on a combination of the detected multiple markers.

本実施形態において、遮蔽角算出部844は、1以上の物体のそれぞれについて、表示領域142の代表点から各物体の一方の端部に向かう方向と、表示領域142の代表点から各物体の他方の端部に向かう方向とのなす角度である遮蔽角を算出する。遮蔽角算出部844は、1以上の物体のそれぞれの遮蔽角に基づいて、表示領域142の視野角のうち、1以上の物体により遮蔽される割合を算出する。第1の物体の遮蔽角と、第2の物体の遮蔽角が重複する場合、遮蔽角算出部844は、当該重複が計上されないようにして、1以上の物体により遮蔽される割合を算出する。 In this embodiment, the occlusion angle calculation unit 844 calculates, for each of the one or more objects, an occlusion angle, which is the angle between the direction from the representative point of the display area 142 toward one end of each object and the direction from the representative point of the display area 142 toward the other end of each object. The occlusion angle calculation unit 844 calculates the proportion of the viewing angle of the display area 142 that is occluded by the one or more objects based on the occlusion angles of each of the one or more objects. When the occlusion angle of the first object and the occlusion angle of the second object overlap, the occlusion angle calculation unit 844 calculates the proportion that is occluded by the one or more objects without counting the overlap.

マーカ位置決定部812は、二次元画像取得部又はマーカ位置決定部の一例であってよい。 The marker position determination unit 812 may be an example of a two-dimensional image acquisition unit or a marker position determination unit.

図9は、第1計算部830における情報処理の一例を概略的に示す。距離算出部834及び角度算出部836は、例えば、点群データ又は距離データを参照して、単一の物体を示す点群910に含まれるP1からPnまでのn個の点のそれぞれについて、代表点250から各点に向かうベクトルに関する情報を取得する。 Figure 9 shows an example of information processing in the first calculation unit 830. The distance calculation unit 834 and the angle calculation unit 836, for example, refer to the point cloud data or distance data to obtain information about the vectors pointing from the representative point 250 to each of the n points P1 to Pn included in the point cloud 910 representing a single object.

図9において、ベクトル924は、代表点250から点P1に向かうベクトルを示す。ベクトル924の大きさはdp1であり、ベクトル924と、光軸252とのなす角度はθP1である。同様に、ベクトル926は、代表点250から点Pnに向かうベクトルを示す。ベクトル924の大きさはdpnであり、ベクトル926と、光軸252とのなす角度はθPnである。 In FIG. 9, vector 924 indicates a vector directed from representative point 250 to point P1. The magnitude of vector 924 is dp1, and the angle between vector 924 and optical axis 252 is θP1. Similarly, vector 926 indicates a vector directed from representative point 250 to point Pn. The magnitude of vector 924 is dpn, and the angle between vector 926 and optical axis 252 is θPn.

図10は、第2計算部840における情報処理の一例を概略的に示す。本実施形態において、遮蔽物1020の一方の端部にはマーカ1022が付されており、遮蔽物1020の他方の端部にはマーカ1024が付されている。同様に、遮蔽物1040の一方の端部にはマーカ1042が付されており、遮蔽物1040の他方の端部にはマーカ1044が付されている。 Figure 10 shows an example of information processing in the second calculation unit 840. In this embodiment, a marker 1022 is attached to one end of the shielding object 1020, and a marker 1024 is attached to the other end of the shielding object 1020. Similarly, a marker 1042 is attached to one end of the shielding object 1040, and a marker 1044 is attached to the other end of the shielding object 1040.

遮蔽角算出部844は、マーカ1022及びマーカ1024を利用して、遮蔽物1020の遮蔽角θAを算出することができる。遮蔽角算出部844は、マーカ1042及びマーカ1044を利用して、遮蔽物1040の遮蔽角θBを算出することができる。 The shielding angle calculation unit 844 can calculate the shielding angle θA of the shielding object 1020 using the markers 1022 and 1024. The shielding angle calculation unit 844 can calculate the shielding angle θB of the shielding object 1040 using the markers 1042 and 1044.

図11は、安全管理部640の内部構成の一例を概略的に示す。本実施形態において、安全管理部640は、例えば、導出手順決定部1130と、指標値導出部1140と、評価部1150とを備える。本実施形態において、導出手順決定部1130は、例えば、指標設定部1132と、評価設定部1134とを有する。本実施形態において、指標値導出部1140は、例えば、第1指標導出部1142と、第2指標導出部1144と、第3指標導出部1146と、第4指標導出部1148とを有する。 Figure 11 shows an example of the internal configuration of the safety management unit 640. In this embodiment, the safety management unit 640 includes, for example, a derivation procedure determination unit 1130, an index value derivation unit 1140, and an evaluation unit 1150. In this embodiment, the derivation procedure determination unit 1130 includes, for example, an index setting unit 1132 and an evaluation setting unit 1134. In this embodiment, the index value derivation unit 1140 includes, for example, a first index derivation unit 1142, a second index derivation unit 1144, a third index derivation unit 1146, and a fourth index derivation unit 1148.

本実施形態において、導出手順決定部1130は、安全管理部640が閲覧可能性の程度又は安全性の程度を導出するための手順である導出手順を決定する。導出手順としは、上述されたユーザ端末120の安全性の評価に関する設定が例示される。導出手順決定部1130は、起動検知部622が上記の起動を検知してからの経過時間が予め定められた条件を満足する場合と、当該経過時間が予め定められた条件を満足しない場合とで導出手順が異なるように、上記の導出手順を決定してよい。上述されたとおり、予め定められた条件としては、上記の経過時間の長さが予め定められた第1閾値よりも小さいという条件が例示される。 In this embodiment, the derivation procedure determination unit 1130 determines a derivation procedure, which is a procedure for the safety management unit 640 to derive the degree of viewability or the degree of safety. An example of the derivation procedure is the setting related to the evaluation of the safety of the user terminal 120 described above. The derivation procedure determination unit 1130 may determine the derivation procedure so that the derivation procedure is different between a case where the elapsed time since the start-up detection unit 622 detected the start-up satisfies a predetermined condition and a case where the elapsed time does not satisfy the predetermined condition. As described above, an example of the predetermined condition is a condition that the length of the elapsed time is smaller than a predetermined first threshold value.

本実施形態において、指標設定部1132は、上述された指標設定の内容を決定する。指標設定部1132は、上述された第1設定における指標設定の内容を決定してもよく、上述された第2設定における指標設定の内容を決定してもよい。指標設定の内容としては、評価処理に用いられる指標の種類、指標の値を導出するための関数又は学習モデル、当該関数又は学習モデルの説明変数の種類、当該関数又は学習モデルのパラメータの値などが例示される。上記の関数としては、公知の任意の評価関数が用いられ得る。上記の関数は、重み付け線形和であってよい。 In this embodiment, the indicator setting unit 1132 determines the content of the indicator setting described above. The indicator setting unit 1132 may determine the content of the indicator setting in the first setting described above, or may determine the content of the indicator setting in the second setting described above. Examples of the content of the indicator setting include the type of indicator used in the evaluation process, a function or learning model for deriving the value of the indicator, the type of explanatory variable of the function or learning model, and the parameter value of the function or learning model. Any known evaluation function may be used as the above function. The above function may be a weighted linear sum.

指標設定部1132は、例えば、(i)周辺状態取得部610が取得した周辺状態情報により示される表示領域142の周辺の状態、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯に基づいて、評価処理に用いられる1又は複数の指標の種類を決定する。指標設定部1132は、指標の種類に応じて、当該指標の値を導出するための関数又は学習モデルを決定してよい。指標設定部1132は、関数又は学習モデルの種類に応じて、当該関数又は学習モデルのパラメータの値を決定してよい。 The indicator setting unit 1132 determines the type of one or more indicators to be used in the evaluation process, for example, based on (i) the state of the surroundings of the display area 142 indicated by the surrounding state information acquired by the surrounding state acquisition unit 610, and/or (ii) the current time or the time zone to which the current time belongs. The indicator setting unit 1132 may determine a function or learning model for deriving the value of the indicator depending on the type of indicator. The indicator setting unit 1132 may determine the parameter value of the function or learning model depending on the type of function or learning model.

一実施形態において、指標設定部1132は、カメラ154が出力した画像データを解析して、評価処理に用いられる指標の種類を決定する。指標設定部1132は、カメラ154が出力した画像データを解析して、評価処理において指標値又は評価値を補正するか否かを決定してよい。指標設定部1132は、解析結果に基づいて、上記の補正の態様を決定してもよく、補正の程度を決定してもよい。 In one embodiment, the index setting unit 1132 analyzes the image data output by the camera 154 to determine the type of index to be used in the evaluation process. The index setting unit 1132 may analyze the image data output by the camera 154 to determine whether or not to correct the index value or the evaluation value in the evaluation process. The index setting unit 1132 may determine the manner of the above correction or the degree of correction based on the analysis result.

例えば、指標設定部1132は、構造情報取得部612又は物性情報取得部614から、カメラ154が出力した画像データを取得する。例えば、カメラ154の撮像素子に太陽光が直接入射した場合、カメラ154は、少なくとも一部がホワイトアウトした画像を出力する。しかしながら、安全管理部640が、ホワイトアウトした画像のみに基づいて周囲の状況を正確に判断することは難しい。このような場合であっても、安全管理部640が、周辺データ生成装置152が取得した周辺データ、及び/又は、環境情報取得部616が取得した各種の環境情報に基づいて評価値を導出することで、評価値の導出精度が向上し得る。また、安全管理部640が、ホワイトアウトした領域における上述された評価値を補正することで、評価値の導出精度が向上し得る。 For example, the index setting unit 1132 acquires image data output by the camera 154 from the structural information acquisition unit 612 or the physical property information acquisition unit 614. For example, when sunlight is directly incident on the imaging element of the camera 154, the camera 154 outputs an image in which at least a portion is whited out. However, it is difficult for the safety management unit 640 to accurately judge the surrounding situation based only on the whited out image. Even in such a case, the safety management unit 640 derives an evaluation value based on the surrounding data acquired by the surrounding data generation device 152 and/or various environmental information acquired by the environmental information acquisition unit 616, thereby improving the accuracy of deriving the evaluation value. In addition, the safety management unit 640 corrects the above-mentioned evaluation value in the whited out area, thereby improving the accuracy of deriving the evaluation value.

より具体的には、指標設定部1132は、カメラ154が出力した画像データにホワイトアウトした領域が含まれるか否かを判定する。カメラ154が出力した画像データにホワイトアウトした領域が含まれると判定された場合、指標設定部1132は、評価処理に用いられる1又は複数の指標のうち、カメラ154が出力した画像データを用いずに算出可能な指標を用いて、評価値を算出することを決定してよい。指標設定部1132は、ホワイトアウトした領域における閲覧性の程度が大きくなるように、指標値を補正してもよい。 More specifically, the index setting unit 1132 determines whether or not a whiteout region is included in the image data output by the camera 154. If it is determined that a whiteout region is included in the image data output by the camera 154, the index setting unit 1132 may decide to calculate the evaluation value using an index that can be calculated without using the image data output by the camera 154, out of one or more indexes used in the evaluation process. The index setting unit 1132 may correct the index value so that the degree of viewability in the whiteout region is increased.

指標設定部1132は、太陽光が撮像素子に入射したことによるホワイトアウトと、白色の物体の表面に強い光が照射されたことによるホワイトアウトとを区別してもよい。例えば、指標設定部1132は、カメラ154が上記の画像データを出力したときのGPS情報及び/又は日時から、カメラ154と、太陽との位置関係を算出する。指標設定部1132は、カメラ154及び太陽の位置関係から、画像データのホワイトアウトが、太陽光が撮像素子に入射したことによるホワイトアウトであるか否かを判定してよい。 The index setting unit 1132 may distinguish between a whiteout caused by sunlight entering the imaging element and a whiteout caused by strong light being irradiated onto the surface of a white object. For example, the index setting unit 1132 calculates the positional relationship between the camera 154 and the sun from the GPS information and/or the date and time when the camera 154 outputs the above image data. The index setting unit 1132 may determine whether or not the whiteout in the image data is a whiteout caused by sunlight entering the imaging element from the positional relationship between the camera 154 and the sun.

他の実施形態において、指標設定部1132は、設置位置の周囲が暗所であるか否かに基づいて、評価処理に用いられる指標の種類を決定する。指標設定部1132は、設置位置の周囲が暗所であるか否かに基づいて、評価処理において指標値又は評価値を補正するか否かを決定してよい。指標設定部1132は、上記の補正の態様を決定してもよく、補正の程度を決定してもよい。 In another embodiment, the index setting unit 1132 determines the type of index to be used in the evaluation process based on whether the surroundings of the installation position are dark or not. The index setting unit 1132 may determine whether to correct the index value or the evaluation value in the evaluation process based on whether the surroundings of the installation position are dark or not. The index setting unit 1132 may determine the manner of the above correction, or may determine the degree of correction.

例えば、指標設定部1132は、照度センサ156が出力した照度デーに基づいて、設置位置の周囲が暗所であるか否かを判定する。指標設定部1132は、照度に代えて又は照度と共に、緯度経度、日時などの照度以外の環境情報を考慮して、設置位置の周囲が暗所であるか否かを判定してもよい。 For example, the index setting unit 1132 determines whether the surroundings of the installation position are dark based on the illuminance data output by the illuminance sensor 156. The index setting unit 1132 may determine whether the surroundings of the installation position are dark by considering environmental information other than illuminance, such as latitude and longitude, date and time, instead of or in addition to illuminance.

これらの実施形態に関連して説明された補正の態様は、特に限定されない。例えば、複数の深度推定結果の平均値を用いることで、誤認識の程度が改善され得る。複数の深度推定結果としては、正面画像(例えば、カメラ154が出力した画像である。)を用いた深度推定の結果、及び、上下反転又は左右反転された画像を用いた深度推定の結果が例示される。理想系においては、正面画像を用いて推定された深度、左右反転された画像を用いて推定された深度、及び、上下反転された画像を用いて推定された深度は、同一の値となることが期待される。しかしながら、カメラ154が出力した画像に異常が生じている場合、正面画像を用いて推定された深度、左右反転された画像を用いて推定された深度、及び、上下反転された画像を用いて推定された深度が異なる。そこで、これらの値の統計値(例えば、平均値である。)を利用して深度を推定することで、推定精度が向上し、推定処理の安定性が向上する。 The correction modes described in relation to these embodiments are not particularly limited. For example, the degree of erroneous recognition can be improved by using the average value of multiple depth estimation results. Examples of multiple depth estimation results include a result of depth estimation using a front image (e.g., an image output by the camera 154) and a result of depth estimation using an image that has been inverted upside down or inverted left-right. In an ideal system, the depth estimated using the front image, the depth estimated using the image that has been inverted left-right, and the depth estimated using the image that has been inverted upside down are expected to be the same value. However, if an abnormality occurs in the image output by the camera 154, the depth estimated using the front image, the depth estimated using the image that has been inverted left-right, and the depth estimated using the image that has been inverted upside down are different. Therefore, by estimating the depth using the statistics of these values (e.g., the average value), the estimation accuracy is improved and the stability of the estimation process is improved.

本実施形態において、評価設定部1134は、上述された評価設定の内容を決定する。評価設定部1134は、上述された第1設定における評価設定の内容を決定してもよく、上述された第2設定における評価設定の内容を決定してもよい。評価設定の内容としては、評価値を導出するための説明変数として用いられる指標の種類、評価値を導出するための関数又は学習モデル、当該関数又は学習モデルのパラメータの値などが例示される。上記の関数としては、公知の任意の評価関数が用いられ得る。評価関数は、1以上の指標の指標値を説明変数とし、評価値を目的変数とする関数であってよい。上記の関数は、重み付け線形和であってよい。 In this embodiment, the evaluation setting unit 1134 determines the contents of the evaluation setting described above. The evaluation setting unit 1134 may determine the contents of the evaluation setting in the first setting described above, or may determine the contents of the evaluation setting in the second setting described above. Examples of the contents of the evaluation setting include the type of index used as an explanatory variable for deriving the evaluation value, a function or learning model for deriving the evaluation value, and the parameter values of the function or learning model. Any publicly known evaluation function can be used as the above function. The evaluation function may be a function that uses the index values of one or more indexes as explanatory variables and the evaluation value as a response variable. The above function may be a weighted linear sum.

評価設定部1134は、例えば、指標設定部1132が設定した指標の種類に応じて、評価値を導出するための関数又は学習モデルを決定する。評価設定部1134は、例えば、(a)指標設定部1132が設定した指標の種類と、(b)(i)周辺状態取得部610が取得した周辺状態情報により示される表示領域142の周辺の状態、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯とに基づいて、評価値を導出するための関数又は学習モデルを決定する。上記の関数は、重み付け線形和であってよい。評価設定部1134は、例えば、(i)周辺状態取得部610が取得した周辺状態情報により示される表示領域142の周辺の状態、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯に基づいて、評価処理に用いられる1又は複数の指標のそれぞれに設定される重みの値を決定する。 The evaluation setting unit 1134 determines a function or learning model for deriving an evaluation value according to, for example, the type of index set by the index setting unit 1132. The evaluation setting unit 1134 determines a function or learning model for deriving an evaluation value based on, for example, (a) the type of index set by the index setting unit 1132 and (b) (i) the state of the surroundings of the display area 142 indicated by the surrounding state information acquired by the surrounding state acquisition unit 610, and/or (ii) the current time or the time zone to which the current time belongs. The above function may be a weighted linear sum. The evaluation setting unit 1134 determines a weight value to be set for each of one or more indexes used in the evaluation process based on, for example, (i) the state of the surroundings of the display area 142 indicated by the surrounding state information acquired by the surrounding state acquisition unit 610, and/or (ii) the current time or the time zone to which the current time belongs.

評価設定部1134は、環境情報取得部616が取得した環境情報に基づいて、評価処理に用いられる1又は複数の指標のそれぞれに設定される重みの値を決定してよい。これにより、制御装置170は、ユーザ端末120の周辺環境に応じて、上記の重みを適切に設定することができる。 The evaluation setting unit 1134 may determine the weighting values to be set for one or more indicators used in the evaluation process based on the environmental information acquired by the environmental information acquisition unit 616. This allows the control device 170 to appropriately set the weighting values according to the surrounding environment of the user terminal 120.

例えば、評価設定部1134は、環境情報取得部616が取得した(i)照度情報により示される照度、及び/又は、(ii)現在時刻若しくは現在時刻が属する時間帯に基づいて、評価処理に用いられる1又は複数の指標のそれぞれに設定される重みの値を決定する。上述されたとおり、現在時刻若しくは現在時刻が属する時間帯は、ユーザ端末120の周辺の明るさを示す指標として用いられ得る。これにより、制御装置170は、ユーザ端末120の周辺の照度に基づいて、上記の評価値を導出することができる。 For example, the evaluation setting unit 1134 determines a weighting value to be set for each of one or more indicators used in the evaluation process based on (i) the illuminance indicated by the illuminance information acquired by the environmental information acquisition unit 616, and/or (ii) the current time or the time zone to which the current time belongs. As described above, the current time or the time zone to which the current time belongs can be used as an indicator of the brightness around the user terminal 120. This allows the control device 170 to derive the above evaluation value based on the illuminance around the user terminal 120.

例えば、昼間の環境下と、夜間の環境下とでは光学系カメラによる撮像結果の露光品質に大きな違いが生じる場合がある。その結果、特定の環境下では、評価値の導出精度が低下することも考えられる。例えば、極暗所では、評価値の導出精度が低下する可能性がある。そこで、評価値の導出精度が低下する可能性が比較的高い場合には、上述された使用制限処理が実行されるように評価値を導出することで、情報漏洩のリスクをさらに低下させることができる。評価値の導出精度が低下する可能性が比較的高い場合としては、照度情報により示される照度が予め定められた値よりも小さい場合、現在時刻若しくは現在時刻が属する時間帯に基づいて予測される照度が予め定められた値よりも小さい場などが例示される。 For example, there may be a large difference in the exposure quality of the image captured by the optical camera in a daytime environment and a nighttime environment. As a result, it is possible that the accuracy of deriving the evaluation value may decrease in certain environments. For example, in extremely dark places, the accuracy of deriving the evaluation value may decrease. Therefore, when there is a relatively high possibility that the accuracy of deriving the evaluation value may decrease, the risk of information leakage can be further reduced by deriving the evaluation value so that the above-mentioned usage restriction process is executed. Examples of cases where there is a relatively high possibility that the accuracy of deriving the evaluation value may decrease include when the illuminance indicated by the illuminance information is smaller than a predetermined value, and when the illuminance predicted based on the current time or the time zone to which the current time belongs is smaller than a predetermined value.

本実施形態において、指標値導出部1140は、上述された閲覧可能性の程度に関連する1又は複数の指標のそれぞれの値(指標値と称される場合がある。)を導出する。指標値導出部1140は、指標設定部1132が決定した指標設定の内容に従って、各指標の指標値を導出する。例えば、指標値導出部1140は、指標設定部1132が決定した種類の指標について、指標値を導出する。 In this embodiment, the index value derivation unit 1140 derives the values (sometimes referred to as index values) of one or more indicators related to the degree of viewability described above. The index value derivation unit 1140 derives the index value of each indicator according to the content of the index setting determined by the index setting unit 1132. For example, the index value derivation unit 1140 derives index values for the types of indicators determined by the index setting unit 1132.

(第1指標の指標値)
本実施形態において、第1指標導出部1142は、上述された第1指標の値を導出する。上述されたとおり、第1指標は、表示領域142の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度を示す。例えば、表示領域142の設置位置の周辺を撮像した動画データにおいて、現実世界の特定の領域に対応する画素の光の強度が大きく変動している場合、当該領域において物体の移動、変形又は変質が生じている可能性が高い。また、上記の特定の領域に対応する画素における微視的な光の強度の変動を解析することで、例えば、当該領域に自然光が照射されているか否か、当該領域を自然光が透過しているか否かなどが判定され得る。
(Index value of the first index)
In this embodiment, the first index derivation unit 1142 derives the value of the first index described above. As described above, the first index indicates the degree to which object movement or light fluctuation is detected around the installation position of the display area 142. For example, in video data captured around the installation position of the display area 142, if the light intensity of a pixel corresponding to a specific area in the real world fluctuates significantly, there is a high possibility that an object has moved, deformed, or deteriorated in the area. In addition, by analyzing the microscopic light intensity fluctuation in the pixel corresponding to the specific area, it can be determined, for example, whether natural light is irradiated to the area, whether natural light is transmitted through the area, etc.

本実施形態において、第1指標導出部1142は、例えば、物性情報取得部614が取得した動画データに含まれる複数のフレームを解析して、フレーム間における光の強度の変動を導出する。第1指標導出部1142は、上記の光の強度の変動に基づいて第1指標の値を導出する。第1指標の値は、例えば、上記の光の強度の変動の統計量に基づいて導出される。 In this embodiment, the first index derivation unit 1142, for example, analyzes multiple frames included in the video data acquired by the physical property information acquisition unit 614, and derives the variation in light intensity between frames. The first index derivation unit 1142 derives the value of the first index based on the variation in the light intensity. The value of the first index is derived, for example, based on statistics of the variation in the light intensity.

第1指標導出部1142は、同一の動画データに対して、第1指標を導出するための条件を変えて、第1指標を導出してもよい。これにより、同一の動画データから、複数の種類の第1指標が導出される。 The first index derivation unit 1142 may derive the first index by changing the conditions for deriving the first index for the same video data. This allows multiple types of first indexes to be derived from the same video data.

第1指標を導出するための条件としては、(i)動画の各フレームを予め定められた複数の領域(計算単位と称される場合がある。)に区分する場合における、計算単位の形状及び/又は大きさ、(ii)第1指標を導出するために用られる複数のフレームの動画データ中における位置及び当該フレームの個数、(iii)各画素の色が複数の要素により指定されている場合における、第1指標の導出に用いられる要素などが例示される。動画データを構成する複数のフレームのそれぞれがカラー画像である場合、当該カラー画像を構成する各画素の色は、色を指定するための複数の要素のそれぞれの値により特定される。例えば、各フレームがRGB形式のカラー画像である場合、各フレームの各画素の色は、R要素の値であるR値と、G要素の値であるG値と、B要素の値であるB値とにより指定される。 Examples of conditions for deriving the first index include (i) the shape and/or size of the calculation unit when each frame of the video is divided into multiple predetermined regions (sometimes referred to as calculation units), (ii) the positions in the video data of the multiple frames used to derive the first index and the number of such frames, and (iii) the elements used to derive the first index when the color of each pixel is specified by multiple elements. When each of the multiple frames constituting the video data is a color image, the color of each pixel constituting the color image is specified by the respective values of multiple elements for specifying the color. For example, when each frame is a color image in RGB format, the color of each pixel in each frame is specified by an R value, which is the value of the R element, a G value, which is the value of the G element, and a B value, which is the value of the B element.

第1指標導出部1142は、例えば、1以上の計算単位のそれぞれを識別するための識別情報と、各計算単位の第1指標の値とが対応付けられたデータ(変動データと称される場合がある。)を出力する。第1指標導出部1142は、複数の計算単位のそれぞれの識別情報と、各計算単位の第1指標の値とが画像形式で格納されたデータ(変動画像データと称される場合がある。)を出力してよい。この場合、各計算単位の識別情報は、例えば、画像におけるx座標及びy座標を示す。変動画像データは、変動データの一例であってよい。 The first index derivation unit 1142 outputs, for example, data (sometimes referred to as variation data) in which identification information for identifying each of one or more calculation units is associated with the value of the first index of each calculation unit. The first index derivation unit 1142 may output data (sometimes referred to as variation image data) in which the identification information of each of the multiple calculation units and the value of the first index of each calculation unit are stored in an image format. In this case, the identification information of each calculation unit indicates, for example, the x and y coordinates in the image. The variation image data may be an example of variation data.

一実施形態において、第1指標導出部1142は、計算単位の形状及び/又は大きさが異なる複数の変動データを出力する。例えば、第1指標導出部1142は、同一の動画データから抽出された同一のフレーム群を用いて、(i)9個の画素からなる正方形の計算単位ごとに導出された第1指標の値に基づいて生成された変動画像データと、(ii)1024個の画素からなる正方形の計算単位ごとに導出された第1指標の値に基づいて生成された変動画像データとを出力する。なお、計算単位の形状及び計算単位を構成する画素の個数は、上記の例に限定されない。 In one embodiment, the first index derivation unit 1142 outputs multiple pieces of variation data having different shapes and/or sizes of calculation units. For example, the first index derivation unit 1142 uses the same frame group extracted from the same video data to output (i) variation image data generated based on the value of the first index derived for each square calculation unit consisting of 9 pixels, and (ii) variation image data generated based on the value of the first index derived for each square calculation unit consisting of 1024 pixels. Note that the shape of the calculation unit and the number of pixels constituting the calculation unit are not limited to the above example.

これにより、評価部1150は、複数の変動画像データのそれぞれに対して異なる評価基準を適用して、表示領域142の安全性の程度を評価することができる。その結果、表示領域142の安全性の程度が、より精度よく評価され得る。 This allows the evaluation unit 1150 to apply different evaluation criteria to each of the multiple dynamic image data to evaluate the degree of safety of the display area 142. As a result, the degree of safety of the display area 142 can be evaluated with greater accuracy.

例えば、情報漏洩のリスクが大きいほど第1指標の値が大きくなるように、第1指標の値が決定されている場合において、「9個の画素からなる正方形の計算単位ごとに導出された第1指標の値が閾値より大きい場合に、表示領域142の安全性の評価を下げる」という評価基準、又は、「1024個の画素からなる正方形の計算単位ごとに導出された第1指標の値が閾値より大きい場合に、表示領域142の安全性の評価を下げる」という評価基準の何れか一方が適用される場合、閾値の設定が難しい。その結果、評価の精度を向上させることも難しい。 For example, in a case where the value of the first index is determined such that the greater the risk of information leakage, the greater the value of the first index, if either the evaluation criterion "if the value of the first index derived for each square calculation unit consisting of 9 pixels is greater than a threshold, the evaluation of the safety of the display area 142 is reduced" or the evaluation criterion "if the value of the first index derived for each square calculation unit consisting of 1024 pixels is greater than a threshold, the evaluation of the safety of the display area 142 is reduced" is applied, it is difficult to set the threshold. As a result, it is also difficult to improve the accuracy of the evaluation.

これに対して、「9個の画素からなる正方形の計算単位ごとに導出された第1指標の値が、第1閾値より大きい場合、又は、1024個の画素からなる正方形の計算単位ごとに導出された第1指標の値が、第2閾値より大きい場合に、表示領域142の安全性の評価を下げる」という評価基準が適用される場合には、上記の何れか一方の評価基準が適用される場合と比較して、閾値の設定が容易になる。また、閾値が適切に設定されることにより、評価の精度も向上する。 In contrast to this, when the evaluation criterion that "if the value of the first index derived for each square calculation unit consisting of 9 pixels is greater than the first threshold value, or if the value of the first index derived for each square calculation unit consisting of 1024 pixels is greater than the second threshold value, the evaluation of the safety of the display area 142 is reduced" is applied, it becomes easier to set the threshold value compared to the case where either one of the above evaluation criteria is applied. In addition, by appropriately setting the threshold value, the accuracy of the evaluation is improved.

他の実施形態において、第1指標導出部1142は、第1指標の導出に用いられるフレームの位置及び/又は個数が異なる複数の変動データを出力する。例えば、第1指標導出部1142は、同一の動画データから抽出された同一のフレーム群を用いて、(i)当該フレーム群に含まれる全てのフレームを用いて導出された第1指標の値に基づいて生成された1つの変動画像データと、(ii)当該フレーム群に含まれる一部のフレームを用いて導出された第1指標の値に基づいて生成された1以上の変動画像データとを出力する。
In another embodiment, the first index derivation unit 1142 outputs a plurality of variation data in which the positions and/or the number of frames used to derive the first index are different. For example, the first index derivation unit 1142 uses the same frame group extracted from the same video data to output (i) one variation image data generated based on the value of the first index derived using all frames included in the frame group, and (ii) one or more variation image data generated based on the value of the first index derived using some of the frames included in the frame group.

例えば、第1指標導出部1142は、動画データに含まれる150~399番目のフレームを、第1指標の導出に用いられるフレーム群として抽出する。第1指標導出部1142は、150~399番目のフレームを用いて各計算単位の第1指標の値を導出し、基本となる変動画像データを出力する。また、第1指標導出部1142は、150~199番目のフレームを用いて各計算単位の第1指標の値を導出し、別の変動画像データを出力する。同様に、第1指標導出部1142は、200~249番目のフレーム、250~299番目のフレーム、300~349番目のフレーム、及び、350~399番目のフレームのそれぞれを用いて各計算単位の第1指標の値を導出し、さらに別の9個の変動画像データを出力する。 For example, the first index derivation unit 1142 extracts the 150th to 399th frames included in the video data as a frame group used to derive the first index. The first index derivation unit 1142 derives the value of the first index for each calculation unit using the 150th to 399th frames, and outputs basic variation image data. The first index derivation unit 1142 also derives the value of the first index for each calculation unit using the 150th to 199th frames, and outputs another set of variation image data. Similarly, the first index derivation unit 1142 derives the value of the first index for each calculation unit using the 200th to 249th frames, the 250th to 299th frames, the 300th to 349th frames, and the 350th to 399th frames, and outputs another set of nine variation image data.

計算に用いられるフレーム(対象フレームと称される場合がある。)の個数が小さいほど、対象フレームの撮像期間中に突発的に生じた事象が、対象フレームを用いて導出された第1指標の値に与える影響が大きくなる。上述されたとおり、人工光の変動の周波数分布は、多くの場合、自然光の変動の周波数分布と比較してシャープな形状を有する。上記の変動の周波数分布は、上述された光の揺らぎの周波数分布に対応する。 The smaller the number of frames (sometimes referred to as target frames) used in the calculation, the greater the impact that a sudden event that occurs during the imaging period of the target frames will have on the value of the first index derived using the target frames. As described above, the frequency distribution of artificial light fluctuations often has a sharper shape than the frequency distribution of natural light fluctuations. The frequency distribution of the above fluctuations corresponds to the frequency distribution of light fluctuations described above.

これにより、評価部1150は、例えば、対象フレームの個数が少ない場合における変動の周波数分布と、対象フレームの個数が多い場合における変動の周波数分布とを比較することで、各画素又は各計算単位において検出された光に含まれる自然光の割合の多寡を判定することができる。例えば、(i)上記の周波数分布の分散、標準偏差又は変動係数の差の絶対値が予め定められた値よりも大きい場合、又は、(ii)対象フレームの個数が多い場合における変動の周波数分布の分散、標準偏差又は変動係数に対する、対象フレームの個数が少ない場合における変動の周波数分布の分散、標準偏差又は変動係数の比が、予め定められた値よりも小さい場合、評価部1150は、自然光の割合が多いと判定する。 As a result, the evaluation unit 1150 can determine the proportion of natural light contained in the light detected in each pixel or each calculation unit by, for example, comparing the frequency distribution of the fluctuation when the number of target frames is small with the frequency distribution of the fluctuation when the number of target frames is large. For example, if (i) the absolute value of the difference between the variance, standard deviation, or coefficient of variation of the above frequency distribution is greater than a predetermined value, or (ii) the ratio of the variance, standard deviation, or coefficient of variation of the frequency distribution of the fluctuation when the number of target frames is small to the variance, standard deviation, or coefficient of variation of the frequency distribution of the fluctuation when the number of target frames is large is less than a predetermined value, the evaluation unit 1150 determines that the proportion of natural light is high.

さらに他の実施形態において、第1指標導出部1142は、第1指標の導出に用いられる色の要素が異なる複数の変動データを出力する。例えば、各フレームがRGB形式のカラー画像である場合、第1指標導出部1142は、同一の動画データから抽出された同一のフレーム群を用いて、(a)R値、G値及びB値の少なくとも2つを用いて導出された第1指標の値に基づいて生成された変動画像データと、(b)(i)上記の組み合わせとは異なる組み合わせ、又は、(ii)R値、G値及びB値の何れか1つを用いて導出された第1指標の値に基づいて生成された別の変動画像データとを出力する。 In yet another embodiment, the first index derivation unit 1142 outputs multiple pieces of variation data in which the color elements used to derive the first index are different. For example, when each frame is a color image in RGB format, the first index derivation unit 1142 uses the same frame group extracted from the same video data to output (a) variation image data generated based on the value of the first index derived using at least two of the R value, the G value, and the B value, and (b) (i) another variation image data generated based on the value of the first index derived using a combination different from the above combination, or (ii) any one of the R value, the G value, and the B value.

本発明者は、被写体の種類又は被写体の表面の状態によって、光の揺らぎが強調される周波数が異なることを見出した。例えば、人間の皮膚の表面で反射した光のR値の変動は、当該光のG値又はB値の変動よりも大きい。また、人間の皮膚の表面で反射した光のR値の変動は、植物の表面で反射した光のR値の変動よりも大きい。さらに、人間の視覚の感度特性と、撮像装置の感度特性とが異なることから、表示装置140は、人間の視覚特性に応じた色校正が施された画像を出力する。そのため、ディスプレイ、スクリーンなどの表示装置に表示されている物体からの光と、現実に存在する物体からの光とでは、R値、G値及びB値のバランスが異なる。 The inventors have found that the frequency at which light fluctuations are emphasized varies depending on the type of subject or the condition of the subject's surface. For example, the variation in the R value of light reflected from the surface of human skin is greater than the variation in the G or B value of that light. Also, the variation in the R value of light reflected from the surface of human skin is greater than the variation in the R value of light reflected from the surface of a plant. Furthermore, since the sensitivity characteristics of human vision and the sensitivity characteristics of an imaging device differ, the display device 140 outputs an image that has been color calibrated according to the human visual characteristics. Therefore, the balance of the R, G, and B values is different between light from an object displayed on a display device such as a display or screen and light from an object that actually exists.

これにより、第1指標導出部1142が、例えば、R値、G値及びB値の1つ又は2つに基づいて第1指標を導出することにより、評価部1150が、特定の種類の物体(例えば、人間である。)を検出する精度が向上し得る。また、評価部1150は、例えば、R要素、G要素及びB要素の第1の組み合わせに基づいて導出された第1指標と、R要素、G要素及びB要素の第2の組み合わせに基づいて導出された第1指標を比較することで、特定の種類の物体(例えば、人間である。)の検出精度を向上させることができる。第1の組み合わせ及び第2の組み合わせは、各組み合わせを構成するRGB要素が異なる。第1の組み合わせは、R要素、G要素及びB要素の1つにより構成されてもよく、第2の組み合わせは、R要素、G要素及びB要素の1つにより構成されてもよい。 As a result, the first index derivation unit 1142 derives the first index based on, for example, one or two of the R value, G value, and B value, and the evaluation unit 1150 can improve the accuracy of detecting a specific type of object (for example, a human). In addition, the evaluation unit 1150 can improve the detection accuracy of a specific type of object (for example, a human) by comparing, for example, a first index derived based on a first combination of the R element, the G element, and the B element with a first index derived based on a second combination of the R element, the G element, and the B element. The first combination and the second combination have different RGB elements that constitute each combination. The first combination may be composed of one of the R element, the G element, and the B element, and the second combination may be composed of one of the R element, the G element, and the B element.

第1指標導出部1142は、上述された第1指標を導出するための条件の少なくとも2つを変えて、第1指標を導出してもよい。第1指標導出部1142は、物性情報取得部614が取得した動画データに対して、カメラ154自体の移動を補正するための処理を施した後、第1指標を導出するための処理を実行してもよい。第1指標導出部1142における情報処理の詳細は後述される。 The first index derivation unit 1142 may derive the first index by changing at least two of the conditions for deriving the first index described above. The first index derivation unit 1142 may perform processing for correcting the movement of the camera 154 itself on the video data acquired by the physical property information acquisition unit 614, and then execute processing for deriving the first index. Details of the information processing in the first index derivation unit 1142 will be described later.

(第2指標の指標値)
本実施形態において、第2指標導出部1144は、上述された第2指標の指標値を導出する。上述されたとおり、第2指標は、表示領域142の設置位置の周辺に存在する遮蔽物の配置状況を示す。例えば、第2指標は、遮蔽物により表示領域142への第三者の視線が遮られる程度を示す。第2指標導出部1144は、例えば、構造情報取得部612が取得した周辺データを解析して、表示領域142の周囲に配された遮蔽物のそれぞれが、第三者の視線を遮る度合いを導出する。
(Index value of the second index)
In this embodiment, the second index derivation unit 1144 derives an index value of the above-described second index. As described above, the second index indicates the arrangement of obstructions present around the installation position of the display area 142. For example, the second index indicates the degree to which the obstructions block the line of sight of a third party to the display area 142. For example, the second index derivation unit 1144 analyzes the surrounding data acquired by the structural information acquisition unit 612 to derive the degree to which each of the obstructions arranged around the display area 142 blocks the line of sight of a third party.

第2指標導出部1144は、構造情報取得部612が取得した点群データ又は距離データに基づいて、表示領域142の周囲に配された遮蔽物のそれぞれが、第三者の視線を遮る度合いを導出してよい。第2指標導出部1144は、構造情報取得部612が取得した画像データから、被写体とカメラ154との距離を算出して距離データを生成し、当該距離データを用いて、表示領域142の周囲に配された遮蔽物のそれぞれが、第三者の視線を遮る度合いを導出してよい。第2指標導出部1144は、物体位置決定部820が構築した三次元仮想空間を用いて、表示領域142の周囲に配された遮蔽物のそれぞれが、第三者の視線を遮る度合いを導出してもよい。 The second index derivation unit 1144 may derive the degree to which each of the obstructions arranged around the display area 142 obstructs the line of sight of a third party based on the point cloud data or distance data acquired by the structural information acquisition unit 612. The second index derivation unit 1144 may calculate the distance between the subject and the camera 154 from the image data acquired by the structural information acquisition unit 612 to generate distance data, and use the distance data to derive the degree to which each of the obstructions arranged around the display area 142 obstructs the line of sight of a third party. The second index derivation unit 1144 may use the three-dimensional virtual space constructed by the object position determination unit 820 to derive the degree to which each of the obstructions arranged around the display area 142 obstructs the line of sight of a third party.

第2指標導出部1144は、例えば、距離算出部834が算出した複数の点のそれぞれと、表示領域142の代表点との距離に基づいて、第2指標の値を導出する。第2指標導出部1144は、(i)複数の点のそれぞれについて第2指標の値を導出してもよく、(ii)1以上の遮蔽物のそれぞれを識別した後、各遮蔽物上の複数の点又は各遮蔽物の代表点と、表示領域142の代表点との距離に基づいて、遮蔽物ごとに第2指標の値を導出してもよい。 The second index derivation unit 1144 derives the value of the second index based on, for example, the distance between each of the multiple points calculated by the distance calculation unit 834 and the representative point of the display area 142. The second index derivation unit 1144 may (i) derive the value of the second index for each of the multiple points, or (ii) after identifying each of one or more obstructions, derive the value of the second index for each obstruction based on the distance between multiple points on each obstruction or a representative point of each obstruction and a representative point of the display area 142.

第2指標導出部1144は、例えば、角度算出部836が算出した複数の点のそれぞれに関する角度の絶対値に基づいて、第2指標の値を導出する。第2指標導出部1144は、(i)複数の点のそれぞれについて第2指標の値を導出してもよく、(ii)1以上の遮蔽物のそれぞれを識別した後、遮蔽物ごとに第2指標の値を導出してもよい。 The second index derivation unit 1144 derives the value of the second index based on, for example, the absolute value of the angle for each of the multiple points calculated by the angle calculation unit 836. The second index derivation unit 1144 may (i) derive the value of the second index for each of the multiple points, or (ii) identify each of the one or more obstructions and then derive the value of the second index for each obstruction.

第2指標導出部1144は、例えば、距離算出部834が算出した複数の点のそれぞれに関する距離と、角度算出部836が算出した複数の点のそれぞれに関する角度の絶対値とに基づいて、第2指標の値を導出する。第2指標導出部1144は、(i)複数の点のそれぞれについて第2指標の値を導出してもよく、(ii)1以上の遮蔽物のそれぞれを識別した後、遮蔽物ごとに第2指標の値を導出してもよい。 The second index derivation unit 1144 derives the value of the second index based on, for example, the distance for each of the multiple points calculated by the distance calculation unit 834 and the absolute value of the angle for each of the multiple points calculated by the angle calculation unit 836. The second index derivation unit 1144 may (i) derive the value of the second index for each of the multiple points, or (ii) identify each of one or more obstructions and then derive the value of the second index for each obstruction.

(第3指標の指標値)
本実施形態において、第3指標導出部1146は、上述された第3指標の指標値を導出する。上述されたとおり、第3指標は、表示領域142の設置位置の周辺環境の状況を示す。第3指標導出部1146は、例えば、環境情報取得部616が取得した環境情報により示される周辺環境の状況に基づいて、第3指標の値を導出する。
(Index value of the third index)
In this embodiment, the third index derivation unit 1146 derives the index value of the above-described third index. As described above, the third index indicates the status of the surrounding environment of the installation position of the display area 142. The third index derivation unit 1146 derives the value of the third index based on, for example, the status of the surrounding environment indicated by the environmental information acquired by the environmental information acquisition unit 616.

一実施形態において、第3指標導出部1146は、環境情報取得部616が取得した照度情報により示される照度に基づいて、第3指標の値を導出する。第3指標導出部1146は、照度が大きいほど第3指標の値が大きくなるように第3指標の値を導出してよい。 In one embodiment, the third index derivation unit 1146 derives the value of the third index based on the illuminance indicated by the illuminance information acquired by the environmental information acquisition unit 616. The third index derivation unit 1146 may derive the value of the third index such that the value of the third index increases as the illuminance increases.

他の実施形態において、第3指標導出部1146は、環境情報取得部616が取得した環境情報により示される周辺環境の状況に基づいて、表示領域142の設置位置における視程の大きさを決定してよい。例えば、第3指標導出部1146は、周辺環境の状況と、視程の大きさとを対応付けて格納するデータベースを参照して、環境情報取得部616が取得した環境情報に基づいて、上記の視程の大きさを決定する。第3指標導出部1146は、上記の視程の大きさに基づいて第3指標の値を導出してよい。 In another embodiment, the third index derivation unit 1146 may determine the visibility at the installation position of the display area 142 based on the state of the surrounding environment indicated by the environmental information acquired by the environmental information acquisition unit 616. For example, the third index derivation unit 1146 refers to a database that stores the state of the surrounding environment and the visibility in association with each other, and determines the visibility based on the environmental information acquired by the environmental information acquisition unit 616. The third index derivation unit 1146 may derive the value of the third index based on the visibility.

例えば、視程が大きいほど、情報処理端末のユーザが周囲に存在する第三者の存在に気が付きやすくなる。一方、視程が大きいほど、第三者が情報処理端末が出力した情報を閲覧しやすくなる。そこで、第3指標導出部1146は、例えば、視程が大きくなるほど第3指標の値が大きくなるように、第3指標の値を導出してよい。第3指標導出部1146は、視程が大きくなるほど第3指標の値が小さくなるように、第3指標の値を導出してよい。 For example, the greater the visibility, the easier it is for the user of the information processing terminal to notice the presence of a third party in the vicinity. On the other hand, the greater the visibility, the easier it is for a third party to view information output by the information processing terminal. Therefore, the third index derivation unit 1146 may derive the value of the third index, for example, so that the greater the visibility, the greater the value of the third index. The third index derivation unit 1146 may derive the value of the third index so that the greater the visibility, the smaller the value of the third index.

(第4指標の指標値)
本実施形態において、第4指標導出部1148は、上述された第4指標の指標値を導出する。上述されたとおり、第4指標は、物体又は事象の種類に応じた情報漏洩のリスクを示す。第4指標導出部1148は、例えば、属性情報取得部618が取得した属性情報に基づいて第4指標の値を導出する。第4指標導出部1148は、例えば、1以上の物体又は事象のそれぞれについて、物体又は事象の種類及び/又は属性と、当該物体又は事象が観測された位置から第三者が出力画像を閲覧する可能性の程度を示す値とが対応付けられたデータベースを参照して、実際に観測された物体又は事象の種類及び/又は属性に基づいて、上記の第4指標の値を決定する。
(Index value of the fourth index)
In this embodiment, the fourth index derivation unit 1148 derives the index value of the above-mentioned fourth index. As described above, the fourth index indicates the risk of information leakage according to the type of object or event. The fourth index derivation unit 1148 derives the value of the fourth index based on, for example, the attribute information acquired by the attribute information acquisition unit 618. The fourth index derivation unit 1148 determines the value of the above-mentioned fourth index based on the type and/or attribute of the object or event actually observed, for example, by referring to a database in which the type and/or attribute of the object or event is associated with a value indicating the degree of possibility that a third party will view the output image from the position where the object or event is observed, for each of one or more objects or events.

上述されたとおり、属性情報取得部618は、環境センサ150が出力した画像データを解析して物体を検出する。例えば、属性情報取得部618は、画像中から物体の輪郭を検出し、検出された物体の種類及び/属性を判別する。しかしながら、輪郭検出技術を用いた物体を検出する場合、検出された物体がディスプレイ、スクリーンなどの表示装置に表示されているのか、当該物体が現実空間に実在するのかを判別することが難しい。 As described above, the attribute information acquisition unit 618 detects an object by analyzing the image data output by the environmental sensor 150. For example, the attribute information acquisition unit 618 detects the contour of an object from within the image and determines the type and/or attributes of the detected object. However, when detecting an object using contour detection technology, it is difficult to determine whether the detected object is displayed on a display device such as a display or screen, or whether the object actually exists in real space.

一実施形態において、第4指標導出部1148は、画像中における物体が検出された位置に基づいて、検出された物体の種類及び/属性を決定又は変更してよい。例えば、第1の物体及び第2の物体が検出されている場合において、第2の物体の位置が第1の物体の輪郭の内側であり、且つ、第1の物体の種類又は属性がディスプレイ、スクリーンなどの表示装置であるとき、第4指標導出部1148は、第2の物体の種類及び/又は属性が、表示装置に表示された画像であると判定する。また、第4指標導出部1148は、第2の物体の種類及び/又は属性が、表示装置に表示された画像であるとの判定結果に基づいて、上記の第4指標の値を決定する。これにより、第4指標導出部1148は、第4指標の値を適切に決定することができる。 In one embodiment, the fourth index derivation unit 1148 may determine or change the type and/or attribute of the detected object based on the position where the object is detected in the image. For example, when a first object and a second object are detected, and the position of the second object is inside the contour of the first object, and the type or attribute of the first object is a display device such as a display or screen, the fourth index derivation unit 1148 determines that the type and/or attribute of the second object is an image displayed on the display device. Furthermore, the fourth index derivation unit 1148 determines the value of the fourth index based on the determination result that the type and/or attribute of the second object is an image displayed on the display device. This allows the fourth index derivation unit 1148 to appropriately determine the value of the fourth index.

他の実施形態において、第4指標導出部1148は、検出された物体の色に基づいて、検出された物体の種類及び/属性を決定又は変更してよい。人間の視覚の感度特性と、撮像装置の感度特性とが異なることから、表示装置は、人間の視覚特性に応じた色校正が施された画像を出力する。そのため、物体が表示装置に表示されている場合と、当該物体が現実空間に実在する場合とでは、カメラ154により検出される色が異なる。これにより、第4指標導出部1148は、検出された物体の色に基づいて、検出された物体の種類又属性を決定又は変更することができる。また、第4指標導出部1148は、上記の決定又は変更された物体の種類又属性に基づいて、上記の第4指標の値を決定する。これにより、第4指標導出部1148は、第4指標の値を適切に決定することができる。 In another embodiment, the fourth index derivation unit 1148 may determine or change the type and/or attribute of the detected object based on the color of the detected object. Since the sensitivity characteristics of human vision and the sensitivity characteristics of the imaging device are different, the display device outputs an image that has been color calibrated according to the human visual characteristics. Therefore, the color detected by the camera 154 differs between when an object is displayed on the display device and when the object actually exists in real space. This allows the fourth index derivation unit 1148 to determine or change the type or attribute of the detected object based on the color of the detected object. Furthermore, the fourth index derivation unit 1148 determines the value of the fourth index based on the determined or changed type or attribute of the object. This allows the fourth index derivation unit 1148 to appropriately determine the value of the fourth index.

この場合において、第4指標導出部1148は、第1指標導出部1142と協働して、検出された物体の種類及び/属性を決定又は変更してよい。上述されたとおり、第1指標導出部1142は、R要素、G要素及びB要素の任意の組み合わせに基づいて第1指標を導出することができる。また、第1指標導出部1142は、R要素、G要素及びB要素の第1の組み合わせに基づいて導出された第1指標と、R要素、G要素及びB要素の第2の組み合わせに基づいて導出された第1指標とを出力することができる。第4指標導出部1148は、例えば、1以上の物体又は事象のそれぞれについて、(a)物体又は事象の種類及び/又は属性と、(b)(i)R要素、G要素及びB要素の特定の組み合わせにより導出される第1指標の値を示す情報、又は、(ii)R要素、G要素及びB要素の第1の組み合わせに基づいて導出された第1指標の値と、R要素、G要素及びB要素の第2の組み合わせに基づいて導出された第1指標の値との比較結果を示す情報とが対応付けられたデータベースを参照して、第1指標導出部1142が出力した第1指標に基づいて、検出された物体の種類及び/属性を決定する。上記の決定された物体の種類又属性に基づいて、上記の第4指標の値を決定する。これにより、第4指標導出部1148は、第4指標の値を適切に決定することができる。 In this case, the fourth index derivation unit 1148 may cooperate with the first index derivation unit 1142 to determine or change the type and/or attribute of the detected object. As described above, the first index derivation unit 1142 can derive a first index based on any combination of the R element, the G element, and the B element. In addition, the first index derivation unit 1142 can output a first index derived based on a first combination of the R element, the G element, and the B element, and a first index derived based on a second combination of the R element, the G element, and the B element. The fourth index derivation unit 1148, for example, refers to a database in which (a) the type and/or attribute of the object or event and (b) (i) information indicating the value of the first index derived by a specific combination of the R element, the G element, and the B element, or (ii) information indicating the comparison result between the value of the first index derived based on a first combination of the R element, the G element, and the B element and the value of the first index derived based on a second combination of the R element, the G element, and the B element are associated with each other, and determines the type and/or attribute of the detected object based on the first index output by the first index derivation unit 1142. Based on the determined type or attribute of the object, the fourth index derivation unit 1148 determines the value of the fourth index. This allows the fourth index derivation unit 1148 to appropriately determine the value of the fourth index.

(閲覧可能性の程度の評価)
本実施形態において、評価部1150は、指標値導出部1140が導出した1又は複数の指標の値に基づいて、閲覧可能性の程度を評価する。評価部1150は、閲覧可能性の程度を示す評価値を導出してもよい。
(Evaluation of the degree of accessibility)
In this embodiment, the evaluation unit 1150 evaluates the degree of viewability based on the value of one or more indexes derived by the index value derivation unit 1140. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability.

(総合評価)
本実施形態において、評価部1150は、評価設定部1134が決定した評価設定の内容に従って、上記の評価値を導出する。評価部1150は、任意の関数又は学習モデルに、指標設定部1132が決定した1以上の種類の指標の指標値を入力することで、上記の評価値を導出してよい。
(comprehensive evaluation)
In this embodiment, the evaluation unit 1150 derives the above evaluation value in accordance with the contents of the evaluation setting determined by the evaluation setting unit 1134. The evaluation unit 1150 may derive the above evaluation value by inputting index values of one or more types of indexes determined by the index setting unit 1132 into an arbitrary function or learning model.

例えば、評価部1150は、指標設定部1132が決定した1以上の種類の指標の指標値と、当該1以上の指標のそれぞれに設定される重みの値とに基づいて、上記の指標の指標値の重み付き線形和を導出する。評価部1150は、上記の重み付き線形和を上記の評価値として出力する。これにより、評価部1150は、閲覧可能性の程度を総合的に評価することができる。 For example, the evaluation unit 1150 derives a weighted linear sum of the index values of one or more types of indexes determined by the index setting unit 1132, based on the index values of the one or more types of indexes and the weight values set for each of the one or more indexes. The evaluation unit 1150 outputs the weighted linear sum as the evaluation value. This allows the evaluation unit 1150 to comprehensively evaluate the degree of viewability.

なお、閲覧可能性の程度を総合的に評価する手法は、上記の実施形態に限定されない。他の実施形態において、評価部1150は、重み付け論理計算、条件分岐、繰り返し処理を含むスクリプトを用いて、閲覧可能性の程度を総合的に評価してよい。さらに他の実施形態において、評価部1150は、ニューラルネットワーク技術を用いて、閲覧可能性の程度を総合的に評価してよい。例えば、評価部1150は、指標値導出部1140が出力した各種の指標値に基づいて、当該各種の指標値の特徴を表現した1以上のダイジェスト値を導出する。評価部1150は、各種の関数処理、畳み込み処理などを含む汎用スクリプトを用いて上記のダイジェスト値を導出してよい。評価部1150は、1以上のダイジェスト値を入力とし、総合評価の結果を出力とする学習データーを準備し、任意の学習モデルの学習処理を実行する。評価部1150は、学習済みの学習モデルを用いて、閲覧可能性の程度を総合的に評価してよい。 The method of comprehensively evaluating the degree of viewability is not limited to the above embodiment. In another embodiment, the evaluation unit 1150 may use a script including weighted logic calculation, conditional branching, and repetitive processing to comprehensively evaluate the degree of viewability. In yet another embodiment, the evaluation unit 1150 may use neural network technology to comprehensively evaluate the degree of viewability. For example, the evaluation unit 1150 derives one or more digest values that express the characteristics of the various index values based on the various index values output by the index value derivation unit 1140. The evaluation unit 1150 may derive the digest value using a general-purpose script including various function processes, convolution processes, and the like. The evaluation unit 1150 prepares learning data that receives one or more digest values as input and outputs the result of the comprehensive evaluation, and executes a learning process for an arbitrary learning model. The evaluation unit 1150 may use a learned learning model to comprehensively evaluate the degree of viewability.

(第1指標に基づく評価)
本実施形態において、評価部1150は、第1指標の値に基づいて、閲覧可能性の程度を評価する。例えば、評価部1150は、ユーザ端末120の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度を評価することで、ユーザ端末120の安全性を評価する。評価部1150は、例えば、ユーザ端末120の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度が小さいほど、ユーザ端末120の安全性を高く評価する。第1指標の値に基づいて、閲覧可能性の程度を評価する手順の詳細は後述される。
(Evaluation based on the first indicator)
In this embodiment, the evaluation unit 1150 evaluates the degree of viewability based on the value of the first index. For example, the evaluation unit 1150 evaluates the safety of the user terminal 120 by evaluating the degree to which object movement or light flicker is detected around the installation position of the user terminal 120. For example, the evaluation unit 1150 evaluates the safety of the user terminal 120 higher the smaller the degree to which object movement or light flicker is detected around the installation position of the user terminal 120. Details of the procedure for evaluating the degree of viewability based on the value of the first index will be described later.

(第2指標に基づく評価)
本実施形態において、評価部1150は、第2指標の値に基づいて、閲覧可能性の程度を評価する。例えば、評価部1150は、物体位置決定部820が決定した上記の位置関係に基づいて、上記の評価値を導出する。
(Evaluation based on the second indicator)
In the present embodiment, the evaluation unit 1150 evaluates the degree of viewability based on the value of the second index. For example, the evaluation unit 1150 derives the evaluation value based on the positional relationship determined by the object position determination unit 820.

上述されたとおり、出力画像の閲覧可能性の程度は、情報漏洩に対する安全性の程度を示す指標として用いられる。出力画像の閲覧可能性の程度が大きくなればなるほど、遮蔽物により第三者の視線を遮ることが困難になることを意味する。つまり、出力画像の閲覧可能性の程度が大きくなるほど、情報漏洩に対する安全性の程度が小さくなる。 As described above, the degree of viewability of the output image is used as an index of the degree of safety against information leakage. The greater the degree of viewability of the output image, the more difficult it is to block a third party's line of sight with an obstruction. In other words, the greater the degree of viewability of the output image, the lower the degree of safety against information leakage.

一実施形態において、表示領域142及び遮蔽物の距離が大きい場合と、表示領域142及び遮蔽物の距離が小さい場合とを比較すると、表示領域142及び遮蔽物の距離が大きい場合の方が、第三者による表示領域142及び遮蔽物の間への割り込みが容易になる。また、表示領域142及び遮蔽物の距離が大きくなると、ユーザ端末120のユーザ22が、第三者による表示領域142の覗き見を発見することが困難になる。つまり、表示領域142及び遮蔽物の距離が大きくなるほど、閲覧可能性の程度が大きくなるとも考えられる。 In one embodiment, when comparing a case where the distance between the display area 142 and the obstruction is large with a case where the distance between the display area 142 and the obstruction is small, it is easier for a third party to get in between the display area 142 and the obstruction when the distance between the display area 142 and the obstruction is large. Also, when the distance between the display area 142 and the obstruction is large, it becomes difficult for the user 22 of the user terminal 120 to discover that a third party is peeking at the display area 142. In other words, it can be considered that the greater the distance between the display area 142 and the obstruction, the greater the degree of viewability.

一方、表示領域142及び遮蔽物の間に第三者が存在し、当該第三者が出力画像を覗き見している場合を想定すると、当該第三者と、表示領域142との距離が大きいほど、第三者による出力画像の内容の理解が困難になる。つまり、表示領域142及び遮蔽物の距離が大きくなるほど、閲覧可能性の程度が小さくなるとも考えられる。 On the other hand, if we assume that a third party is present between the display area 142 and an obstruction and is peeking at the output image, the greater the distance between the third party and the display area 142, the more difficult it will be for the third party to understand the contents of the output image. In other words, the greater the distance between the display area 142 and the obstruction, the less likely it is that the image will be viewable.

他の実施形態によれば、第三者が表示領域142を斜めから閲覧する場合と、第三者が表示領域142を正面から閲覧する場合とを比較すると、第三者が表示領域142を正面から閲覧する場合の方が、第三者による出力画像の内容の理解が容易になる。一方、表示領域142の正面にはユーザ22が存在する。そのため、第三者が、表示領域142の正面、且つ、ユーザ22の背後から、表示領域142を覗き見ることは比較的困難であるとも考えられる。 According to another embodiment, when comparing a case where a third party views the display area 142 from an angle with a case where the third party views the display area 142 from the front, the third party can more easily understand the contents of the output image when the third party views the display area 142 from the front. On the other hand, the user 22 is present in front of the display area 142. Therefore, it is considered to be relatively difficult for a third party to peek at the display area 142 from in front of the display area 142 and behind the user 22.

そのため、閲覧可能性の程度の導出方法は、目的及び状況に応じて適切に設定され得る。一実施形態において、評価部1150は、(i)表示領域142から離れた位置に配された物体ほど、閲覧可能性の程度が大きくなるように、及び/又は、(ii)表示領域142の正面に近い位置に配された物体ほど、閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出する。他の実施形態おいて、評価部1150は、(i)表示領域142から近い位置に配された物体ほど、閲覧可能性の程度が大きくなるように、及び/又は、(ii)表示領域142の正面に近い位置に配された物体ほど、閲覧可能性の程度が大きくなるように、閲覧可能性の程度を示す評価値を導出する。 Therefore, the method of deriving the degree of viewability can be appropriately set depending on the purpose and the situation. In one embodiment, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability such that (i) the degree of viewability is greater for objects arranged in positions farther from the display area 142, and/or (ii) the degree of viewability is smaller for objects arranged in positions closer to the front of the display area 142. In another embodiment, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability such that (i) the degree of viewability is greater for objects arranged in positions closer to the display area 142, and/or (ii) the degree of viewability is greater for objects arranged in positions closer to the front of the display area 142.

(第1計算部830に基づいて閲覧可能性の程度が導出される実施形態)
一実施形態において、第2指標導出部1144は、距離算出部834が算出した複数の点のそれぞれに関する距離に基づいて、各点が第三者による出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、複数の点のそれぞれについて算出する。評価部1150は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を示す評価値を導出する。抑制指標は、第2指標の一例であってよい。
(Embodiment in which the degree of viewability is derived based on the first calculation unit 830)
In one embodiment, the second index derivation unit 1144 calculates a value of a suppression index for each of the multiple points, the suppression index being an index indicating the degree to which each point suppresses the viewing of the output image by a third party, based on the distance for each of the multiple points calculated by the distance calculation unit 834. The evaluation unit 1150 derives an evaluation value indicating the degree of viewability by summing up the suppression index values for each of the multiple points. The suppression index may be an example of the second index.

他の実施形態において、第2指標導出部1144は、角度算出部836が算出した複数の点のそれぞれに関する角度の絶対値に基づいて、各点が第三者による出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、複数の点のそれぞれについて算出する。評価部1150は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を示す評価値を導出する。抑制指標は、第2指標の一例であってよい。 In another embodiment, the second index derivation unit 1144 calculates a suppression index value for each of the multiple points, which is an index indicating the degree to which each point suppresses viewing of the output image by a third party, based on the absolute value of the angle for each of the multiple points calculated by the angle calculation unit 836. The evaluation unit 1150 derives an evaluation value indicating the degree of viewability by summing up the suppression index values for each of the multiple points. The suppression index may be an example of the second index.

さらに他の実施形態において、第2指標導出部1144は、距離算出部834が算出した複数の点のそれぞれに関する距離と、角度算出部836が算出した複数の点のそれぞれに関する角度の絶対値とに基づいて、複数の点のそれぞれに関する抑制指標の値を算出する。評価部1150は、複数の点のそれぞれに関する抑制指標の値を合計することで、閲覧可能性の程度を示す評価値を導出する。抑制指標は、第2指標の一例であってよい。 In yet another embodiment, the second index derivation unit 1144 calculates a suppression index value for each of the multiple points based on the distance for each of the multiple points calculated by the distance calculation unit 834 and the absolute value of the angle for each of the multiple points calculated by the angle calculation unit 836. The evaluation unit 1150 derives an evaluation value indicating the degree of viewability by summing up the suppression index values for each of the multiple points. The suppression index may be an example of the second index.

(第2計算部840の計算結果に基づいて閲覧可能性の程度が導出される実施形態)
評価部1150は、遮蔽角算出部844が算出した1以上の物体のそれぞれの遮蔽角に基づいて、閲覧可能性の程度を示す評価値を導出してよい。例えば、評価部1150は、表示領域142の視野角のうち、1以上の物体により遮蔽される割合の大きさに基づいて、閲覧可能性の程度を示す評価値を導出する。評価部1150は、上記の遮蔽される割合が大きいほど閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出してよい。
(An embodiment in which the degree of viewability is derived based on the calculation result of the second calculation unit 840)
The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability based on the occlusion angles of each of the one or more objects calculated by the occlusion angle calculation unit 844. For example, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability based on the proportion of the viewing angle of the display area 142 that is occluded by one or more objects. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability such that the greater the occlusion proportion, the smaller the degree of viewability.

(第3指標に基づく評価)
本実施形態において、評価部1150は、第3指標の値に基づいて、閲覧可能性の程度を評価する。評価部1150は、例えば、第3指標の値に基づいて、閲覧可能性の程度を示す評価値を導出する。評価部1150は、環境情報取得部616が取得した環境情報により示される周辺環境の状況に基づいて、閲覧可能性の程度を示す評価値を導出してもよい。評価部1150は、視程が大きいほど閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出してよい。評価部1150は、視程が小さいほど閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出してもよい。
(Evaluation based on the third indicator)
In this embodiment, the evaluation unit 1150 evaluates the degree of viewability based on the value of the third index. The evaluation unit 1150 derives an evaluation value indicating the degree of viewability based on, for example, the value of the third index. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability based on the state of the surrounding environment indicated by the environmental information acquired by the environmental information acquisition unit 616. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability such that the greater the visibility, the smaller the degree of viewability. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability such that the smaller the visibility, the smaller the degree of viewability.

例えば、評価部1150は、照度が大きいほど閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出する。評価部1150は、照度が小さいほど閲覧可能性の程度が小さくなるように、閲覧可能性の程度を示す評価値を導出してもよい。 For example, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability such that the greater the illuminance, the smaller the degree of viewability. The evaluation unit 1150 may also derive an evaluation value indicating the degree of viewability such that the lower the illuminance, the smaller the degree of viewability.

(第4指標に基づく評価)
本実施形態において、評価部1150は、第4指標の値に基づいて、閲覧可能性の程度を評価する。評価部1150は、例えば、第4指標の値に基づいて、閲覧可能性の程度を示す評価値を導出する。評価部1150は、属性情報取得部618が取得した属性情報により示される物体又は事象の種類又は属性に基づいて、閲覧可能性の程度を示す評価値を導出してもよい。評価部1150は、第4指標の値を、閲覧可能性の程度を示す評価値として出力してよい。
(Evaluation based on the fourth indicator)
In this embodiment, the evaluation unit 1150 evaluates the degree of viewability based on the value of the fourth index. The evaluation unit 1150 derives an evaluation value indicating the degree of viewability based on, for example, the value of the fourth index. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability based on the type or attribute of an object or event indicated by the attribute information acquired by the attribute information acquisition unit 618. The evaluation unit 1150 may output the value of the fourth index as an evaluation value indicating the degree of viewability.

図12は、安全管理部640における情報処理の一例を概略的に示す。本実施形態においては、表示領域142の視野角は、周辺データ生成装置152又はカメラ154の視野角よりも小さい場合を例として、ユーザ端末120の安全性を評価するための処理の一例が説明される。より具体的には、安全管理部640が、画像1200を用いてユーザ端末120の安全性を評価するための処理の一例が説明される。画像1200は、作業部屋300の位置Aに配されたユーザ端末120の周辺データ生成装置152又はカメラ154が撮像した画像の一例を示す。 Figure 12 shows an example of information processing in the safety management unit 640. In this embodiment, an example of processing for evaluating the safety of the user terminal 120 is described, taking as an example a case where the viewing angle of the display area 142 is smaller than the viewing angle of the peripheral data generation device 152 or the camera 154. More specifically, an example of processing for the safety management unit 640 to evaluate the safety of the user terminal 120 using an image 1200 is described. Image 1200 shows an example of an image captured by the peripheral data generation device 152 or the camera 154 of the user terminal 120 placed at position A in the work room 300.

上述されたとおり、本実施形態において、表示領域142の視野角は、周辺データ生成装置152又はカメラ154の視野角よりも小さい。そのため、表示領域142の視野角に相当する領域(図中、単位画像1240として表される。)の大きさは、画像1200の大きさよりも小さくなる。安全管理部640は、表示領域142の視野角に相当する大きさの画像(図中、単位画像1240として表される。)の中心1242を、予め定められた点線1250に沿って左右方向又は上下方向にずらしながら、安全性を評価してよい。これにより、安全管理部640は、単一の画像1200を利用して、複数の設置方向に関する安全性を評価することができる。 As described above, in this embodiment, the viewing angle of the display area 142 is smaller than the viewing angle of the peripheral data generating device 152 or the camera 154. Therefore, the size of the area equivalent to the viewing angle of the display area 142 (represented as unit image 1240 in the figure) is smaller than the size of the image 1200. The safety management unit 640 may evaluate safety while shifting the center 1242 of the image (represented as unit image 1240 in the figure) of a size equivalent to the viewing angle of the display area 142 in the left-right direction or up-down direction along a predetermined dotted line 1250. This allows the safety management unit 640 to evaluate safety for multiple installation directions using a single image 1200.

画像1200における単位画像1240の中心1242の位置は、表示領域142の設置方向に対応する。一実施形態において、画像1200における単位画像1240の位置に応じて、単位画像1240の形状及び大きさが調整される。例えば、単位画像1240の中心1242の位置と、画像1200の中心の位置との距離が大きくなるほど、単位画像1240の大きさが大きくなり、形状の変形の度合いが大きくなるように、単位画像1240の形状及び大きさが調整される。これにより、安全管理部640は、周辺データ生成装置152又はカメラ154が生成した単一の画像データ又は単一の三次元データに基づいて、表示領域142の設置方向が異なる複数のパターンにおけるユーザ端末120の安全性を評価することができる。 The position of the center 1242 of the unit image 1240 in the image 1200 corresponds to the installation direction of the display area 142. In one embodiment, the shape and size of the unit image 1240 are adjusted according to the position of the unit image 1240 in the image 1200. For example, the shape and size of the unit image 1240 are adjusted so that the larger the distance between the position of the center 1242 of the unit image 1240 and the position of the center of the image 1200, the larger the size of the unit image 1240 becomes and the greater the degree of deformation of the shape. This allows the safety management unit 640 to evaluate the safety of the user terminal 120 in multiple patterns with different installation directions of the display area 142 based on a single image data or a single three-dimensional data generated by the surrounding data generation device 152 or the camera 154.

他の実施形態において、安全管理部640は、表示領域142の設置方向によらず、表示領域142の視野角に相当する領域の形状及び大きさが同一であるものとして、表示領域142の設置方向が異なる複数のパターンにおけるユーザ端末120の安全性を評価してもよい。これにより、計算量を削減が削減される。 In another embodiment, the safety management unit 640 may evaluate the safety of the user terminal 120 in multiple patterns in which the installation direction of the display area 142 is different, assuming that the shape and size of the area corresponding to the viewing angle of the display area 142 are the same regardless of the installation direction of the display area 142. This reduces the amount of calculation.

(別実施形態の一例)
本実施形態においては、表示領域142の視野角が、周辺データ生成装置152又はカメラ154の視野角よりも小さい場合を例として、画像1200及び安全管理部640の一例が説明された。しかしながら、上述されたとおり、他の実施形態において、表示領域142の視野角が、周辺データ生成装置152又はカメラ154の視野角よりも大きい場合もあり得る。
(An example of another embodiment)
In the present embodiment, an example of the image 1200 and the safety management unit 640 has been described by taking as an example a case where the viewing angle of the display area 142 is smaller than the viewing angle of the peripheral data generating device 152 or the camera 154. However, as described above, in other embodiments, the viewing angle of the display area 142 may be larger than the viewing angle of the peripheral data generating device 152 or the camera 154.

例えば、安全管理部640は、周辺データ生成装置152又はカメラ154が取得した表示領域142の設置位置の周辺環境に関する複数の情報を結合することで、周辺データ生成装置152又はカメラ154の視野角を超えた情報を取得することができる。例えば、安全管理部640は、表示領域142の設置位置の周辺の画像であって、撮像位置及び撮像方向の少なくとも一方が異なる複数の画像を取得する。複数の画像は、単一の周辺データ生成装置152が撮像した画像であってもよく、複数の周辺データ生成装置152が撮像した画像であってもよい。安全管理部640は、上記の複数の画像を合成して単一の画像(結合画像と称される場合がある。)を生成する。これにより、画像1200の他の例として、複数の画像が合成された結合画像が生成され得る。 For example, the safety management unit 640 can acquire information beyond the viewing angle of the peripheral data generation device 152 or the camera 154 by combining multiple pieces of information related to the surrounding environment of the installation position of the display area 142 acquired by the peripheral data generation device 152 or the camera 154. For example, the safety management unit 640 acquires multiple images of the periphery of the installation position of the display area 142, where at least one of the imaging positions and the imaging direction is different. The multiple images may be images captured by a single peripheral data generation device 152, or may be images captured by multiple peripheral data generation devices 152. The safety management unit 640 synthesizes the multiple images to generate a single image (sometimes referred to as a combined image). As a result, a combined image in which multiple images are synthesized may be generated as another example of the image 1200.

撮像方向は、二次元で表されてもよく、三次元で表されてもよい。安全管理部640は、上記の実施形態における画像1200と同様の手順により上記の結合画像を解析することで、表示領域142の設置態様を変えた場合における、表示領域142の視野角に相当する領域の位置、形状及び大きさを算出してよい。設置態様としては、設置位置、設置方向、ロール方向などが例示される。 The imaging direction may be expressed in two dimensions or three dimensions. The safety management unit 640 may analyze the combined image in a similar manner to the image 1200 in the above embodiment, thereby calculating the position, shape, and size of the area corresponding to the viewing angle of the display area 142 when the installation mode of the display area 142 is changed. Examples of the installation mode include the installation position, installation direction, and roll direction.

複数の画像を合成して結合画像を生成する具体的な手順は、特に限定されない。結合画像は、例えば、複数の画像がパノラマ合成されたパノラマ画像であってよい。 The specific procedure for synthesizing multiple images to generate a combined image is not particularly limited. The combined image may be, for example, a panoramic image in which multiple images are panorama-synthesized.

安全管理部640は、複数の二次元画像又は結合画像に基づいて、後述される三次元仮想空間を生成してもよい。しかしながら、結合される2つの画像の重複部分が各画像の約2~3割に満たない場合には、2つの画像を正確に結合するための特徴の個数が少ないことから、2つの画像を正確に結合することが難しくなる。特に、複数の二次元画像又は結合画像に基づいて三次元仮想空間を生成する場合、二次元画像上の数画素のズレが三次元座標上での大きなズレにつながる可能性がある。例えば、ピントが合っていない状態で撮像された場合、暗所で撮像された場合、又は、逆光下で撮像された場合には、二次元画像上に上記のズレが発生する可能性がある。 The safety management unit 640 may generate a three-dimensional virtual space, described below, based on multiple two-dimensional images or a combined image. However, if the overlapping portion of the two images to be combined is less than about 20-30% of each image, the number of features required to accurately combine the two images is small, making it difficult to accurately combine the two images. In particular, when a three-dimensional virtual space is generated based on multiple two-dimensional images or a combined image, a shift of a few pixels on the two-dimensional image may lead to a large shift in the three-dimensional coordinates. For example, the above-mentioned shift may occur in the two-dimensional image if the image is captured out of focus, in a dark place, or in backlight.

そこで、安全管理部640が、複数の二次元画像又は結合画像に基づいて三次元仮想空間を生成する場合、制御装置170は、結合の誤差を低減又は補正するための処理を実行することが好ましい。結合の誤差を低減又は補正する処理としては、(a)周辺データ生成装置152又はカメラ154が複数の画像を連続して撮像している間(例えば、動画像を撮像している間である)に、周辺データ生成装置152又はカメラ154の移動量を推定し、当該移動量を考慮して、順次、画像を結合していく処理、(b)(i)三次元仮想空間上で空間構造の座標系を結合した後、三次元モデル又は三次元点群を二次元表示した場合の各特徴点の二次元座標を計算し、(ii)二次元表示された各特徴点の二次元座標と、結合前の二次元画像における各特徴点の位置とが一致するか否かを判定し、(iii)上記の特徴点の全て又は一部が一致しないと判定された場合には、各特徴点同士の誤差が小さくなるように、結合位置を補正する処理などが例示される。 Therefore, when the safety management unit 640 generates a three-dimensional virtual space based on a plurality of two-dimensional images or a combined image, it is preferable that the control device 170 executes a process for reducing or correcting the combination error. Examples of the process for reducing or correcting the combination error include (a) a process for estimating the amount of movement of the peripheral data generation device 152 or the camera 154 while the peripheral data generation device 152 or the camera 154 is continuously capturing a plurality of images (for example, while capturing a moving image), and sequentially combining the images while taking into account the amount of movement, and (b) (i) a process for calculating the two-dimensional coordinates of each feature point when the three-dimensional model or three-dimensional point cloud is displayed two-dimensionally after combining the coordinate systems of the spatial structure in the three-dimensional virtual space, (ii) a process for determining whether the two-dimensional coordinates of each feature point displayed two-dimensionally match the position of each feature point in the two-dimensional image before combination, and (iii) a process for correcting the combination position so that the error between each feature point is reduced when it is determined that all or a part of the above feature points do not match.

二次元表示された各特徴点の二次元座標と、結合前の二次元画像における各特徴点の位置とが一致するか否かを判定する処理の具体的な手順は、特に限定されない。例えば、2つの座標系で採取した構造データについて、何らかの変換行列で座標一致するような、互いの3次元変換行列を算出する。また、上記の3次元変換行列を用いて、一つの座標系に採取情報をマージしていく。この変換行列の算出には、2つの座標系に同じ特徴点が複数見つかる必要がある。そこで、例えば、当該特徴点のペアリングについて、総当たりで帰納法的に正解を類推する。上記の類推には、例えば、確率的手法が用いられる。 The specific procedure for determining whether the two-dimensional coordinates of each feature point displayed in two dimensions match the position of each feature point in the two-dimensional image before merging is not particularly limited. For example, for structural data collected in two coordinate systems, a three-dimensional transformation matrix is calculated that matches the coordinates of the two transformation matrices. The collected information is then merged into one coordinate system using the three-dimensional transformation matrix. To calculate this transformation matrix, it is necessary to find multiple identical feature points in the two coordinate systems. Therefore, for example, the correct answer is inferred inductively by brute force for the pairing of the feature points. For example, a probabilistic method is used for the above inference.

後述されるとおり、現実空間に複数のマーカが配される場合には、各マーカーの値をユニークにすることで、上記のペアリングが容易になる。なお、複数のマーカーの値が同一であっても、ペアとなるマーカのロール方向及び/又は位置の相関から固有の特徴を見出すことで、上記の総当たりで類推する処理が実行され得る。 As described below, when multiple markers are arranged in real space, the above pairing can be made easier by making the value of each marker unique. Even if the values of multiple markers are the same, the above brute force inference process can be performed by finding unique characteristics from the correlation between the roll directions and/or positions of paired markers.

本実施形態においては、光の揺らぎを検出することで、表示領域142の設置位置の周辺に第三者が存在するか否かを判定する場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。 In this embodiment, the details of the information leakage prevention system 100 have been described using as an example a case in which the presence or absence of a third party is determined around the installation position of the display area 142 by detecting light fluctuations. However, the information leakage prevention system 100 is not limited to this embodiment.

他の実施形態において、制御装置170は、隠しカメラの予防として、光の揺らぎが検出される程度を用いて、周辺における物体の散らかり度合いを示す指標の指標値を導出してよい。制御装置170は、物体の散らかり度合いに基づいて、安全性を判定してよい。散らかり度合いが高い場合としては、光の揺らぎの大きい状態が周囲に散見される状態が例示される。散らかり度合いが高い場合、例えば、隠しカメラが設置されていることが露呈しにくい。そこで、例えば、制御装置170は、散らかり度合いが高いほど、安全性の程度が小さくなるように指標値を算出してよい。散らかり度合いに基づく判定が導入されることにより、予防的な判定が可能となり、安全性の程度が高くなる場所が多くなる。一方、例えば、表示領域142の設置位置に本、雑貨などが散在しているだけで、端末の利用場所が制限され得る。そのため、上記の散らかり度合いを示す指標値に基づいて、ユーザ端末120の安全性の評価値が導出される場合には、上述された判定の感度及び/又は応答性を調整する機能が用いられてよい。 In another embodiment, the control device 170 may derive an index value of an index indicating the degree of clutter of objects in the vicinity by using the degree of light fluctuation detected as a precaution against hidden cameras. The control device 170 may determine safety based on the degree of clutter of objects. An example of a case where the degree of clutter is high is a state in which a state in which a large amount of light fluctuation is seen around. When the degree of clutter is high, for example, it is difficult to reveal that a hidden camera is installed. Therefore, for example, the control device 170 may calculate an index value such that the degree of safety decreases as the degree of clutter increases. By introducing a judgment based on the degree of clutter, preventive judgment is possible, and the number of places with a high degree of safety increases. On the other hand, for example, the location where the terminal can be used may be restricted simply by the presence of books, miscellaneous goods, etc. scattered at the installation position of the display area 142. Therefore, when an evaluation value of the safety of the user terminal 120 is derived based on the index value indicating the degree of clutter, the above-mentioned function of adjusting the sensitivity and/or responsiveness of the judgment may be used.

図13は、制御装置170における情報処理の一例を概略的に示す。図13を用いて、評価部1150が、第1指標の値に基づいて閲覧可能性の程度を評価する手順の一例が説明される。上述されたとおり、本実施形態において、評価部1150は、ユーザ端末120の設置位置の周辺において物体の動き又は光の揺らぎが検出される程度を評価することで、ユーザ端末120の安全性を評価する。本実施形態においては、制御装置170が、カメラ154から撮像条件データ1310と、動画データ1320とを取得し、変動画像データ1340を生成する処理の一例が説明される。 Figure 13 shows an example of information processing in the control device 170. Using Figure 13, an example of a procedure in which the evaluation unit 1150 evaluates the degree of viewability based on the value of the first index is described. As described above, in this embodiment, the evaluation unit 1150 evaluates the degree to which object movement or light fluctuation is detected in the vicinity of the installation position of the user terminal 120, thereby evaluating the safety of the user terminal 120. In this embodiment, an example of a process in which the control device 170 acquires the imaging condition data 1310 and the video data 1320 from the camera 154 and generates the dynamic image data 1340 is described.

本実施形態において、制御装置170は、カメラ154が生成した動画データを取得する。制御装置170は、動画データに含まれる複数のフレームのそれぞれを構成する各画素の画素値を解析して、特定の期間の間にカメラ154に到達した光の強度の変動を導出する。 In this embodiment, the control device 170 acquires video data generated by the camera 154. The control device 170 analyzes the pixel values of each pixel constituting each of the multiple frames included in the video data to derive the fluctuation in the intensity of light reaching the camera 154 during a specific period of time.

カメラ154の被写体からの光の強度の変動は、(i)光源から当該被写体までの間の空間の屈折率の変動、(ii)光源から当該被写体までの間の空間に配された物体の変動、(iii)当該被写体からカメラ154までの空間の屈折率の変動、及び/又は、(iv)当該被写体からカメラ154までの空間に配された物体の変動を反映している。被写体からの光は、当該被写体の表面で反射した反射光であってもよく、当該被写体を透過した透過光であってもよく、当該被写体が放射した放射光であってもよい。物体の変動としては、当該物体の位置、大きさ、形状及び光学特性の少なくとも1つの変動が例示される。光学特性としては、屈折率、透過率、反射率などが例示される。 The variation in the intensity of light from the subject of the camera 154 reflects (i) the variation in the refractive index of the space between the light source and the subject, (ii) the variation of an object disposed in the space between the light source and the subject, (iii) the variation in the refractive index of the space between the subject and the camera 154, and/or (iv) the variation of an object disposed in the space between the subject and the camera 154. The light from the subject may be reflected light reflected from the surface of the subject, transmitted light transmitted through the subject, or emitted light emitted by the subject. Examples of the variation of the object include the variation of at least one of the position, size, shape, and optical characteristics of the object. Examples of the optical characteristics include the refractive index, transmittance, and reflectance.

そのため、上記の光の強度の変動の大きさは、カメラ154の周辺において物体の動き又は光の揺らぎが検出される程度を示す指標として利用され得る。また、上記の光の強度の変動の大きさは、上述された閲覧可能性の程度を示す指標として利用され得る。つまり、フレーム中の特定の領域における光の強度変動が小さい場合、現実世界において当該領域に対応する位置に、動き、光の透過、光の反射などの小さな物体が配されていることを表す。 Therefore, the magnitude of the above-mentioned light intensity fluctuations can be used as an index of the degree to which object movement or light fluctuations are detected around the camera 154. The magnitude of the above-mentioned light intensity fluctuations can also be used as an index of the degree of viewability described above. In other words, when the light intensity fluctuations in a particular area in the frame are small, this indicates that a small object that moves, transmits light, reflects light, etc. is located at a position corresponding to that area in the real world.

例えば、制御装置170は、(a)動画の各フレームを予め定められた複数の領域(計算単位と称される場合がある。)に区分し、(b)複数の計算単位のそれぞれについて、各計算単位に含まれる画素の画素値に基づいて、複数のフレームの間における当該領域の色及び/又は明るさの変動を示す指標(変動指標と称される場合がある。)の値を導出する。変動指標としては、分散、標準偏差及び変動係数、並びに、これらを基準値で除して得られる値の少なくとも1つが例示される。変動指標は、第1指標の一例であってよい。 For example, the control device 170 (a) divides each frame of the video into a number of predetermined regions (which may be referred to as calculation units), and (b) for each of the multiple calculation units, derives the value of an index (which may be referred to as a variation index) that indicates the variation in color and/or brightness of the region between multiple frames based on the pixel values of the pixels included in each calculation unit. Examples of the variation index include at least one of the variance, standard deviation, and coefficient of variation, as well as values obtained by dividing these by a reference value. The variation index may be an example of a first index.

複数の計算単位のそれぞれは、1以上の画素を含む。各計算単位に含まれる画素数が大きくなるほど、上記の光の強度変動を計算するための負荷が減少し、計算速度が向上する。一方、各計算単位に含まれる画素数が小さくなるほど、精度又は分解能が向上する。 Each of the multiple calculation units includes one or more pixels. The greater the number of pixels included in each calculation unit, the less the load for calculating the light intensity fluctuations described above, and the faster the calculation speed. On the other hand, the smaller the number of pixels included in each calculation unit, the greater the accuracy or resolution.

単一のフレームに含まれる少なくとも2つの計算単位は、大きさ及び形状の少なくとも1つが異なってもよい。例えば、画面の中央近傍に表示される計算単位の大きさと、画面の周縁部に表示される計算単位の大きさとが異なる。例えば、画面の中央近傍に表示される計算単位の形状と、画面の周縁部に表示される計算単位の形状とが異なる。 At least two computational units included in a single frame may differ in at least one of size and shape. For example, the size of a computational unit displayed near the center of the screen is different from the size of a computational unit displayed on the periphery of the screen. For example, the shape of a computational unit displayed near the center of the screen is different from the shape of a computational unit displayed on the periphery of the screen.

(撮像条件データ1310の構成)
本実施形態において、撮像条件データ1310は、撮像位置を示す情報を含む。撮像条件データ1310は、撮像方向及びカメラ154の焦点距離の少なくとも一方を示す情報をさらに含んでよい。
(Configuration of imaging condition data 1310)
In the present embodiment, the image capturing condition data 1310 includes information indicating an image capturing position. The image capturing condition data 1310 may further include information indicating at least one of an image capturing direction and a focal length of the camera 154.

カメラ154の焦点距離fが既知であれば、制御装置170は、画像中の特定の位置qと、画像中の光軸の位置oとの位置関係から、カメラ154の光軸の方向と、カメラ154の代表点250から現実世界において当該位置qに対応する位置Qに向かう方向とのなす角度を算出することができる。カメラ154のカメラ座標系において、位置oの座標は例えば(0、0、f)として表され、位置qの座標は例えば(x、y、f)として表され、位置Qの座標は例えば(X、Y、Z)として表される。 If the focal length f of the camera 154 is known, the control device 170 can calculate the angle between the direction of the optical axis of the camera 154 and the direction from the representative point 250 of the camera 154 toward the position Q corresponding to the position q in the real world, based on the positional relationship between the specific position q in the image and the position o of the optical axis in the image. In the camera coordinate system of the camera 154, the coordinates of the position o are expressed as (0, 0, f), for example, the coordinates of the position q are expressed as (x, y, f), and the coordinates of the position Q are expressed as (X, Y, Z), for example.

なお、表示領域142の設置位置及び設置方向が決定されている場合、撮像条件データ1310は、撮像位置を示す情報及び撮像方向を示す情報を含まなくてもよい。例えば、ユーザ22が特定の位置及び方向にユーザ端末120を設置し、当該位置及び方向における閲覧可能性の程度が検証される場合、撮像条件データ1310は、撮像位置を示す情報及び撮像方向を示す情報を含まなくてもよい。また、カメラ154の焦点距離fが既知である場合、撮像条件データ1310は、カメラ154の焦点距離を示す情報を含まなくてもよい。 Note that, if the installation position and installation direction of the display area 142 have been determined, the imaging condition data 1310 may not include information indicating the imaging position and information indicating the imaging direction. For example, if the user 22 installs the user terminal 120 in a specific position and direction, and the degree of viewability at that position and direction is verified, the imaging condition data 1310 may not include information indicating the imaging position and information indicating the imaging direction. Also, if the focal length f of the camera 154 is known, the imaging condition data 1310 may not include information indicating the focal length of the camera 154.

(動画データ1320の構成)
本実施形態において、動画データ1320は、フレーム1322、フレーム1324、フレーム1332及びフレーム1334を含む複数のフレームを有する。動画データ1320に含まれる各フレームは二次元画像であってよい。
(Configuration of video data 1320)
In this embodiment, the video data 1320 has a plurality of frames including a frame 1322, a frame 1324, a frame 1332, and a frame 1334. Each frame included in the video data 1320 may be a two-dimensional image.

動画データ1320を構成するフレームのデータ構造は、例えば、フレームを構成する各画素の識別情報と、フレーム中における各画素の位置を示す情報と、当該各画素の明るさを示す情報とを含む。例えば、フレームに含まれるi番目の画素NPのデータは、例えば、フレームの画像平面上におけるx方向の位置を示すxiと、当該画像平面上におけるy方向の位置を示すyiと、明るさを示す画素値とを含む。明るさは、輝度で表されてもよく、明度で表されてもよい。フレームがRGB形式で表されるカラー画像である場合、明るさを示す画素値は、例えば、RGBのそれぞれの輝度の値を示す情報を含む。つまり、各画素の明るさを示す情報により各画素の色が特定され得る。 The data structure of a frame constituting the video data 1320 includes, for example, identification information of each pixel constituting the frame, information indicating the position of each pixel in the frame, and information indicating the brightness of each pixel. For example, data of the i-th pixel NP i included in the frame includes, for example, xi indicating the position in the x direction on the image plane of the frame, yi indicating the position in the y direction on the image plane, and a pixel value indicating brightness. The brightness may be represented by luminance or lightness. When the frame is a color image expressed in RGB format, the pixel value indicating brightness includes, for example, information indicating the luminance value of each of RGB. In other words, the color of each pixel can be specified by the information indicating the brightness of each pixel.

(変動画像データ1340の構成)
本実施形態において、変動画像データ1340は、フレーム1342及びフレーム1344を含む複数のフレームを有する。変動画像データ1340を構成する複数のフレームのそれぞれは、動画データ1320に含まれる複数のフレームのデータに基づいて生成される。上述されたとおり、本実施形態においては、動画の各フレームが予め定められた複数の計算単位に区分され、計算単位ごとに変動指標の値が導出される。そのため、動画データ1320を構成するフレームの各計算単位が、変動画像データ1340を構成するフレームの各画素に対応する。
(Configuration of the dynamic image data 1340)
In this embodiment, the dynamic image data 1340 has a plurality of frames including a frame 1342 and a frame 1344. Each of the plurality of frames constituting the dynamic image data 1340 is generated based on the data of a plurality of frames included in the moving image data 1320. As described above, in this embodiment, each frame of the moving image is divided into a plurality of predetermined calculation units, and a value of a dynamic index is derived for each calculation unit. Therefore, each calculation unit of the frames constituting the moving image data 1320 corresponds to each pixel of the frames constituting the dynamic image data 1340.

変動画像データ1340を構成するフレームのデータ構造は、例えば、フレームを構成する各画素の識別情報と、フレーム中における各画素の位置を示す情報と、当該各画素の明るさの変動の程度を示す情報とを含む。例えば、フレームに含まれるi番目の画素VPのデータは、フレームの画像平面上におけるx方向の位置を示すxiと、当該画像平面上におけるy方向の位置を示すyiと、当該画素における明るさの変動の程度を示す画素値とを含む。 The data structure of a frame constituting the variation image data 1340 includes, for example, identification information of each pixel constituting the frame, information indicating the position of each pixel in the frame, and information indicating the degree of brightness variation of each pixel. For example, data of the i-th pixel VPi included in a frame includes xi indicating the position in the x direction on the image plane of the frame, yi indicating the position in the y direction on the image plane, and a pixel value indicating the degree of brightness variation of the pixel.

上記の画素値として、上述された変動指標の値が格納されてよい。フレームがRGB形式で表されるカラー画像である場合、上記の画素値として、RGBのそれぞれの輝度の変動の程度を示す3つの値が格納されてもよく、RGBのそれぞれの輝度の合計の変動の程度を示す単一の値が格納されてもよい。 The above-mentioned pixel value may be the value of the variation index. If the frame is a color image represented in RGB format, three values indicating the degree of variation in the luminance of each of the RGB may be stored as the pixel value, or a single value indicating the degree of variation in the sum of the luminance of each of the RGB may be stored.

一実施形態において、一般的なカメラ154が極暗所を撮像する場合、RGBのそれぞれの輝度のうち、Bの輝度のデータが用いられる、又は、Bの輝度のデータの重みがR及びGの輝度のデータの重みよりも大きくなるように設定されることで、評価精度が向上する。他の実施形態において、カメラ154の被写体が人間の皮膚である場合、Rの輝度のデータが用いられる、又は、Rの輝度のデータの重みがB及びGの輝度のデータの重みよりも大きくなるように設定されることで、評価精度が向上する。さらに他の実施形態において、カメラ154の被写体が植物である場合、Gの輝度のデータが用いられる、又は、Gの輝度のデータの重みがB及びRの輝度のデータの重みよりも大きくなるように設定されることで、評価精度が向上する。 In one embodiment, when a general camera 154 captures an image in an extremely dark place, the evaluation accuracy is improved by using the B luminance data of the RGB luminances, or by setting the weight of the B luminance data to be greater than the weight of the R and G luminance data. In another embodiment, when the subject of the camera 154 is human skin, the evaluation accuracy is improved by using the R luminance data, or by setting the weight of the R luminance data to be greater than the weight of the B and G luminance data. In yet another embodiment, when the subject of the camera 154 is a plant, the evaluation accuracy is improved by using the G luminance data, or by setting the weight of the G luminance data to be greater than the weight of the B and R luminance data.

(制御装置170の構成)
本実施形態において、制御装置170は、物性情報取得部614と、変動指標導出部1374と、画像生成部1376と、安全管理部1378とを備える。変動指標導出部1374は、第1指標導出部1142に配される。安全管理部1378は、安全管理部640の他の例であってよい。安全管理部1378の詳細は後述される。
(Configuration of control device 170)
In this embodiment, the control device 170 includes a physical property information acquisition unit 614, a variation index derivation unit 1374, an image generation unit 1376, and a safety management unit 1378. The variation index derivation unit 1374 is disposed in the first index derivation unit 1142. The safety management unit 1378 may be another example of the safety management unit 640. Details of the safety management unit 1378 will be described later.

変動指標導出部1374は、上述された変動指標の値を導出する。これにより、特定の期間の間にカメラ154に到達した光の強度の変動の程度が導出され得る。変動指標導出部1374は、例えば、下記の手順により、変動指標の値を導出する。 The fluctuation index derivation unit 1374 derives the value of the fluctuation index described above. This makes it possible to derive the degree of fluctuation in the intensity of light reaching the camera 154 during a specific period of time. The fluctuation index derivation unit 1374 derives the value of the fluctuation index, for example, by the following procedure.

本実施形態によれば、変動指標導出部1374は、まず、物性情報取得部614が取得した動画データから、予め定められた規則に従って、複数のフレームを抽出する。変動指標導出部1374は、物性情報取得部614が取得した動画データのうち、カメラ154が静止している間に撮像された動画のデータの中から、複数のフレームを抽出してよい。 According to this embodiment, the variation index derivation unit 1374 first extracts multiple frames from the video data acquired by the physical property information acquisition unit 614 in accordance with a predetermined rule. The variation index derivation unit 1374 may extract multiple frames from the video data acquired by the physical property information acquisition unit 614 that was captured while the camera 154 was stationary.

予め定められた規則としては、(i)連続する予め定められた個数のフレームを抽出するという規則、(ii)予め定められた長さを有する期間(単位期間と称される場合がある。)に相当するフレームの中から、予め定められた個数のフレームを抽出するという規則、(iii)連続する予め定められた第1の個数のフレームの中から、予め定められた第2個数(第2の個数は、第1の個数よりも少ない。)のフレームを抽出するという規則などが例示される。例えば、(i)の規則によれば、連続する10個のフレームが抽出される。一方、(ii)又は(iii)の規則によれば、例えば、3フレームごとに1フレームが抽出され、合計で10個のフレームが抽出される。 Examples of the predetermined rule include (i) a rule of extracting a predetermined number of consecutive frames, (ii) a rule of extracting a predetermined number of frames from among frames corresponding to a period having a predetermined length (sometimes referred to as a unit period), and (iii) a rule of extracting a predetermined second number of frames (the second number being less than the first number) from among a predetermined first number of consecutive frames. For example, according to rule (i), 10 consecutive frames are extracted. On the other hand, according to rule (ii) or (iii), for example, one frame is extracted every three frames, for a total of 10 frames are extracted.

次に、変動指標導出部1374は、抽出された複数のフレームのそれぞれを、複数の計算単位に区分する。変動指標導出部1374は、予め定められた規則に従って、抽出された複数のフレームのそれぞれを複数の計算単位に区分してよい。複数の計算単位の形状は、全て同一であってもよく、一部が異なってもよく、全て異なってもよい。複数の計算単位の大きさは、全て同一であってもよく、一部が異なってもよく、全て異なってもよい。 Next, the fluctuation index derivation unit 1374 divides each of the extracted frames into a plurality of calculation units. The fluctuation index derivation unit 1374 may divide each of the extracted frames into a plurality of calculation units according to a predetermined rule. The shapes of the plurality of calculation units may all be the same, some may differ, or all may be different. The sizes of the plurality of calculation units may all be the same, some may differ, or all may be different.

次に、変動指標導出部1374は、複数の計算単位のそれぞれについて、変動指標の値を導出する。各計算単位の変動指標の値は、例えば、各計算単位に含まれる画素の画素値に基づいて決定される。 Next, the variation index derivation unit 1374 derives a variation index value for each of the multiple calculation units. The variation index value for each calculation unit is determined, for example, based on the pixel values of the pixels included in each calculation unit.

例えば、抽出された複数のフレームが撮像された期間中にカメラ154が静止していた場合、第1フレームの第1計算単位と、第2フレームの第1計算単位とは、現実世界の同一の位置に対応する。なお、この場合、第1フレームの第1計算単位と、第2フレームの第1計算単位とが対応すると称されることがある。また、このような関係が、フレーム間における計算単位の対応関係と称される場合がある。 For example, if the camera 154 is stationary during the period in which the extracted frames are captured, the first calculation unit of the first frame and the first calculation unit of the second frame correspond to the same position in the real world. In this case, the first calculation unit of the first frame and the first calculation unit of the second frame are sometimes said to correspond to each other. This relationship is also sometimes called the corresponding relationship of the calculation units between frames.

そこで、変動指標導出部1374は、まず、各フレームの各計算単位に含まれる画素の画素値を合計する。これにより、複数のフレームのそれぞれにおいて、計算単位ごとの画素値の合計値が得られる。次に、変動指標導出部1374は、計算単位ごとに、複数のフレームの間における上記の合計値の変動を示す指標を計算する(統計処理を実行すると称される場合がある)。上述されたとおり、変動を示す指標としては、分散、標準偏差及び変動係数、並びに、これらを基準値で除して得られる値の少なくとも1つが例示される。変動指標導出部1374は、各計算単位における変動指標の値を示す情報を、各計算単位の識別情報と対応付けて、画像生成部1376に出力する。 The variation index derivation unit 1374 first sums up the pixel values of the pixels included in each calculation unit in each frame. This provides a total value of the pixel values for each calculation unit in each of the multiple frames. Next, the variation index derivation unit 1374 calculates an index indicating the variation of the above total value between multiple frames for each calculation unit (sometimes referred to as performing statistical processing). As described above, examples of the index indicating the variation include at least one of the variance, standard deviation, and coefficient of variation, and values obtained by dividing these by a reference value. The variation index derivation unit 1374 outputs information indicating the value of the variation index in each calculation unit to the image generation unit 1376 in association with the identification information of each calculation unit.

なお、変動指標導出部1374は、抽出された複数のフレームを解析して、当該複数のフレームが撮像された期間中におけるカメラ154の移動の有無を判定してよい。上記の期間中にカメラ154が移動したと判定された場合、変動指標導出部1374は、まず、複数のフレームの間における計算単位の対応関係を決定する。 The variation index derivation unit 1374 may analyze the extracted multiple frames to determine whether the camera 154 moved during the period in which the multiple frames were captured. If it is determined that the camera 154 moved during the above period, the variation index derivation unit 1374 first determines the correspondence relationship of the calculation units between the multiple frames.

例えば、変動指標導出部1374は、まず、複数のフレームのうちの第1フレームを、基準となるフレームとして決定する。次に、変動指標導出部1374は、第2フレームの複数の領域の中から、第1フレームの第1領域に対応する領域を特定する。他のフレームについても同様の処理を繰り返す。また、第1フレームの第2領域についても同様の処理を繰り返す。これにより、フレーム間における計算単位の対応関係が決定される。次に、変動指標導出部1374は、フレーム間における計算単位の対応関係を考慮して、対応する計算単位同士の間で上述された統計処理を実行する。これにより、各計算単位における変動指標の値が導出される。 For example, the variation index derivation unit 1374 first determines a first frame of the multiple frames as a reference frame. Next, the variation index derivation unit 1374 identifies an area corresponding to the first area of the first frame from among the multiple areas of the second frame. The variation index derivation unit 1374 repeats the same process for the other frames. The variation index derivation unit 1374 also repeats the same process for the second area of the first frame. In this way, the correspondence between the calculation units between frames is determined. Next, the variation index derivation unit 1374 performs the statistical process described above between corresponding calculation units, taking into account the correspondence between the calculation units between frames. In this way, the value of the variation index for each calculation unit is derived.

本実施形態において、画像生成部1376は、変動画像データ1340の各フレーム(変動画像と称される場合がある。)を生成する。画像生成部1376は、変動指標導出部1374が導出した複数の計算単位のそれぞれの変動指標の値と、予め定められた階調数とに基づいて、変動画像データ1340の各フレームを生成してよい。 In this embodiment, the image generating unit 1376 generates each frame (sometimes referred to as a variation image) of the variation image data 1340. The image generating unit 1376 may generate each frame of the variation image data 1340 based on the values of the variation indices of the multiple calculation units derived by the variation index derivation unit 1374 and a predetermined number of gradations.

一実施形態において、画像生成部1376は、複数の計算単位のそれぞれが変動画像の画素を構成するように、変動画像を生成する。例えば、画像生成部1376は、まず、動画データ1320の単一のフレーム(通常画像と称される場合がある。)における複数の計算単位の位置関係に基づいて、各計算単位の変動画像における位置を決定する。変動指標導出部1374は、通常画像における複数の計算単位の位置関係が反映されるように、変動画像における各計算単位の位置を決定してよい。 In one embodiment, the image generation unit 1376 generates a variation image such that each of the multiple calculation units constitutes a pixel of the variation image. For example, the image generation unit 1376 first determines the position of each calculation unit in the variation image based on the positional relationship of the multiple calculation units in a single frame (sometimes referred to as a normal image) of the video data 1320. The variation index derivation unit 1374 may determine the position of each calculation unit in the variation image such that the positional relationship of the multiple calculation units in the normal image is reflected.

次に、変動指標導出部1374は、各計算単位の識別情報と、各計算単位の変動画像における位置を示す情報と、各計算単位における変動指標の値を示す情報とを対応付けて、変動画像データ1340の各フレームを生成する。変動指標の値を示す情報は、連続する数値を示す情報であってもよく、段階的な区分を示す情報であってもよい。変動画像の階調数が予め定められている場合、変動指標導出部1374は、変動画像の各画素における変動指標の値と、階調数とに基づいて、各画素の画素値を決定してよい。 Next, the variation index derivation unit 1374 generates each frame of the variation image data 1340 by associating identification information of each calculation unit, information indicating the position of each calculation unit in the variation image, and information indicating the value of the variation index for each calculation unit. The information indicating the value of the variation index may be information indicating a continuous numerical value, or may be information indicating a gradational division. When the number of gradations of the variation image is determined in advance, the variation index derivation unit 1374 may determine the pixel value of each pixel based on the value of the variation index for each pixel of the variation image and the number of gradations.

変動指標導出部1374は、例えば、直接的に各種の変動度合いから変動指標を導出する(1次導出と称される場合がある)。変動指標導出部1374は、幾つかの導出された変動指標をもとに特徴や目的に応じた絞り込みフィルタ演算を用いて、新たな変動指標を生成してもよい(2次導出と称される場合がある)。上記のフィルタ演算としては、(i)和、積、論理和のような論理計算、(ii)条件分岐などが例示される。上記のフィルタ演算の内容は、例えば、複数の変動指標のそれぞれの抽出根拠に基づいて決定される。複数の変動指標の抽出根拠としては、変動指標の算出に用いられたセンサーの種類、変動指標の算出に用いられた集計条件、変動指標の算出に用いられたRGB要素又は周波数などが例示される。既に算出された1次導出の結果に基づいて2次導出が実施されてもよく、既に算出された2次導出の結果に基づいてさらに2次導出が実施されてもよい。 The variation index derivation unit 1374, for example, directly derives a variation index from various degrees of variation (sometimes referred to as primary derivation). The variation index derivation unit 1374 may generate a new variation index using a narrowing filter operation according to the characteristics and purpose based on several derived variation indexes (sometimes referred to as secondary derivation). Examples of the above filter operation include (i) logical calculations such as sum, product, and logical OR, and (ii) conditional branching. The content of the above filter operation is determined, for example, based on the basis for extracting each of the multiple variation indexes. Examples of the basis for extracting the multiple variation indexes include the type of sensor used to calculate the variation index, the aggregation conditions used to calculate the variation index, and the RGB elements or frequencies used to calculate the variation index. A secondary derivation may be performed based on the result of the primary derivation already calculated, or a secondary derivation may be further performed based on the result of the secondary derivation already calculated.

2次導出の例としては、一実施形態において、カメラ154が極暗所を撮像する場合、例えば、130>B>G>Rという条件を満たす画素を抽出することで、画像中の極暗所の領域が検出され得る。上記の極暗所の領域は、画像の全体であってもよく、画像の一部であってもよい。極暗所の領域では変動指標が小さく算出される傾向があることから、極暗所の領域における変動指標の値を補正するためのフィルタ演算処理が実行される。これにより、変動指標の導出精度が向上し得る。 As an example of secondary derivation, in one embodiment, when the camera 154 captures an image in an extremely dark place, for example, the extremely dark area in the image can be detected by extracting pixels that satisfy the condition 130>B>G>R. The extremely dark area may be the entire image or a part of the image. Since the fluctuation index tends to be calculated to be small in the extremely dark area, a filter calculation process is performed to correct the value of the fluctuation index in the extremely dark area. This can improve the accuracy of derivation of the fluctuation index.

他の実施形態において、カメラ154が光源及び太陽を撮像する場合、例えば、色=ALL255 AND 偏差=0という条件を満たす画素を抽出することで、ホワイトアウトしている露光部分の画素が検出され得る。この場合において、変動指標を別の変動指標から重みをつけて代用することで精度が向上する。 In another embodiment, when the camera 154 captures the light source and the sun, pixels in the exposed area that are whited out can be detected by extracting pixels that satisfy the conditions, for example, color = ALL 255 AND deviation = 0. In this case, accuracy can be improved by substituting the variation index with another variation index by weighting it.

さらに他の実施形態において、例えば、キーボードのタイピングによりユーザ端末120に微振動が生じている場合、カメラ154の振動により上記の標準偏差にも振動が現れる。この場合、例えば、前述のフィルタ演算の事例としては、2つの偏差の変動指標から積又はANDを算出することで変動指標を生成する。上記の2つの偏差としては、0.5秒と、0.1秒とが例示される。これにより、不要な振動による評価精度の低下が抑制され得る。 In yet another embodiment, for example, when slight vibrations occur in the user terminal 120 due to typing on the keyboard, the vibrations of the camera 154 also appear in the above standard deviation. In this case, for example, as an example of the above-mentioned filter calculation, a fluctuation index is generated by calculating the product or AND of the fluctuation indexes of the two deviations. Examples of the above two deviations are 0.5 seconds and 0.1 seconds. This can suppress a decrease in evaluation accuracy due to unnecessary vibrations.

さらに他の実施形態において、画像生成部1376は、各計算単位に含まれる複数の画素のそれぞれが変動画像の画素を構成するように、変動画像を生成する。例えば、画像生成部1376は、まず、複数の計算単位のそれぞれに含まれる1以上の画素のそれぞれの画素値を決定する。画像生成部1376は、各計算単位における変動指標の値を、当該計算単位に含まれる画素のそれぞれにおける変動指標の値として決定してよい。 In yet another embodiment, the image generation unit 1376 generates the variation image such that each of the multiple pixels included in each calculation unit constitutes a pixel of the variation image. For example, the image generation unit 1376 first determines the pixel value of each of the one or more pixels included in each of the multiple calculation units. The image generation unit 1376 may determine the value of the variation index in each calculation unit as the value of the variation index for each pixel included in the calculation unit.

次に、変動指標導出部1374は、各画素の識別情報と、各画素の変動画像における位置を示す情報と、各画素における変動指標の値を示す情報とを対応付けて、変動画像データ1340の各フレームを生成する。変動指標の値を示す情報は、連続する数値を示す情報であってもよく、段階的な区分を示す情報であってもよい。変動画像の階調数が予め定められている場合、変動指標導出部1374は、変動画像の各画素における変動指標の値と、階調数とに基づいて、各画素の画素値を決定してよい。 Next, the variation index derivation unit 1374 generates each frame of the variation image data 1340 by associating the identification information of each pixel with information indicating the position of each pixel in the variation image and information indicating the value of the variation index for each pixel. The information indicating the value of the variation index may be information indicating a continuous numerical value or may be information indicating a gradational division. When the number of gradations of the variation image is determined in advance, the variation index derivation unit 1374 may determine the pixel value of each pixel based on the value of the variation index for each pixel of the variation image and the number of gradations.

上述されたとおり、物性情報取得部614が撮像方向の異なる複数の動画データ1320を取得する場合がある。この場合、変動指標導出部1374は、複数の動画データ1320のそれぞれに対応する変動画像データ1340を生成してよい。 As described above, the physical property information acquisition unit 614 may acquire multiple pieces of video data 1320 with different imaging directions. In this case, the variation index derivation unit 1374 may generate variation image data 1340 corresponding to each of the multiple pieces of video data 1320.

本実施形態において、安全管理部1378は、表示領域142の安全性を評価する。安全管理部1378は、ユーザ22とは異なる第三者による出力画像の閲覧可能性の程度を導出することで、表示領域142の安全性を評価してよい。 In this embodiment, the safety management unit 1378 evaluates the safety of the display area 142. The safety management unit 1378 may evaluate the safety of the display area 142 by deriving the degree of viewability of the output image by a third party other than the user 22.

安全管理部1378は、例えば、表示領域142がカメラ154の撮像位置に配された場合における、表示領域142の安全性を評価する。安全管理部1378は、表示領域142の設置方向がカメラ154の撮像方向と略一致するように、表示領域142がカメラ154の撮像位置に配された場合における、表示領域142の安全性を評価してもよい。安全管理部1378は、例えば、表示領域142に表示される情報が漏洩するリスクが小さいほど、表示領域142の安全性が高いと判定する。表示領域142の安全性としては、表示領域142の設置位置の安全性、表示領域142の設置位置及び設置方向の安全性などが例示される。表示領域142が筐体130に収容される場合、表示領域142の安全性は、ユーザ端末120の安全性を意味してよい。 The safety management unit 1378 evaluates the safety of the display area 142, for example, when the display area 142 is arranged at the imaging position of the camera 154. The safety management unit 1378 may evaluate the safety of the display area 142 when the display area 142 is arranged at the imaging position of the camera 154 so that the installation direction of the display area 142 is approximately the same as the imaging direction of the camera 154. The safety management unit 1378 determines that the safety of the display area 142 is higher, for example, as the risk of information displayed in the display area 142 being leaked is smaller. Examples of the safety of the display area 142 include the safety of the installation position of the display area 142, and the safety of the installation position and installation direction of the display area 142. When the display area 142 is housed in the housing 130, the safety of the display area 142 may mean the safety of the user terminal 120.

本実施形態において、安全管理部1378は、変動指標導出部1374が導出した変動指標、又は、画像生成部1376が生成した変動画像を利用して表示領域142の安全性を評価する点で、安全管理部640と相違する。安全管理部1378は、上記の相違点を除き、安全管理部640と同様の構成を有してよい。安全管理部1378の詳細は後述される。 In this embodiment, the safety management unit 1378 differs from the safety management unit 640 in that the safety management unit 1378 evaluates the safety of the display area 142 using the variation index derived by the variation index derivation unit 1374 or the variation image generated by the image generation unit 1376. The safety management unit 1378 may have a configuration similar to that of the safety management unit 640, except for the above differences. Details of the safety management unit 1378 will be described later.

変動画像データ1340の各フレームは、変動画像の一例であってよい。画像生成部1376は、変動画像生成部の一例であってよい。安全管理部1378は、閲覧可能性導出部の一例であってよい。 Each frame of the dynamic image data 1340 may be an example of a dynamic image. The image generation unit 1376 may be an example of a dynamic image generation unit. The safety management unit 1378 may be an example of a viewability derivation unit.

図14は、変動画像データ1340の生成処理の一例を概略的に示す。本実施形態においては、物性情報取得部614がリングバッファ1472を備え、動画データ1320に含まれる各フレームのデータがリングバッファ1472の複数のキューのそれぞれに順番に格納される。 Figure 14 shows an example of a process for generating the dynamic image data 1340. In this embodiment, the physical property information acquisition unit 614 includes a ring buffer 1472, and data for each frame included in the video data 1320 is stored in sequence in each of the multiple queues of the ring buffer 1472.

本実施形態において、変動指標導出部1374は、例えば、通常画像であるフレーム1322からフレーム1332のデータが入力され、入力された複数のフレームの間における色及び/又は明るさの変動を示す指標(上述されたとおり変動指標と称される場合がある。)の値を導出する。また、画像生成部1376は、変動指標導出部1374が導出した変動指標の値に基づいて、変動画像であるフレーム1342のデータを生成する。同様に、変動指標導出部1374に、フレーム1324からフレーム1334のデータが入力され、画像生成部1376がフレーム1344を生成する。変動指標導出部1374及び画像生成部1376が同様の処理を繰り返すことで、変動画像データ1340が生成される。 In this embodiment, for example, data of frames 1322 to 1332, which are normal images, are input to the variation index derivation unit 1374, and the variation index derivation unit 1374 derives the value of an index (which may be referred to as a variation index as described above) indicating the variation in color and/or brightness between the input frames. Furthermore, the image generation unit 1376 generates data of frame 1342, which is a variation image, based on the value of the variation index derived by the variation index derivation unit 1374. Similarly, data of frames 1324 to 1334 are input to the variation index derivation unit 1374, and the image generation unit 1376 generates frame 1344. The variation index derivation unit 1374 and the image generation unit 1376 repeat the same process to generate variation image data 1340.

なお、本実施形態においては、説明を簡単にすることを目的として、変動指標導出部1374に、フレーム1322からフレーム1332までの各フレームの全領域の画素の画素値が入力され、画像生成部1376が、当該全領域に対応するフレーム1342を生成する場合を例として、変動画像データ1340の生成処理の一例が説明された。しかしながら、変動画像データ1340の生成処理は、本実施形態に限定されない。 In this embodiment, for the purpose of simplifying the explanation, an example of the generation process of the variation image data 1340 has been explained using as an example a case where the pixel values of the pixels in the entire area of each frame from frame 1322 to frame 1332 are input to the variation index derivation unit 1374, and the image generation unit 1376 generates frame 1342 corresponding to the entire area. However, the generation process of the variation image data 1340 is not limited to this embodiment.

他の実施形態において、変動指標導出部1374に各フレームの一部の領域の画素の画素値が入力され、画像生成部1376が当該一部の領域に対応するフレームを生成する。変動指標導出部1374に入力され、変動画像の生成処理の対象となる通常画像(対象画像と称される場合がある。)としては、図12に関連して説明された複数の単位画像1240のそれぞれなどが例示される。 In another embodiment, pixel values of pixels in a partial area of each frame are input to the variation index derivation unit 1374, and the image generation unit 1376 generates a frame corresponding to the partial area. Examples of normal images (sometimes referred to as target images) that are input to the variation index derivation unit 1374 and that are the subject of the variation image generation process include each of the multiple unit images 1240 described in relation to FIG. 12.

図15は、変動指標導出部1374の内部構成の一例を概略的に示す。図15を用いて、変動指標導出部1374に入力された複数のフレームが撮像された期間中にカメラ154が移動した場合における補正処理の一例が説明される。本実施形態において、変動指標導出部1374は、変動指標算出部1522と、移動具合決定部1524と、補正部1526とを備える。 Fig. 15 shows an example of the internal configuration of the variation index derivation unit 1374. Using Fig. 15, an example of correction processing in the case where the camera 154 moves during the period in which the multiple frames input to the variation index derivation unit 1374 are captured will be described. In this embodiment, the variation index derivation unit 1374 includes a variation index calculation unit 1522, a movement degree determination unit 1524, and a correction unit 1526.

本実施形態において、変動指標算出部1522は、例えば、対象画像となる複数のフレームのデータが入力され、対象画像に含まれる複数の計算単位のそれぞれについて変動指標の値を算出する。変動指標算出部1522は、図13及び図14に関連して説明された手順と同様の手順に従って、変動指標の値を算出してよい。 In this embodiment, the variation index calculation unit 1522 receives, for example, data of multiple frames that are the target image, and calculates the value of the variation index for each of multiple calculation units included in the target image. The variation index calculation unit 1522 may calculate the value of the variation index according to a procedure similar to the procedure described in relation to Figures 13 and 14.

本実施形態において、移動具合決定部1524は、上記の複数のフレームが撮像された期間中におけるカメラ154の移動の程度(移動具合と称される場合がある。)を決定する。移動具合としては、移動の方向及び移動の量が例示される。例えば、移動具合決定部1524は、動画データ1320を解析し、上記の複数のフレームの間における画像中の特徴点の移動具合に基づいて、当該動画データ1320を撮像したカメラ154の移動具合を決定する。 In this embodiment, the movement degree determination unit 1524 determines the degree of movement (sometimes referred to as the movement degree) of the camera 154 during the period in which the above-mentioned multiple frames are captured. Examples of the movement degree include the direction and amount of movement. For example, the movement degree determination unit 1524 analyzes the video data 1320, and determines the movement degree of the camera 154 that captured the video data 1320 based on the movement degree of feature points in the images between the above-mentioned multiple frames.

本実施形態において、補正部1526は、移動具合決定部1524が決定したカメラ154の移動具合に基づいて、複数の計算単位のそれぞれの変動指標の値を補正する。例えば、補正部1526は、移動具合決定部1524が決定した移動具合に基づいて、上記の期間中にカメラ154が移動したか否かを判定する。 In this embodiment, the correction unit 1526 corrects the value of the variation index for each of the multiple calculation units based on the degree of movement of the camera 154 determined by the degree of movement determination unit 1524. For example, the correction unit 1526 determines whether the camera 154 has moved during the above-mentioned period based on the degree of movement determined by the degree of movement determination unit 1524.

上記の期間中にカメラ154が移動していないと判定された場合、補正部1526は、補正が不要であると判定する。この場合、変動指標導出部1374は、変動指標算出部1522が算出した値を、変動指標の値として出力する。 If it is determined that the camera 154 has not moved during the above period, the correction unit 1526 determines that correction is not necessary. In this case, the variation index derivation unit 1374 outputs the value calculated by the variation index calculation unit 1522 as the value of the variation index.

一方、上記の期間中にカメラ154が移動したと判定された場合、補正部1526は、補正が必要であると判定する。例えば、補正部1526は、まず、変動指標導出部1374に入力された複数のフレームの間における計算単位の対応関係を決定する。次に、補正部1526は、フレーム間における計算単位の対応関係を考慮して、対応する計算単位同士の間で上述された統計処理を実行し。各計算単位における変動指標の値を算出する。この場合、変動指標導出部1374は、補正部1526が算出した値を、変動指標の値として出力する。 On the other hand, if it is determined that the camera 154 has moved during the above period, the correction unit 1526 determines that correction is necessary. For example, the correction unit 1526 first determines the correspondence between the calculation units among the multiple frames input to the variation index derivation unit 1374. Next, the correction unit 1526 executes the statistical processing described above between the corresponding calculation units, taking into account the correspondence between the calculation units among the frames, and calculates the value of the variation index for each calculation unit. In this case, the variation index derivation unit 1374 outputs the value calculated by the correction unit 1526 as the value of the variation index.

(別実施形態の一例)
本実施形態においては、変動指標算出部1522と、補正部1526とが変動指標の値を算出する場合を例として、補正処理の一例が説明された。しかしながら、補正処理は本実施形態に限定されない。
(An example of another embodiment)
In the present embodiment, an example of the correction process has been described using as an example a case in which the fluctuation index calculation unit 1522 and the correction unit 1526 calculate the value of the fluctuation index. However, the correction process is not limited to this embodiment.

他の実施形態において、変動指標算出部1522が、カメラ154の移動の有無に応じて、統計処理の対象となるフレームごとの計算単位を決定してよい。例えば、変動指標算出部1522が変動指標を算出する前に、補正部1526が補正の要否を判定する。補正が不要であると判定された場合、変動指標算出部1522は、各フレームの同一の位置に配された複数の計算単位の間で統計処理を実行する。一方、補正が必要であると判定された場合、変動指標算出部1522は、カメラ154の移動具合を考慮して、複数のフレームの間における計算単位の対応関係を決定する。変動指標算出部1522は、対応関係にある複数の計算単位の間で統計処理を実行する。 In another embodiment, the variation index calculation unit 1522 may determine the calculation unit for each frame to be subjected to statistical processing depending on whether or not the camera 154 has moved. For example, before the variation index calculation unit 1522 calculates the variation index, the correction unit 1526 determines whether or not correction is necessary. If it is determined that correction is not necessary, the variation index calculation unit 1522 performs statistical processing between multiple calculation units arranged at the same position in each frame. On the other hand, if it is determined that correction is necessary, the variation index calculation unit 1522 determines the correspondence relationship of the calculation units between multiple frames, taking into account the degree of movement of the camera 154. The variation index calculation unit 1522 performs statistical processing between multiple corresponding calculation units.

図16、図17、図18及び図19を用いて、安全管理部1378の詳細が説明される。図16は、安全管理部1378の内部構成の一例を概略的に示す。図17は、安全管理部1378における情報処理の一例を概略的に示す。図18は、マーカが写り込んだ通常画像である二次元画像1800の一例を概略的に示す。図19は、複数の変動画像が合成されたパノラマ画像1900の一例を概略的に示す。 The safety management unit 1378 will be described in detail using Figures 16, 17, 18, and 19. Figure 16 shows an example of the internal configuration of the safety management unit 1378. Figure 17 shows an example of information processing in the safety management unit 1378. Figure 18 shows an example of a two-dimensional image 1800 that is a normal image in which a marker is captured. Figure 19 shows an example of a panoramic image 1900 in which multiple dynamic images are synthesized.

図16は、安全管理部1378の内部構成の一例を概略的に示す。本実施形態において、安全管理部1378は、例えば、導出手順決定部1130と、指標値導出部1140と、評価部1150と、評価対象決定部1620とを備える。本実施形態において、評価対象決定部1620は、例えば、変動画像取得部1622と、結合画像生成部1624と、単位画像抽出部1626と、マーカ検出部1632と、画素値変更部1634と、撮像位置決定部1636と、撮像方向決定部1638とを有する。 Figure 16 shows an example of the internal configuration of the safety management unit 1378. In this embodiment, the safety management unit 1378 includes, for example, a derivation procedure determination unit 1130, an index value derivation unit 1140, an evaluation unit 1150, and an evaluation target determination unit 1620. In this embodiment, the evaluation target determination unit 1620 includes, for example, a variation image acquisition unit 1622, a combined image generation unit 1624, a unit image extraction unit 1626, a marker detection unit 1632, a pixel value change unit 1634, an imaging position determination unit 1636, and an imaging direction determination unit 1638.

安全管理部1378は、評価対象決定部1620を備える点で、安全管理部640と相違する。上記の相違点を除き、安全管理部1378は、安全管理部640と同様の構成を有してよい。 The safety management unit 1378 differs from the safety management unit 640 in that it includes an evaluation target determination unit 1620. Except for the above differences, the safety management unit 1378 may have the same configuration as the safety management unit 640.

上述されたとおり、表示領域142と、カメラ154とが同一の筐体130に収容されている場合、カメラ154の撮像位置は、表示領域142又はユーザ端末120の設置位置と略一致する。同様に、カメラ154の撮像方向は、表示領域142又はユーザ端末120の設置方向と略一致する。 As described above, when the display area 142 and the camera 154 are housed in the same housing 130, the imaging position of the camera 154 approximately coincides with the installation position of the display area 142 or the user terminal 120. Similarly, the imaging direction of the camera 154 approximately coincides with the installation direction of the display area 142 or the user terminal 120.

本実施形態において、評価対象決定部1620は、変動画像データ1340の中から、安全性に関する評価の対象となる対象画像を決定する。上述されたとおり、対象画像は変動画像データ1340に含まれるフレーム全体であってもよく、当該フレームの一部であってもよい。 In this embodiment, the evaluation target determination unit 1620 determines a target image to be evaluated for safety from the dynamic image data 1340. As described above, the target image may be the entire frame included in the dynamic image data 1340, or a part of the frame.

本実施形態において、変動画像取得部1622は、画像生成部1376が生成した1以上の変動画像を取得する。カメラ154が撮像方向の異なる複数の動画を撮像している場合、変動画像取得部1622は、当該複数の動画のそれぞれに関する複数の変動画像を取得してよい。 In this embodiment, the variation image acquisition unit 1622 acquires one or more variation images generated by the image generation unit 1376. When the camera 154 captures multiple videos with different imaging directions, the variation image acquisition unit 1622 may acquire multiple variation images for each of the multiple videos.

本実施形態において、結合画像生成部1624は、画像生成部1376が生成した複数の変動画像をパノラマ合成して、結合画像を生成する。図19に関連して説明されたパノラマ画像1900は、結合画像の一例であってよい。 In this embodiment, the combined image generating unit 1624 generates a combined image by panoramic synthesis of the multiple variation images generated by the image generating unit 1376. The panoramic image 1900 described in relation to FIG. 19 may be an example of a combined image.

本実施形態において、単位画像抽出部1626は、変動画像又は結合画像の中から、評価対象となる1以上の単位画像を抽出する。各単位画像は、表示領域142が特定の位置に特定の向きに配置された場合における表示領域142の視野角に相当する。単位画像抽出部1626は、上記の特定の向きが異なる複数の単位画像を抽出してよい。 In this embodiment, the unit image extraction unit 1626 extracts one or more unit images to be evaluated from the varying image or combined image. Each unit image corresponds to the viewing angle of the display area 142 when the display area 142 is disposed at a specific position with a specific orientation. The unit image extraction unit 1626 may extract multiple unit images with different specific orientations.

本実施形態において、マーカ検出部1632は、変動画像の元となる動画に映り込んだマーカを検出する。上述されたとおり、マーカは、閲覧可能性の程度を示す情報を含んでよい。マーカは、閲覧可能性の程度を示す情報と、閲覧可能性の程度が適用される領域の大きさを示す情報とを含んでもよい。上述されたとおり、マーカとしては、ARマーカ、QRコード(登録商標)、バーコードなどが例示される。ARマーカとしては、ArUco、カメレオンコードなどが例示されるが、ARマーカはこれらに限定されない。例えば、QRコード(登録商標)及びバーコードが、ARマーカとして利用されてよい。 In this embodiment, the marker detection unit 1632 detects a marker that appears in the video that is the source of the dynamic image. As described above, the marker may include information indicating the degree of viewability. The marker may include information indicating the degree of viewability and information indicating the size of the area to which the degree of viewability applies. As described above, examples of the marker include an AR marker, a QR code (registered trademark), and a barcode. Examples of the AR marker include ArUco and a chameleon code, but the AR marker is not limited to these. For example, a QR code (registered trademark) and a barcode may be used as the AR marker.

本実施形態において、画素値変更部1634は、マーカ検出部1632がマーカを検出した場合に、変動画像の画素値を変更する。画素値変更部1634は、検出されたマーカにより示される情報に基づいて、変動画像の画素値を変更してよい。マーカがQRコード(登録商標)又はバーコードである場合、画素値変更部1634は、マーカの識別情報と、当該マーカが検出された場合における情報処理の内容とを対応付けて格納するデータベースを参照して、検出されたマーカにより示される情報を取得してよい。 In this embodiment, the pixel value modification unit 1634 modifies the pixel value of the variable image when the marker detection unit 1632 detects a marker. The pixel value modification unit 1634 may modify the pixel value of the variable image based on information indicated by the detected marker. When the marker is a QR code (registered trademark) or a barcode, the pixel value modification unit 1634 may acquire the information indicated by the detected marker by referring to a database that stores the identification information of the marker in association with the content of information processing when the marker is detected.

例えば、画素値変更部1634は、通常画像の複数の領域のうちマーカが映り込んだ領域に対応する変動指標の値を、マーカにより示される閲覧可能性の程度を示す情報に基づいて決定する。検出されたマーカにより閲覧可能性の程度が適用される領域の大きさが示される場合、画素値変更部1634は、当該マーカにより示される情報に基づいて、通常画像の複数の領域のうち、閲覧可能性の程度が適用される領域を特定してよい。画素値変更部1634は、変動画像又は単位画像において上記の領域に対応する領域に含まれる画素の画素値を、検出されたマーカにより示される閲覧可能性の程度を示す情報に基づいて決定する。例えば、画素値変更部1634は、変動画像又は単位画像における上記の画素の画素値を検出されたマーカにより示される閲覧可能性の程度に対応する値に変更する。 For example, the pixel value modification unit 1634 determines the value of the variation index corresponding to an area in which a marker is captured among multiple areas of the normal image, based on information indicating the degree of viewability indicated by the marker. When the detected marker indicates the size of the area to which the degree of viewability is applied, the pixel value modification unit 1634 may identify the area to which the degree of viewability is applied among multiple areas of the normal image, based on the information indicated by the marker. The pixel value modification unit 1634 determines the pixel value of a pixel included in an area in the variation image or unit image corresponding to the above area, based on information indicating the degree of viewability indicated by the detected marker. For example, the pixel value modification unit 1634 changes the pixel value of the above pixel in the variation image or unit image to a value corresponding to the degree of viewability indicated by the detected marker.

本実施形態において、撮像位置決定部1636は、対象画像の撮像位置を決定する。撮像位置決定部1636は、例えば、撮像条件データ1310に基づいて、対象画像の撮像位置を決定する。 In this embodiment, the imaging position determination unit 1636 determines the imaging position of the target image. The imaging position determination unit 1636 determines the imaging position of the target image based on, for example, the imaging condition data 1310.

本実施形態において、撮像方向決定部1638は、対象画像の撮像方向を決定する。対象画像の中心点と、当該対象画像の抽出元となる変動画像におけるカメラ154の光軸の位置とが一致する場合、撮像方向決定部1638は、例えば、撮像条件データ1310に基づいて、対象画像の撮像方向を決定する。一方、対象画像の中心点と、当該対象画像の抽出元となる変動画像におけるカメラ154の光軸の位置とが一致しない場合、撮像位置決定部1636は、例えば、当該対象画像の抽出元となる変動画像におけるカメラ154の光軸の位置と、当該対象画像の抽出元となる変動画像における当該対象画像の中心点の位置と、カメラ154の焦点距離と、撮像条件データ1310とに基づいて、対象画像の撮像方向を決定する。 In this embodiment, the imaging direction determination unit 1638 determines the imaging direction of the target image. When the center point of the target image coincides with the position of the optical axis of the camera 154 in the fluctuation image from which the target image is extracted, the imaging direction determination unit 1638 determines the imaging direction of the target image, for example, based on the imaging condition data 1310. On the other hand, when the center point of the target image does not coincide with the position of the optical axis of the camera 154 in the fluctuation image from which the target image is extracted, the imaging position determination unit 1636 determines the imaging direction of the target image, for example, based on the position of the optical axis of the camera 154 in the fluctuation image from which the target image is extracted, the position of the center point of the target image in the fluctuation image from which the target image is extracted, the focal length of the camera 154, and the imaging condition data 1310.

本実施形態において、評価部1150は、表示領域142が、カメラ154が動画を撮像した位置に配された場合における、カメラ154のユーザとは異なる第三者による出力画像の閲覧可能性の程度を導出する。閲覧可能性の程度は、安全性を示す指標の一例であってよい。 In this embodiment, the evaluation unit 1150 derives the degree of viewability of the output image by a third party other than the user of the camera 154 when the display area 142 is placed at a position where the camera 154 captures the video. The degree of viewability may be an example of an index indicating safety.

本実施形態において、評価部1150は、変動指標導出部1374が導出した複数の領域のそれぞれの変動指標の値に基づいて、上記の閲覧可能性の程度を示す評価値を導出する。評価対象決定部1620が評価対象として決定した対象画像の画素値は、変動指標導出部1374が導出した複数の領域のそれぞれの変動指標の値を示す。 In this embodiment, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability based on the values of the variation indices of the multiple regions derived by the variation index derivation unit 1374. The pixel values of the target image determined as the evaluation target by the evaluation target determination unit 1620 indicate the values of the variation indices of the multiple regions derived by the variation index derivation unit 1374.

そこで、本実施形態において、評価部1150は、対象画像に基づいて上記の閲覧可能性の程度を導出する。評価部1150は、複数の対象画像のそれぞれについて、上記の閲覧可能性の程度を示す評価値を導出してよい。 Therefore, in this embodiment, the evaluation unit 1150 derives the degree of viewability described above based on the target image. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability described above for each of the multiple target images.

一実施形態において、上述されたとおり、対象画像は、撮像方向の異なる複数の変動画像又は単位画像であり得る。これにより、複数の撮像方向のそれぞれにおける閲覧可能性の程度を示す評価値が導出され得る。 In one embodiment, as described above, the target image may be a plurality of variable images or unit images with different imaging directions. This allows an evaluation value indicating the degree of viewability in each of the plurality of imaging directions to be derived.

他の実施形態において、対象画像は、ユーザ22がカメラ154を連続して利用している期間中の複数の時点における変動画像又は単位画像であり得る。これにより、評価部1150は、ユーザ22がユーザ端末120を利用している期間中、ユーザ端末120の安全性を監視することができる。 In other embodiments, the target image may be a fluctuating image or a unit image at multiple time points during the period during which the user 22 continuously uses the camera 154. This allows the evaluation unit 1150 to monitor the safety of the user terminal 120 during the period during which the user 22 uses the user terminal 120.

評価部1150は、複数の領域のそれぞれの変動指標の値に基づいて、現実空間における各領域に対応する位置から出力画像が閲覧される可能性の程度を示す指標である閲覧指標の値を、複数の領域のそれぞれについて算出してよい。評価部1150は、複数の領域のそれぞれに関する閲覧指標の値に基づいて、閲覧可能性の程度を示す評価値を導出してよい。一実施形態において、評価部1150は、複数の領域のそれぞれに関する閲覧指標の値を合計することで、閲覧可能性の程度を示す評価値を導出する。他の実施形態において、評価部1150は、特定の領域に近接する複数の領域のそれぞれに関する閲覧指標の値の平均値(各領域の閲覧指標の値の合計を、領域の個数で割った値である。)を算出することで、閲覧可能性の程度を示す評価値を導出する。 The evaluation unit 1150 may calculate, for each of the multiple regions, a viewing index value, which is an index indicating the degree of possibility that the output image will be viewed from a position corresponding to each region in real space, based on the value of the variation index for each of the multiple regions. The evaluation unit 1150 may derive an evaluation value indicating the degree of viewability, based on the value of the viewing index for each of the multiple regions. In one embodiment, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability by summing up the values of the viewing index for each of the multiple regions. In another embodiment, the evaluation unit 1150 derives an evaluation value indicating the degree of viewability by calculating the average value of the viewing index for each of the multiple regions adjacent to a specific region (the sum of the viewing index values for each region divided by the number of regions).

一実施形態において、評価部1150は、変動指標の値が大きな領域の閲覧指標の値が、変動指標の値が小さな領域の閲覧指標の値よりも大きくなるように、上記の閲覧指標の値を算出する。他の実施形態において、評価部1150は、動画におけるカメラ154の光軸の位置に近い領域の閲覧指標の値が、動画におけるカメラ154の光軸の位置から遠い領域の閲覧指標の値よりも大きくなるように、上記の閲覧指標の値を算出する。さらに他の実施形態において、評価部1150は、水平線に近い領域の閲覧指標の値が、水平線に遠い領域の閲覧指標の値よりも大きくなるように、上記の閲覧指標の値を算出する。 In one embodiment, the evaluation unit 1150 calculates the value of the viewing index such that the value of the viewing index in an area with a large variation index value is greater than the value of the viewing index in an area with a small variation index value. In another embodiment, the evaluation unit 1150 calculates the value of the viewing index such that the value of the viewing index in an area close to the position of the optical axis of the camera 154 in the video is greater than the value of the viewing index in an area far from the position of the optical axis of the camera 154 in the video. In yet another embodiment, the evaluation unit 1150 calculates the value of the viewing index such that the value of the viewing index in an area close to the horizon is greater than the value of the viewing index in an area far from the horizon.

図17は、安全管理部1378における情報処理の一例を概略的に示す。図17を用いて、安全管理部1378が表示領域142の安全性を評価する手順の一例が説明される。上述されたとおり、安全管理部1378は、変動指標導出部1374が導出した変動指標、又は、画像生成部1376が生成した変動画像を利用して、表示領域142の安全性を評価する Figure 17 shows an example of information processing in the safety management unit 1378. An example of a procedure in which the safety management unit 1378 evaluates the safety of the display area 142 is described using Figure 17. As described above, the safety management unit 1378 evaluates the safety of the display area 142 using the fluctuation index derived by the fluctuation index derivation unit 1374 or the fluctuation image generated by the image generation unit 1376.

本実施形態によれば、まず、S1722において、安全管理部1378は、1以上の変動画像と、各変動画像に対応する撮像位置及び撮像方向とを取得する。例えば、安全管理部1378は、変動画像データ1340と、変動画像データ1340の元となる動画データ1320が撮像された時の撮像条件を示す撮像条件データ1310を取得する。 According to this embodiment, first, in S1722, the safety management unit 1378 acquires one or more variation images and the imaging positions and imaging directions corresponding to each variation image. For example, the safety management unit 1378 acquires variation image data 1340 and imaging condition data 1310 indicating the imaging conditions when the video data 1320 that is the source of the variation image data 1340 was captured.

次に、S1724において、安全管理部1378は、変動画像の画素値を変更するためのイベントの有無を判定する。変動画像の画素値を変更するためのイベントが検出された場合、安全管理部1378は、検出されたイベントに応じて、変動画像の画素値を変更する。 Next, in S1724, the safety management unit 1378 determines whether or not there is an event for changing the pixel value of the variable image. If an event for changing the pixel value of the variable image is detected, the safety management unit 1378 changes the pixel value of the variable image in accordance with the detected event.

変動画像の画素値を変更するためのイベントとしては、変動画像データ1340に含まれるフレームの元となる動画データ1320のフレームに、予め定められた種類のマーカが検出されたことが例示される。例えば、安全管理部1378は、動画データ1320のフレームを解析して、予め定められた種類のマーカの有無を判定する。上記のマーカとしては、ARマーカ、QRコード(登録商標)、バーコードなどが例示される。ARマーカとしては、ArUco、カメレオンコードなどが例示されるが、ARマーカはこれらに限定されない。上述されたとおり、例えば、QRコード(登録商標)及びバーコードが、ARマーカとして利用されてよい。 An example of an event for changing the pixel values of the dynamic image is when a predetermined type of marker is detected in a frame of the video data 1320 that is the source of the frame included in the dynamic image data 1340. For example, the safety management unit 1378 analyzes the frame of the video data 1320 to determine the presence or absence of a predetermined type of marker. Examples of the above marker include an AR marker, a QR code (registered trademark), and a barcode. Examples of the AR marker include ArUco and a chameleon code, but the AR marker is not limited to these. As described above, for example, a QR code (registered trademark) and a barcode may be used as the AR marker.

本実施形態におよれば、マーカは、当該マーカが付された位置若しくは当該マーカが付された物体の安全性の程度を示す情報を含む、又は、当該安全性の程度を示す情報と対応付けられた情報(例えば、マーカの識別情報である。)を含む。マーカは、当該マーカの効力が及ぶ範囲に関する情報を含んでもよく、当該マーカの効力が及ぶ範囲に関する情報と対応付けられた情報(例えば、マーカの識別情報である。)を含んでもよい。 According to this embodiment, the marker includes information indicating the degree of safety of the position where the marker is attached or the object where the marker is attached, or includes information associated with the information indicating the degree of safety (e.g., identification information of the marker). The marker may include information regarding the range of effect of the marker, or may include information associated with the information regarding the range of effect of the marker (e.g., identification information of the marker).

これにより、安全管理部1378は、動画データ1320のフレーム中に検出されたマーカが付された位置若しくは当該マーカが付された物体の安全性の程度を示す情報を取得することができる。安全管理部1378は、マーカの識別情報と、当該マーカが付された位置若しくは当該マーカが付された物体の安全性の程度を示す情報と、当該マーカの効力が及ぶ範囲に関する情報とが対応付けられたデータベースを参照することで、各種の情報を取得してもよい。 This allows the safety management unit 1378 to acquire information indicating the position where the marker detected in the frame of the video data 1320 is attached or the degree of safety of the object to which the marker is attached. The safety management unit 1378 may acquire various types of information by referring to a database in which the identification information of the marker, information indicating the position where the marker is attached or the degree of safety of the object to which the marker is attached, and information regarding the range of the effect of the marker are associated.

安全管理部1378は、通常画像においてマーカが検出された計算単位又は画素の位置と、当該マーカにより示される安全性の程度とに基づいて、変動画像の対応する画素の画素値を変更する。これにより、ユーザ22は、現実に即した適切な場所に、ユーザ端末120を設置することができる。 The safety management unit 1378 changes the pixel value of the corresponding pixel in the variation image based on the position of the calculation unit or pixel where the marker is detected in the normal image and the degree of safety indicated by the marker. This allows the user 22 to install the user terminal 120 in an appropriate location that corresponds to reality.

例えば、ガラス窓は光を透過させたり、光を反射したりするので、変動画像において、通常画像のガラス窓に対応する画素の変動指標の値は比較的大きくなる。しかしながら、外部から室内を覗き見られる可能性が小さい場合、現実世界のガラス窓に、安全性が高いことを示すマーカが付される。ガラス窓にマーカが付されていない場合、ユーザ22は、当該ガラス窓を背にする位置でユーザ端末120を使用することができない。一方、ガラス窓にマーカが付されている場合、ユーザ22は、当該ガラス窓を背にする位置でユーザ端末120を使用することができる。 For example, because a glass window transmits and reflects light, the value of the variation index of the pixel corresponding to the glass window in the normal image in the variation image is relatively large. However, if there is a low possibility that the inside of the room can be seen from outside, a marker indicating high safety is attached to the glass window in the real world. If a marker is not attached to the glass window, the user 22 cannot use the user terminal 120 in a position with his/her back to the glass window. On the other hand, if a marker is attached to the glass window, the user 22 can use the user terminal 120 in a position with his/her back to the glass window.

次に、S1726において、安全管理部1378は、S1722において取得された1以上の変動画像の中から、安全性に関する評価の対象となる対象画像を抽出する。一実施形態において、安全管理部1378は、画像生成部1376が生成した単一の変動画像の全領域を対象画像として、当該対象画像に対応する位置及び/又は方向の安全性を評価する。他の実施形態において、安全管理部1378は、画像生成部1376が生成した単一の変動画像の一部の領域を対象画像として、当該対象画像に対応する位置及び/又は方向の安全性を評価する。変動画像の一部の領域としては、表示領域142の視野角に相当する領域が例示される。 Next, in S1726, the safety management unit 1378 extracts a target image to be evaluated for safety from among the one or more variable images acquired in S1722. In one embodiment, the safety management unit 1378 evaluates the safety of the position and/or direction corresponding to the target image, using the entire region of the single variable image generated by the image generation unit 1376 as the target image. In another embodiment, the safety management unit 1378 evaluates the safety of the position and/or direction corresponding to the target image, using a partial region of the single variable image generated by the image generation unit 1376 as the target image. An example of the partial region of the variable image is a region corresponding to the viewing angle of the display area 142.

次に、S1728において、安全管理部1378は、抽出された対象画像に対応する撮像位置及び撮像方向を決定する。例えば、安全管理部1378は、S1722において取得された撮像条件データ1310に基づいて、上記の撮像位置及び撮像方向を決定する。 Next, in S1728, the safety management unit 1378 determines the imaging position and imaging direction corresponding to the extracted target image. For example, the safety management unit 1378 determines the imaging position and imaging direction based on the imaging condition data 1310 acquired in S1722.

次に、S1730において、安全管理部1378は、対象画像の安全性に関する評価値を決定する。また、安全管理部1378は、対象画像の安全性に関する評価値と、対象画像の撮像位置及び/又は撮像方向とを対応付けて出力する Next, in S1730, the safety management unit 1378 determines an evaluation value regarding the safety of the target image. In addition, the safety management unit 1378 outputs the evaluation value regarding the safety of the target image in association with the imaging position and/or imaging direction of the target image.

図18は、二次元画像1800の一例を概略的に示す。図18において、マーカ1822は、図17のS1724に関連して説明されたマーカの一例を示す。また領域1824は、マーカ1822の効力が及ぶ範囲の一例を示す。 Figure 18 shows an example of a two-dimensional image 1800. In Figure 18, marker 1822 shows an example of the marker described in relation to S1724 in Figure 17. Also, area 1824 shows an example of the range of effect of marker 1822.

図19は、パノラマ画像1900の一例を概略的に示す。図17のS1726に関連して説明されたとおり、安全管理部1378は、S1722において取得された1以上の変動画像の中から、安全性に関する評価の対象となる対象画像を抽出する。この場合において、安全管理部1378は、撮像方向の異なる通常画像から生成された複数の変動画像を合成して、単一の合成画像を生成してよい。 Figure 19 shows a schematic diagram of an example of a panoramic image 1900. As described in relation to S1726 in Figure 17, the safety management unit 1378 extracts a target image to be evaluated for safety from one or more variation images acquired in S1722. In this case, the safety management unit 1378 may generate a single composite image by synthesizing multiple variation images generated from normal images captured in different directions.

例えば、安全管理部1378は、上記の複数の変動画像を合成してパノラマ画像1900を生成する。図19に示された例によれば、変動画像1920、変動画像1922、変動画像1924、変動画像1926及び変動画像1928により、単一のパノラマ画像1900が合成される。 For example, the safety management unit 1378 synthesizes the above multiple variable images to generate a panoramic image 1900. According to the example shown in FIG. 19, a single panoramic image 1900 is synthesized from variable images 1920, 1922, 1924, 1926, and 1928.

安全管理部1378は、パノラマ画像1900の中から、表示領域142の視野角に相当する領域を示す画像(単位画像と称される場合がある。)を抽出し、当該単位画像を対象画像として決定してよい。安全管理部1378は、抽出される単位画像1940の中心1942の位置を、予め定められた点線1950に沿って左右方向又は上下方向にずらしていくことで、複数の単位画像1940を対象画像として抽出してよい。 The safety management unit 1378 may extract an image (sometimes called a unit image) that shows an area that corresponds to the viewing angle of the display area 142 from the panoramic image 1900, and determine the unit image as the target image. The safety management unit 1378 may extract multiple unit images 1940 as the target image by shifting the position of the center 1942 of the extracted unit image 1940 in the left-right direction or the up-down direction along a predetermined dotted line 1950.

(別実施形態の一例)
他の実施形態において、パノラマ画像1900は、定期的にリフレッシュされてよい。例えば、予め定められた時間間隔で新たなパノラマ画像1900が生成される。この場合において、新たなパノラマ画像1900を生成するためのガイド処理が実行されてよい。これにより、現実世界の最新の情報がパノラマ画像1900に反映される。その結果、安全性に関する評価精度が向上する。
(An example of another embodiment)
In another embodiment, the panoramic image 1900 may be periodically refreshed. For example, a new panoramic image 1900 is generated at a predetermined time interval. In this case, a guide process for generating a new panoramic image 1900 may be executed. This allows the latest information of the real world to be reflected in the panoramic image 1900. As a result, the accuracy of the safety evaluation is improved.

図19に関連して説明された実施形態においては、制御装置170が、撮像方向の異なる通常画像から生成された複数の変動画像を合成して、単一の合成画像(上述されたパノラマ画像である。)を生成する処理(パノラマ化と称される場合がある。)を実行する場合を例として、撮像装置の画角を仮想的に拡張する技術(画角拡張技術と称される場合がある。)の一例が説明された。上記の複数の通常画像又は変動画像のそれぞれは、カレント画像と称される場合がある。 In the embodiment described in relation to FIG. 19, an example of a technique for virtually expanding the angle of view of an imaging device (sometimes referred to as an angle of view expansion technique) has been described, taking as an example a case in which the control device 170 executes a process (sometimes referred to as panoramic processing) in which multiple variable images generated from normal images captured in different directions are synthesized to generate a single synthesized image (the panoramic image described above). Each of the multiple normal images or variable images described above may be referred to as a current image.

しかしながら、画角拡張技術は、本実施形態に限定されない。カレント画像の画角拡張技術の他の実施形態としては、電磁波及び/又は音波のn次反射(nは、2以上の整数である。)をカレント画像から検出し、画角の外に存在する物体の揺らぎ、動態変化などを検出することが例示される。例えば、画像の被写体の表面が光を反射しやすい場合、当該画像を撮像した撮像装置の背後に存在する物体が当該被写体の表面に写り込む。制御装置170は、上記の被写体の表面に写り込む光又は影の揺らぎを解析することで、撮像装置の画角の外に配された物体の動きを検出することができる。電磁波及び/又は音波を反射しやすい表面を有する物体としては、鏡、ガラス窓、ホワイトボード、指向性反射特性の高い壁、電源OFF状態のTV画面、冷蔵庫などが例示される。制御装置170は、画像を解析して被写体の境界を検出する処理、及び/又は、検出された被写体の種類を特定する処理若しくは当該被写体が反射性の表面を有するか否かを判定する処理を実行してもよい。 However, the angle of view extension technique is not limited to this embodiment. Other embodiments of the angle of view extension technique for the current image include detecting n-th reflection (n is an integer equal to or greater than 2) of electromagnetic waves and/or sound waves from the current image and detecting the fluctuation, dynamic change, etc. of an object existing outside the angle of view. For example, if the surface of the subject of the image is prone to reflect light, an object existing behind the imaging device that captured the image will be reflected on the surface of the subject. The control device 170 can detect the movement of an object located outside the angle of view of the imaging device by analyzing the fluctuation of light or shadow reflected on the surface of the subject. Examples of objects having surfaces that are prone to reflect electromagnetic waves and/or sound waves include mirrors, glass windows, whiteboards, walls with high directional reflection characteristics, TV screens that are turned off, and refrigerators. The control device 170 may execute a process of analyzing the image to detect the boundary of the subject and/or a process of identifying the type of the detected subject or a process of determining whether the subject has a reflective surface.

例えば、制御装置170は、撮像装置の画角内に存在している物体の表面に写り込む光又は影のn次反射の揺らぎ度合いに注目する。n次反射光の揺らぎ度合いの変化が大きい場合、制御装置170は、撮像装置の周辺(例えば、撮像装置の画角の外である。)に動体が存在すると判断して、安全性の程度が小さいと判定してよい。 For example, the control device 170 focuses on the degree of fluctuation of n-th order reflection of light or shadow reflected on the surface of an object within the angle of view of the imaging device. If there is a large change in the degree of fluctuation of the n-th order reflected light, the control device 170 may determine that a moving object is present in the vicinity of the imaging device (e.g., outside the angle of view of the imaging device) and determine that the degree of safety is low.

より具体的には、制御装置170は、まず、表示領域の周辺を撮像する撮像装置から動画データを取得する。次に、制御装置170は、動画データを解析して、変動画像を生成する。次に、制御装置170は、変動画像を解析して、変動指標の値が予め定められた値よりも大きい画素又は領域を抽出する。制御装置170は、上記の画素又は領域が、反射性の表面を有する物体に対応する画素又は領域であるか否かを判定する。上記の画素又は領域が、反射性の表面を有する物体に対応する画素又は領域である場合、制御装置170は、当該画素又は領域は撮像装置の画角外に対応すると判定する。これにより、制御装置170は、撮像装置の画角外に存在している動体を検出することができる。 More specifically, the control device 170 first acquires video data from an imaging device that captures the periphery of the display area. Next, the control device 170 analyzes the video data to generate a fluctuation image. Next, the control device 170 analyzes the fluctuation image to extract pixels or regions whose fluctuation index values are greater than a predetermined value. The control device 170 determines whether or not the above-mentioned pixels or regions correspond to an object having a reflective surface. If the above-mentioned pixels or regions correspond to an object having a reflective surface, the control device 170 determines that the pixel or region corresponds to outside the angle of view of the imaging device. This allows the control device 170 to detect a moving object that exists outside the angle of view of the imaging device.

評価部1150は、閲覧可能性導出部の一例であってよい。 The evaluation unit 1150 may be an example of a viewability derivation unit.

図20は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ3000の一例を示す。情報漏洩抑制システム100の少なくとも一部は、コンピュータ3000により実現されてよい。例えば、ユーザ端末120の少なくとも一部が、コンピュータ3000又はその一部により実現される。例えば、ユーザ端末120の少なくとも一部が、制御装置170が、コンピュータ3000又はその一部により実現される。 Figure 20 shows an example of a computer 3000 in which multiple aspects of the present invention may be embodied in whole or in part. At least a part of the information leakage prevention system 100 may be realized by the computer 3000. For example, at least a part of the user terminal 120 is realized by the computer 3000 or a part thereof. For example, at least a part of the user terminal 120 and the control device 170 are realized by the computer 3000 or a part thereof.

コンピュータ3000にインストールされたプログラムは、コンピュータ3000に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ3000に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ3000に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU3012によって実行されてよい。 A program installed on the computer 3000 may cause the computer 3000 to function as or perform operations associated with an apparatus according to an embodiment of the present invention or one or more "parts" of the apparatus, and/or to perform a process or steps of the process according to an embodiment of the present invention. Such a program may be executed by the CPU 3012 to cause the computer 3000 to perform certain operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ3000は、CPU3012、RAM3014、GPU3016、及びディスプレイデバイス3018を含み、それらはホストコントローラ3010によって相互に接続されている。コンピュータ3000はまた、通信インタフェース3022、ハードディスクドライブ3024、DVD-ROMドライブ3026、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ3020を介してホストコントローラ3010に接続されている。コンピュータはまた、ROM3030及びキーボード3042のようなレガシの入出力ユニットを含み、それらは入出力チップ3040を介して入出力コントローラ3020に接続されている。 The computer 3000 according to this embodiment includes a CPU 3012, a RAM 3014, a GPU 3016, and a display device 3018, which are interconnected by a host controller 3010. The computer 3000 also includes input/output units such as a communication interface 3022, a hard disk drive 3024, a DVD-ROM drive 3026, and an IC card drive, which are connected to the host controller 3010 via an input/output controller 3020. The computer also includes legacy input/output units such as a ROM 3030 and a keyboard 3042, which are connected to the input/output controller 3020 via an input/output chip 3040.

CPU3012は、ROM3030及びRAM3014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。GPU3016は、RAM3014内に提供されるフレームバッファ等又はそれ自体の中に、CPU3012によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス3018上に表示されるようにする。 The CPU 3012 operates according to the programs stored in the ROM 3030 and the RAM 3014, thereby controlling each unit. The GPU 3016 acquires image data generated by the CPU 3012 into a frame buffer or the like provided in the RAM 3014 or into itself, and causes the image data to be displayed on the display device 3018.

通信インタフェース3022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ3024は、コンピュータ3000内のCPU3012によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ3026は、プログラム又はデータをDVD-ROM3001から読み取り、ハードディスクドライブ3024にRAM3014を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 3022 communicates with other electronic devices via a network. The hard disk drive 3024 stores programs and data used by the CPU 3012 in the computer 3000. The DVD-ROM drive 3026 reads programs or data from the DVD-ROM 3001 and provides the programs or data to the hard disk drive 3024 via the RAM 3014. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM3030はその中に、アクティブ化時にコンピュータ3000によって実行されるブートプログラム等、及び/又はコンピュータ3000のハードウエアに依存するプログラムを格納する。入出力チップ3040はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ3020に接続してよい。 The ROM 3030 stores therein a boot program, etc., which is executed by the computer 3000 upon activation, and/or a program that depends on the hardware of the computer 3000. The input/output chip 3040 may also connect various input/output units to the input/output controller 3020 via a parallel port, a serial port, a keyboard port, a mouse port, etc.

プログラムが、DVD-ROM3001又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ3024、RAM3014、又はROM3030にインストールされ、CPU3012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ3000に読み取られ、プログラムと、上記様々なタイプのハードウエアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ3000の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM 3001 or an IC card. The programs are read from the computer-readable storage medium, installed in the hard disk drive 3024, RAM 3014, or ROM 3030, which are also examples of computer-readable storage media, and executed by the CPU 3012. The information processing described in these programs is read by the computer 3000, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of the computer 3000.

例えば、通信がコンピュータ3000及び外部デバイス間で実行される場合、CPU3012は、RAM3014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース3022に対し、通信処理を命令してよい。通信インタフェース3022は、CPU3012の制御の下、RAM3014、ハードディスクドライブ3024、DVD-ROM3001、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 3000 and an external device, CPU 3012 may execute a communication program loaded into RAM 3014 and instruct communication interface 3022 to perform communication processing based on the processing described in the communication program. Under the control of CPU 3012, communication interface 3022 reads transmission data stored in a transmission buffer area provided in RAM 3014, hard disk drive 3024, DVD-ROM 3001, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU3012は、ハードディスクドライブ3024、DVD-ROMドライブ3026(DVD-ROM3001)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM3014に読み取られるようにし、RAM3014上のデータに対し様々なタイプの処理を実行してよい。CPU3012は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 3012 may also cause all or a necessary portion of a file or database stored on an external recording medium such as the hard disk drive 3024, the DVD-ROM drive 3026 (DVD-ROM 3001), an IC card, etc. to be read into the RAM 3014, and perform various types of processing on the data on the RAM 3014. The CPU 3012 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU3012は、RAM3014から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM3014に対しライトバックする。また、CPU3012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU3012は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium and may undergo information processing. The CPU 3012 may execute various types of processing on the data read from the RAM 3014, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and write back the results to the RAM 3014. The CPU 3012 may also search for information in a file, database, etc. in the recording medium. For example, when a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 3012 may search for an entry whose attribute value of the first attribute matches a specified condition from among the plurality of entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ3000上又はコンピュータ3000近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それにより、上記のプログラムを、ネットワークを介してコンピュータ3000に提供する。 The above-described program or software module may be stored in a computer-readable storage medium on the computer 3000 or in the vicinity of the computer 3000. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the above-described program to the computer 3000 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using an embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications or improvements can be made to the above embodiment. Furthermore, the details described for a specific embodiment can be applied to other embodiments to the extent that they are not technically inconsistent. It is clear from the claims that such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

例えば、本願明細書には下記の事項が開示されている。
(項目A1)
画像出力装置の出力する出力画像が表示される表示領域の周辺の状態を示す周辺状態情報を取得する周辺状態取得部と、
上記周辺状態取得部が取得した上記周辺状態情報により示される上記表示領域の周辺の状態に基づいて、上記画像出力装置のユーザとは異なる第三者による上記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備える、情報処理装置。
(項目A2)
画像出力装置の出力する出力画像が表示される表示領域の周辺の状態を示す周辺状態情報を取得する周辺状態取得段階と、
上記周辺状態取得段階において取得された上記周辺状態情報により示される上記表示領域の周辺の状態に基づいて、上記画像出力装置のユーザとは異なる第三者による上記出力画像の閲覧可能性の程度を導出する閲覧可能性導出段階と、
を有する、情報処理方法。
(項目B1)
複数のフレームを含む動画のデータを取得する動画取得部と、
(a)上記動画の各フレームを予め定められた複数の領域に区分し、(b)上記複数の領域のそれぞれについて、各領域に含まれる画素の画素値に基づいて、上記複数のフレームの間における各領域の色及び/又は明るさの変動を示す指標である変動指標の値を導出する変動指標導出部と、
を備え、
上記複数の領域のそれぞれは、1以上の画素を含む、
画像処理装置。
(項目B2)
複数のフレームを含む動画のデータを取得する動画取得段階と、
(a)上記動画の各フレームを予め定められた複数の領域に区分し、(b)上記複数の領域のそれぞれについて、各領域に含まれる画素の画素値に基づいて、上記複数のフレームの間における各領域の色及び/又は明るさの変動を示す指標である変動指標の値を導出する変動指標導出段階と、
を有し、
上記複数の領域のそれぞれは、1以上の画素を含む、
画像処理方法。
(項目C1)
画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、上記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、
上記周辺データ取得部が取得した上記周辺データを解析して、上記1以上の物体のそれぞれと、上記表示領域との位置関係を決定する物体位置決定部と、
上記物体位置決定部が決定した上記位置関係に基づいて、上記画像出力装置のユーザとは異なる第三者による上記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備える、情報処理装置。
(項目C2)
画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、上記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得段階と、
上記周辺データ取得段階において取得された上記周辺データを解析して、上記1以上の物体のそれぞれと、上記表示領域との位置関係を決定する物体位置決定段階と、
上記物体位置決定段階において決定された上記位置関係に基づいて、上記画像出力装置のユーザとは異なる第三者による上記出力画像の閲覧可能性の程度を導出する閲覧可能性導出段階と、
を有する、情報処理方法。
For example, the present specification discloses the following:
(Item A1)
a peripheral state acquisition unit that acquires peripheral state information indicating a peripheral state of a display area on which an output image output by an image output device is displayed;
a viewability derivation unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on a state of the periphery of the display area indicated by the surrounding state information acquired by the surrounding state acquisition unit;
An information processing device comprising:
(Item A2)
a peripheral state acquisition step of acquiring peripheral state information indicating a peripheral state of a display area on which an output image outputted by an image output device is displayed;
a viewability derivation step of deriving a degree of viewability of the output image by a third party other than a user of the image output device based on a state of the periphery of the display area indicated by the surrounding state information acquired in the surrounding state acquisition step;
An information processing method comprising the steps of:
(Item B1)
A video acquisition unit that acquires video data including a plurality of frames;
(a) dividing each frame of the moving image into a plurality of predetermined regions; (b) deriving a value of a fluctuation index for each of the plurality of regions, the fluctuation index being an index indicating a fluctuation in color and/or brightness of each of the plurality of frames, based on pixel values of pixels included in each of the plurality of regions;
Equipped with
Each of the plurality of regions includes one or more pixels.
Image processing device.
(Item B2)
A video capture stage for capturing video data including a plurality of frames;
(a) dividing each frame of the video into a plurality of predetermined regions; and (b) deriving, for each of the plurality of regions, a value of a fluctuation index which is an index indicating a fluctuation in color and/or brightness of each region among the plurality of frames, based on pixel values of pixels included in each region.
having
Each of the plurality of regions includes one or more pixels.
Image processing methods.
(Item C1)
a peripheral data acquisition unit that acquires image data of an image having one or more objects as subjects arranged around a display area on which an output image outputted from an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination unit that analyzes the surrounding data acquired by the surrounding data acquisition unit and determines a positional relationship between each of the one or more objects and the display area;
a viewability deriving unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined by the object position determining unit;
An information processing device comprising:
(Item C2)
a peripheral data acquisition step of acquiring image data of an image having one or more objects disposed around a display area on which an output image outputted from an image output device is displayed, or peripheral data which is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination step of analyzing the surrounding data acquired in the surrounding data acquisition step to determine a positional relationship between each of the one or more objects and the display area;
a viewability deriving step of deriving a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined in the object position determining step;
An information processing method comprising the steps of:

22 ユーザ
32 第三者
34 第三者
100 情報漏洩抑制システム
120 ユーザ端末
130 筐体
140 表示装置
142 表示領域
150 環境センサ
152 周辺データ生成装置
154 カメラ
156 照度センサ
160 入力装置
170 制御装置
240 代表点
242 法線ベクトル
244 ベクトル
246 ベクトル
250 代表点
252 光軸
254 ベクトル
256 ベクトル
300 作業部屋
312 壁
314 壁
316 壁
318 壁
320 床
322 ガラス窓
330 遮蔽物
342 マーカ
344 マーカ
346 マーカ
610 周辺状態取得部
612 構造情報取得部
614 物性情報取得部
616 環境情報取得部
618 属性情報取得部
622 起動検知部
624 計時部
630 仮想空間構築部
640 安全管理部
652 配置決定部
654 配置支援部
660 出力制御部
670 格納部
712 三次元点群取得部
714 距離画像取得部
716 ステレオ画像取得部
718 二次元画像取得部
810 データ変換部
812 マーカ位置決定部
814 点群生成部
820 物体位置決定部
830 第1計算部
832 点群データ取得部
834 距離算出部
836 角度算出部
840 第2計算部
842 端部検出部
844 遮蔽角算出部
910 点群
924 ベクトル
926 ベクトル
1020 遮蔽物
1022 マーカ
1024 マーカ
1040 遮蔽物
1042 マーカ
1044 マーカ
1130 導出手順決定部
1132 指標設定部
1134 評価設定部
1140 指標値導出部
1142 第1指標導出部
1144 第2指標導出部
1146 第3指標導出部
1148 第4指標導出部
1150 評価部
1200 画像
1240 単位画像
1242 中心
1250 点線
1310 撮像条件データ
1320 動画データ
1322 フレーム
1324 フレーム
1332 フレーム
1334 フレーム
1340 変動画像データ
1342 フレーム
1344 フレーム
1374 変動指標導出部
1376 画像生成部
1378 安全管理部
1472 リングバッファ
1522 変動指標算出部
1524 移動具合決定部
1526 補正部
1620 評価対象決定部
1622 変動画像取得部
1624 結合画像生成部
1626 単位画像抽出部
1632 マーカ検出部
1634 画素値変更部
1636 撮像位置決定部
1638 撮像方向決定部
1800 二次元画像
1822 マーカ
1824 領域
1900 パノラマ画像
1920 変動画像
1922 変動画像
1924 変動画像
1926 変動画像
1928 変動画像
1940 単位画像
1942 中心
1950 点線
3000 コンピュータ
3001 DVD-ROM
3010 ホストコントローラ
3012 CPU
3014 RAM
3016 GPU
3018 ディスプレイデバイス
3020 入出力コントローラ
3022 通信インタフェース
3024 ハードディスクドライブ
3026 DVD-ROMドライブ
3030 ROM
3040 入出力チップ
3042 キーボード
22 User 32 Third party 34 Third party 100 Information leakage prevention system 120 User terminal 130 Housing 140 Display device 142 Display area 150 Environmental sensor 152 Peripheral data generation device 154 Camera 156 Illuminance sensor 160 Input device 170 Control device 240 Representative point 242 Normal vector 244 Vector 246 Vector 250 Representative point 252 Optical axis 254 Vector 256 Vector 300 Work room 312 Wall 314 Wall 316 Wall 318 Wall 320 Floor 322 Glass window 330 Shield 342 Marker 344 Marker 346 Marker 610 Peripheral state acquisition unit 612 Structural information acquisition unit 614 Physical property information acquisition unit 616 Environmental information acquisition unit 618 Attribute information acquisition unit 622 Start detection unit 624 Timer unit 630 Virtual space construction unit 640 Safety management unit 652 Placement determination unit 654 Placement support unit 660 Output control unit 670 Storage unit 712 Three-dimensional point cloud acquisition unit 714 Distance image acquisition unit 716 Stereo image acquisition unit 718 Two-dimensional image acquisition unit 810 Data conversion unit 812 Marker position determination unit 814 Point cloud generation unit 820 Object position determination unit 830 First calculation unit 832 Point cloud data acquisition unit 834 Distance calculation unit 836 Angle calculation unit 840 Second calculation unit 842 Edge detection unit 844 Shielding angle calculation unit 910 Point cloud 924 Vector 926 Vector 1020 Shielding object 1022 Marker 1024 Marker 1040 Shielding object 1042 Marker 1044 Marker 1130 Derivation procedure determination unit 1132 Index setting unit 1134 Evaluation setting unit 1140 Index value derivation unit 1142 First index derivation unit 1144 Second index derivation unit 1146 Third index derivation unit 1148 Fourth index derivation unit 1150 Evaluation unit 1200 Image 1240 Unit image 1242 Center 1250 Dotted line 1310 Imaging condition data 1320 Video data 1322 Frame 1324 Frame 1332 Frame 1334 Frame 1340 Fluctuation image data 1342 Frame 1344 Frame 1374 Fluctuation index derivation unit 1376 Image generation unit 1378 Safety management unit 1472 Ring buffer 1522 Fluctuation index calculation section 1524 Movement state determination section 1526 Correction section 1620 Evaluation target determination section 1622 Fluctuation image acquisition section 1624 Combined image generation section 1626 Unit image extraction section 1632 Marker detection section 1634 Pixel value change section 1636 Imaging position determination section 1638 Imaging direction determination section 1800 Two-dimensional image 1822 Marker 1824 Area 1900 Panoramic image 1920 Fluctuation image 1922 Fluctuation image 1924 Fluctuation image 1926 Fluctuation image 1928 Fluctuation image 1940 Unit image 1942 Center 1950 Dotted line 3000 Computer 3001 DVD-ROM
3010 host controller 3012 CPU
3014 RAM
3016 GPU
3018 Display device 3020 Input/output controller 3022 Communication interface 3024 Hard disk drive 3026 DVD-ROM drive 3030 ROM
3040 Input/Output Chip 3042 Keyboard

Claims (11)

画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、前記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、
前記周辺データ取得部が取得した前記周辺データを解析して、前記1以上の物体のそれぞれと、前記表示領域との位置関係を決定する物体位置決定部と、
前記物体位置決定部が決定した前記位置関係に基づいて、前記画像出力装置のユーザとは異なる第三者による前記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備え、
前記閲覧可能性導出部は、(i)前記表示領域から離れた位置に配された物体ほど、前記閲覧可能性の程度が大きくなるように、及び/又は、(ii)前記表示領域の正面に近い位置に配された物体ほど、前記閲覧可能性の程度が小さくなるように、前記閲覧可能性の程度を導出する、
報処理装置。
a peripheral data acquisition unit that acquires image data of an image having one or more objects disposed around a display area on which an output image outputted from an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination unit that analyzes the surrounding data acquired by the surrounding data acquisition unit and determines a positional relationship between each of the one or more objects and the display area;
a viewability deriving unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined by the object position determining unit;
Equipped with
The viewability derivation unit derives the degree of viewability such that (i) the degree of viewability is greater for an object disposed at a position farther from the display area, and/or (ii) the degree of viewability is smaller for an object disposed at a position closer to the front of the display area.
Information processing device.
画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、前記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、
前記周辺データ取得部が取得した前記周辺データを解析して、前記1以上の物体のそれぞれと、前記表示領域との位置関係を決定する物体位置決定部と、
前記物体位置決定部が決定した前記位置関係に基づいて、前記画像出力装置のユーザとは異なる第三者による前記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備え、
前記物体位置決定部は、
前記周辺データ取得部が取得した前記周辺データに基づいて、前記1以上の物体のそれぞれの三次元点群データを取得する点群データ取得部と、
前記表示領域の代表点と、前記点群データ取得部が取得した前記三次元点群データにより示される前記1以上の物体のそれぞれの表面に仮想的に配された複数の点のそれぞれとの距離を算出する距離算出部と、
を有し、
前記閲覧可能性導出部は、
前記距離算出部が算出した前記複数の点のそれぞれに関する前記距離に基づいて、各点が前記第三者による前記出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、前記複数の点のそれぞれについて算出し、
前記複数の点のそれぞれに関する前記抑制指標の値を合計することで、前記閲覧可能性の程度を導出する、
報処理装置。
a peripheral data acquisition unit that acquires image data of an image having one or more objects disposed around a display area on which an output image outputted from an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination unit that analyzes the surrounding data acquired by the surrounding data acquisition unit and determines a positional relationship between each of the one or more objects and the display area;
a viewability deriving unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined by the object position determining unit;
Equipped with
The object position determination unit is
a point cloud data acquisition unit that acquires three-dimensional point cloud data of each of the one or more objects based on the peripheral data acquired by the peripheral data acquisition unit;
a distance calculation unit that calculates a distance between a representative point of the display area and each of a plurality of points virtually arranged on a surface of each of the one or more objects represented by the three-dimensional point cloud data acquired by the point cloud data acquisition unit;
having
The viewability derivation unit is
calculating, for each of the plurality of points, a value of a suppression index, which is an index indicating a degree to which each point suppresses the third party from viewing the output image, based on the distance for each of the plurality of points calculated by the distance calculation unit;
deriving the degree of viewability by summing the values of the inhibition index for each of the plurality of points;
Information processing device.
前記物体位置決定部は、
前記表示領域の前記代表点における法線方向と、前記表示領域の前記代表点から前記1以上の物体のそれぞれの表面に配された前記複数の点のそれぞれに向かう方向とのなす角度の絶対値を算出する角度算出部、
をさらに有し、
前記閲覧可能性導出部は、
前記距離算出部が算出した前記複数の点のそれぞれに関する前記距離と、前記角度算出部が算出した前記複数の点のそれぞれに関する前記角度の絶対値とに基づいて、前記複数の点のそれぞれに関する前記抑制指標の値を算出し、
前記複数の点のそれぞれに関する前記抑制指標の値を合計することで、前記閲覧可能性の程度を導出する、
請求項に記載の情報処理装置。
The object position determination unit is
an angle calculation unit that calculates an absolute value of an angle between a normal direction at the representative point of the display area and a direction from the representative point of the display area toward each of the plurality of points arranged on the surface of each of the one or more objects;
and
The viewability derivation unit is
calculating a value of the suppression index for each of the plurality of points based on the distance for each of the plurality of points calculated by the distance calculation unit and the absolute value of the angle for each of the plurality of points calculated by the angle calculation unit;
deriving the degree of viewability by summing the values of the inhibition index for each of the plurality of points;
The information processing device according to claim 2 .
画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、前記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、
前記周辺データ取得部が取得した前記周辺データを解析して、前記1以上の物体のそれぞれと、前記表示領域との位置関係を決定する物体位置決定部と、
前記物体位置決定部が決定した前記位置関係に基づいて、前記画像出力装置のユーザとは異なる第三者による前記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備え、
前記物体位置決定部は、
前記周辺データ取得部が取得した前記周辺データに基づいて、前記1以上の物体のそれぞれの三次元点群データを取得する点群データ取得部と、
前記表示領域の代表点における法線方向と、前記表示領域の前記代表点から前記1以上の物体のそれぞれの表面に配された複数の点のそれぞれに向かう方向とのなす角度の絶対値を算出する角度算出部と、
を有し、
前記閲覧可能性導出部は、
前記角度算出部が算出した前記複数の点のそれぞれに関する前記角度の絶対値に基づいて、各点が前記第三者による前記出力画像の閲覧を抑制する程度を示す指標である抑制指標の値を、前記複数の点のそれぞれについて算出し、
前記複数の点のそれぞれに関する前記抑制指標の値を合計することで、前記閲覧可能性の程度を導出する、
報処理装置。
a peripheral data acquisition unit that acquires image data of an image having one or more objects disposed around a display area on which an output image outputted from an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination unit that analyzes the surrounding data acquired by the surrounding data acquisition unit and determines a positional relationship between each of the one or more objects and the display area;
a viewability deriving unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined by the object position determining unit;
Equipped with
The object position determination unit is
a point cloud data acquisition unit that acquires three-dimensional point cloud data of each of the one or more objects based on the peripheral data acquired by the peripheral data acquisition unit;
an angle calculation unit that calculates an absolute value of an angle between a normal direction at a representative point of the display area and a direction from the representative point of the display area toward each of a plurality of points arranged on a surface of each of the one or more objects;
having
The viewability derivation unit is
calculating, for each of the plurality of points, a value of a suppression index which is an index indicating a degree to which each point suppresses the third party from viewing the output image, based on an absolute value of the angle for each of the plurality of points calculated by the angle calculation unit;
deriving the degree of viewability by summing the values of the inhibition index for each of the plurality of points;
Information processing device.
前記画像出力装置は、
筐体と、
前記筐体に配される前記表示領域と、
前記筐体に配され、前記周辺データを生成する周辺データ生成装置と、
を備え、
前記周辺データ取得部は、前記周辺データ生成装置が生成した前記周辺データを取得し、
前記情報処理装置は、
1以上のマーカが付された前記1以上の物体を被写体とする二次元画像を取得する二次元画像取得部と、
前記二次元画像取得部が取得した前記二次元画像を解析して、前記1以上のマーカの少なくとも一部と、前記表示領域との位置関係を決定するマーカ位置決定部と、
前記マーカ位置決定部が前記表示領域との位置関係を決定したマーカの位置の周辺に点群を生成する点群生成部と、
をさらに備え、
前記1以上のマーカのそれぞれは、前記1以上のマーカのそれぞれを識別するための識別情報、及び/又は、各マーカの位置の周辺に生成される点群に関する情報を表すパターンを含む、
請求項に記載の情報処理装置。
The image output device is
A housing and
The display area disposed on the housing;
a peripheral data generating device disposed in the housing and generating the peripheral data;
Equipped with
The peripheral data acquisition unit acquires the peripheral data generated by the peripheral data generation device,
The information processing device includes:
a two-dimensional image acquisition unit that acquires a two-dimensional image having the one or more objects to which the one or more markers are attached as subjects;
a marker position determination unit that analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit and determines a positional relationship between at least a portion of the one or more markers and the display area;
a point cloud generating unit that generates a point cloud around the position of the marker whose positional relationship with the display area has been determined by the marker position determining unit;
Further equipped with
Each of the one or more markers includes identification information for identifying each of the one or more markers, and/or a pattern representing information regarding a point cloud generated around a position of each marker.
The information processing device according to claim 2 .
情報処理装置であって、
画像出力装置の出力する出力画像が表示される表示領域の周辺に配された1以上の物体を被写体とする画像の画像データ、又は、前記1以上の物体の三次元点群データ若しくは距離データである周辺データを取得する周辺データ取得部と、
前記周辺データ取得部が取得した前記周辺データを解析して、前記1以上の物体のそれぞれと、前記表示領域との位置関係を決定する物体位置決定部と、
前記物体位置決定部が決定した前記位置関係に基づいて、前記画像出力装置のユーザとは異なる第三者による前記出力画像の閲覧可能性の程度を導出する閲覧可能性導出部と、
を備え、
前記1以上の物体のそれぞれは、略水平方向における各物体の端部を示す1組のマーカが付された物体であり、
前記情報処理装置は、
前記1以上の物体を被写体とする二次元画像を取得する二次元画像取得部と、
前記二次元画像取得部が取得した前記二次元画像を解析して、前記二次元画像に含まれる複数のマーカを検出し、前記複数のマーカの組み合わせに基づいて、前記1以上の物体のそれぞれの略水平方向における一方の端部及び他方の端部を検出する端部検出部と、
前記1以上の物体のそれぞれについて、前記表示領域の代表点から各物体の前記一方の端部に向かう方向と、前記表示領域の前記代表点から各物体の前記他方の端部に向かう方向とのなす角度である遮蔽角を算出する遮蔽角算出部と、
をさらに備え、
前記閲覧可能性導出部は、前記遮蔽角算出部が算出した前記1以上の物体のそれぞれの前記遮蔽角に基づいて、前記閲覧可能性の程度を導出する、
報処理装置。
An information processing device,
a peripheral data acquisition unit that acquires image data of an image having one or more objects disposed around a display area on which an output image outputted from an image output device is displayed, or peripheral data that is three-dimensional point cloud data or distance data of the one or more objects;
an object position determination unit that analyzes the surrounding data acquired by the surrounding data acquisition unit and determines a positional relationship between each of the one or more objects and the display area;
a viewability deriving unit that derives a degree of viewability of the output image by a third party different from a user of the image output device based on the positional relationship determined by the object position determining unit;
Equipped with
each of the one or more objects is an object having a set of markers indicating an edge of each object in a substantially horizontal direction;
The information processing device includes:
a two-dimensional image acquisition unit for acquiring a two-dimensional image having the one or more objects as subjects;
an end detection unit that analyzes the two-dimensional image acquired by the two-dimensional image acquisition unit, detects a plurality of markers included in the two-dimensional image, and detects one end and another end of each of the one or more objects in a substantially horizontal direction based on a combination of the plurality of markers;
an occlusion angle calculation unit that calculates, for each of the one or more objects, an occlusion angle that is an angle between a direction from the representative point of the display area toward the one end of each object and a direction from the representative point of the display area toward the other end of each object;
Further equipped with
The viewability deriving unit derives the degree of viewability based on the occlusion angle of each of the one or more objects calculated by the occlusion angle calculation unit.
Information processing device.
前記閲覧可能性導出部が導出した前記閲覧可能性の程度に基づいて、前記表示領域の配置を決定する配置決定部、
をさらに備え、
前記表示領域の配置は、前記表示領域が設置される位置及び方向を含み、
前記配置決定部は、前記閲覧可能性の程度が予め定められた程度よりも小さくなるように、前記表示領域の配置を決定する、
請求項1に記載の情報処理装置。
an arrangement determination unit that determines an arrangement of the display area based on the degree of viewability derived by the viewability derivation unit;
Further equipped with
The arrangement of the display area includes a position and a direction in which the display area is installed,
the placement determination unit determines a placement of the display area such that the degree of viewability is smaller than a predetermined degree.
The information processing device according to claim 1 .
前記表示領域が予め定められた特徴を有するエリアの範囲内に位置する場合と、前記エリアの範囲外に位置する場合とで、前記予め定められた程度が異なる、
請求項に記載の情報処理装置。
the predetermined degree differs between a case where the display region is located within a range of an area having a predetermined characteristic and a case where the display region is located outside the range of the area;
The information processing device according to claim 7 .
前記周辺データ取得部は、前記ユーザが前記画像出力装置を連続して利用している期間中の複数の時点における前記周辺データを取得し、
前記閲覧可能性導出部は、前記複数の時点のそれぞれにおける前記閲覧可能性の程度を導出する、
請求項1に記載の情報処理装置。
the peripheral data acquisition unit acquires the peripheral data at a plurality of points in time during a period in which the user continuously uses the image output device;
The viewability deriving unit derives the degree of viewability at each of the plurality of time points.
The information processing device according to claim 1 .
前記画像出力装置による画像の出力を制御する出力制御部をさらに備え、
前記出力制御部は、前記閲覧可能性導出部が導出した前記閲覧可能性の程度が予め定められた程度を超えた場合、前記閲覧可能性の程度が予め定められた程度を超える前に表示されていた前記出力画像の出力を停止する、又は、前記出力画像とは異なる画像を前記表示領域に表示させる、
請求項に記載の情報処理装置。
an output control unit that controls output of an image by the image output device,
when the degree of viewability derived by the viewability derivation unit exceeds a predetermined degree, the output control unit stops output of the output image that was displayed before the degree of viewability exceeded the predetermined degree, or displays an image different from the output image in the display area.
The information processing device according to claim 9 .
コンピュータを、請求項1から請求項10までの何れか一項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 10 .
JP2022180617A 2022-11-10 2022-11-10 Information processing device and program Active JP7472238B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180617A JP7472238B1 (en) 2022-11-10 2022-11-10 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022180617A JP7472238B1 (en) 2022-11-10 2022-11-10 Information processing device and program

Publications (1)

Publication Number Publication Date
JP7472238B1 true JP7472238B1 (en) 2024-04-22

Family

ID=90735832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022180617A Active JP7472238B1 (en) 2022-11-10 2022-11-10 Information processing device and program

Country Status (1)

Country Link
JP (1) JP7472238B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122754A (en) 2008-11-17 2010-06-03 Chugoku Electric Power Co Inc:The Peep prevention device in information processor
JP2010128778A (en) 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc Information display device, peep prevention method for the information display device and peep prevention program
JP2010277205A (en) 2009-05-26 2010-12-09 Nec Corp Information processing device, method and program
JP2017129630A (en) 2016-01-18 2017-07-27 Necディスプレイソリューションズ株式会社 Display device, display method, and program
JP2019047159A (en) 2017-08-29 2019-03-22 シャープ株式会社 Electronic device, control device, control method of control device, and control program
JP2020013498A (en) 2018-07-20 2020-01-23 富士ゼロックス株式会社 Display control device and program
CN111143906A (en) 2019-12-31 2020-05-12 联想(北京)有限公司 Control method and control device
JP2020187354A (en) 2019-05-10 2020-11-19 技嘉科技股▲ふん▼有限公司Giga−Byte Technology Co.,Ltd. Display device capable of automatically adjusting displayed image and method thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122754A (en) 2008-11-17 2010-06-03 Chugoku Electric Power Co Inc:The Peep prevention device in information processor
JP2010128778A (en) 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc Information display device, peep prevention method for the information display device and peep prevention program
JP2010277205A (en) 2009-05-26 2010-12-09 Nec Corp Information processing device, method and program
JP2017129630A (en) 2016-01-18 2017-07-27 Necディスプレイソリューションズ株式会社 Display device, display method, and program
JP2019047159A (en) 2017-08-29 2019-03-22 シャープ株式会社 Electronic device, control device, control method of control device, and control program
JP2020013498A (en) 2018-07-20 2020-01-23 富士ゼロックス株式会社 Display control device and program
JP2020187354A (en) 2019-05-10 2020-11-19 技嘉科技股▲ふん▼有限公司Giga−Byte Technology Co.,Ltd. Display device capable of automatically adjusting displayed image and method thereof
CN111143906A (en) 2019-12-31 2020-05-12 联想(北京)有限公司 Control method and control device

Similar Documents

Publication Publication Date Title
US11068050B2 (en) Method for controlling display of virtual image based on eye area size, storage medium and electronic device therefor
CN109583285B (en) Object recognition method
US20160343168A1 (en) Virtual personification for augmented reality system
US11330200B2 (en) Parallax correction using cameras of different modalities
CN105701756B (en) Image processing apparatus and image processing method
US9648285B2 (en) Monitoring method and camera
US10127731B1 (en) Directional augmented reality warning system
US20170011263A1 (en) Wearable retina/iris scan authentication system
JP2015185176A (en) Expression method and system for virtual object in visual field of reality environment
CN106327584B (en) Image processing method and device for virtual reality equipment
Tanaka et al. An information layout method for an optical see-through head mounted display focusing on the viewability
US9535307B2 (en) Light shielding device, light shielding method, and program
WO2015087730A1 (en) Monitoring system
WO2016158001A1 (en) Information processing device, information processing method, program, and recording medium
US11508130B2 (en) Augmented reality environment enhancement
CN111856751B (en) Head mounted display with low light operation
EP3617851B1 (en) Information processing device, information processing method, and recording medium
JP7472238B1 (en) Information processing device and program
JP7457774B1 (en) Information processing device, image processing device, and program
CN117274383A (en) Viewpoint prediction method and device, electronic equipment and storage medium
CN110235171A (en) System and method for compensating the reflection in display equipment
CN117580048A (en) Peeping prevention method and device and electronic equipment
JP7007323B2 (en) Monitoring display device
JP7000935B2 (en) Information processing equipment, information processing system, information processing method and program
Abdelrahman Thermal imaging for interactive surfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7472238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150