JP2022178687A - Information processing apparatus and information processing program - Google Patents

Information processing apparatus and information processing program Download PDF

Info

Publication number
JP2022178687A
JP2022178687A JP2021085650A JP2021085650A JP2022178687A JP 2022178687 A JP2022178687 A JP 2022178687A JP 2021085650 A JP2021085650 A JP 2021085650A JP 2021085650 A JP2021085650 A JP 2021085650A JP 2022178687 A JP2022178687 A JP 2022178687A
Authority
JP
Japan
Prior art keywords
display
information
person
displayed
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021085650A
Other languages
Japanese (ja)
Inventor
勇樹 池谷
Yuki Iketani
清光 並木
Seiko Namiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2021085650A priority Critical patent/JP2022178687A/en
Publication of JP2022178687A publication Critical patent/JP2022178687A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing apparatus capable of easily preventing a third person from peeping at unintended information to be browsed without an increase in workload.SOLUTION: An information processing apparatus comprises: an acquisition part which acquires display information to be displayed in a display region of a display unit and attribute information attached to the display information; a person detection part which detects a person who faces the display region when the display information is displayed in the display region; and a display control part which determines whether to display the display information based upon the attribute information when the person facing the display region changes.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、情報処理装置および情報処理プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to an information processing apparatus and an information processing program.

近年、テレワークの推奨や仕事のやり方の多様化に伴い、セキュリティエリア以外(例えば社外や自宅等)で情報処理装置を用いて仕事を行うケースが増加している。この場合、情報処理装置に表示されている情報が第三者(家族等も含む)に覗き見されてしまうことは、セキュリティ上好ましくない。同様に、スマートフォンやタブレット端末等の携帯端末の普及により、携帯端末を第三者に覗き見されてしまう場合や、特定の情報の閲覧を許可した上で第三者に携帯端末を渡した際に、意図しない情報まで見られてしまう場合がある。このような行為は、セキュリティ性やプライバシーの保護の観点から好ましくない。そのため、例えば、コンテンツに撮影者のさまざまな情報を付与し、閲覧時に閲覧者の映像を撮影して閲覧者を特定し、撮影者と閲覧者との関係性を予め定義することにより、閲覧制限を設定する技術が提案されている。 In recent years, with the advocacy of telework and the diversification of work methods, the number of cases where work is performed using an information processing device outside a security area (for example, outside the office or at home) is increasing. In this case, it is not preferable from the viewpoint of security that the information displayed on the information processing device is peeped by a third party (including family members). Similarly, due to the spread of mobile devices such as smartphones and tablet devices, when a mobile device is peeked at by a third party, or when a mobile device is handed over to a third party after allowing the viewing of specific information. In some cases, even unintended information may be seen. Such an act is undesirable from the viewpoint of security and privacy protection. Therefore, for example, by adding various information about the photographer to the content, capturing the image of the viewer at the time of viewing, identifying the viewer, and defining the relationship between the photographer and the viewer in advance has been proposed.

特開2014-192851号公報JP 2014-192851 A

しかしながら、従来技術の場合、第三者に見られたくないコンテンツ(情報)に対して、制限を予め個別に設定する必要がある。そのため、膨大な量のコンテンツ(情報)に対して、個別の設定作業が必要となり作業負担が大きくなってしまう場合があったり、設定ミスや設定忘れ等が生じる可能性があったりして、利便性が損なわれたり、情報漏洩の可能性が十分に排除できない等の問題があった。 However, in the case of the conventional technology, it is necessary to individually set restrictions in advance for contents (information) that should not be seen by third parties. For this reason, for a huge amount of content (information), individual setting work is required, which may increase the work load, and there is a possibility that setting errors or forgetting to set may occur. However, there were problems such as the loss of privacy and the possibility of information leakage being unable to be fully eliminated.

従って、本発明が解決する課題の一例は、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避できる情報処理装置および情報処理プログラムを提供することにある。 Accordingly, one example of the problem to be solved by the present invention is to provide an information processing apparatus and an information processing program that can easily avoid information that is not intended for viewing from being peeped at by a third party without increasing work load. That's what it is.

本発明の第1態様に係る情報処理装置は、表示装置の表示領域に表示可能な表示情報と前記表示情報に付随する属性情報とを取得する取得部と、前記表示領域に前記表示情報が表示される場合に、前記表示領域を臨む人物を検出する人検出部と、前記表示領域を臨む前記人物の入れ替わりが検出された際に、前記属性情報に基づいて前記表示情報の表示の可否を決定する表示制御部と、を備える。 An information processing apparatus according to a first aspect of the present invention includes an acquisition unit that acquires display information that can be displayed in a display area of a display device and attribute information that accompanies the display information, and displays the display information in the display area. a person detection unit for detecting a person facing the display area, and determining whether to display the display information based on the attribute information when a change of the person facing the display area is detected. and a display control unit for displaying.

また、前記表示制御部は、例えば、前記属性情報としての前記表示情報の作成時に付加された作成時位置情報と、前記表示装置の現在の位置を示す機器位置情報と、の比較結果に基づき、前記表示情報の表示の可否を決定する。 Further, the display control unit, for example, based on a comparison result between position information at the time of creation added when the display information as the attribute information is created and device position information indicating the current position of the display device, It decides whether or not to display the display information.

また、前記表示制御部は、例えば、前記属性情報としての前記表示情報の作成時に付加された前記表示情報の作成装置が接続された第一のネットワーク名と、前記表示装置が現在接続されている第二のネットワーク名と、の比較結果に基づき、前記表示情報の表示の可否を決定する。 Further, the display control unit, for example, controls the first network name to which the display information creation device is connected, which is added when the display information as the attribute information is created, and the name of the network to which the display device is currently connected. Based on the result of comparison with the second network name, it is determined whether or not to display the display information.

また、前記表示制御部は、例えば、前記属性情報として、前記人物の入れ替わりが検出される前に、前記表示装置に表示されていた第一の表示情報の作成時に付加された第一の作成時位置情報と、前記人物の入れ替わりが検出された後に、前記表示装置に表示され得る第二の表示情報の作成時に付加された第二の作成時位置情報との比較結果に基づき、前記第二の表示情報の表示の可否を決定する。 In addition, for example, the display control unit controls, as the attribute information, the first creation time added at the time of creation of the first display information displayed on the display device before the replacement of the person is detected. Based on the result of comparison between the position information and the second created position information added when creating the second display information that can be displayed on the display device after the replacement of the person is detected, Determines whether or not to display display information.

また、前記表示制御部は、例えば、前記属性情報として、前記人物の入れ替わりが検出される前に、前記表示装置に表示されていた第一の表示情報の作成時に付加された第一の時間情報と、前記人物の入れ替わりが検出された後に、前記表示装置に表示され得る第二の表示情報の作成時に付加された第二の時間情報との比較結果に基づき、前記第二の表示情報の表示の可否を決定する。 In addition, for example, the display control unit controls, as the attribute information, first time information added at the time of creation of the first display information displayed on the display device before the replacement of the person is detected. and display of the second display information based on the result of comparison with the second time information added when creating the second display information that can be displayed on the display device after the replacement of the person is detected. to decide whether or not to

また、前記表示制御部は、例えば、前記人物の入れ替わりが検出された後に、検出された前記人物の顔画像情報と、前記表示装置に表示され得る表示情報としての人物画像に含まれる顔画像情報との比較結果に基づき、前記人物画像の表示の可否を決定する。 Further, for example, after the replacement of the person is detected, the display control unit controls face image information of the detected person and face image information included in the person image as display information that can be displayed on the display device. Based on the result of comparison with the above, it is determined whether or not to display the person image.

また、前記人検出部は、例えば、前記表示領域を臨む人物の顔画像情報の変化に基づき前記人物の入れ替わりを検出する。 Also, the person detection unit detects the replacement of the person based on a change in the face image information of the person facing the display area, for example.

また、前記表示情報は、例えば、前記表示装置で実行状態を表示可能なアプリケーションを含む。 Also, the display information includes, for example, an application whose execution state can be displayed on the display device.

本発明の第2態様に係る情報処理プログラムは、表示装置の表示領域に表示可能な表示情報と前記表示情報に付随する属性情報とを取得する取得処理と、前記表示領域に前記表示情報が表示される場合に、前記表示領域を臨む人物を検出する人検出処理と、前記表示領域を臨む前記人物の入れ替わりが検出された際に、前記属性情報に基づいて前記表示情報の表示の可否を決定する表示制御処理と、を、情報処理装置に実行させる。 An information processing program according to a second aspect of the present invention includes an acquisition process for acquiring display information that can be displayed in a display area of a display device and attribute information accompanying the display information, and displaying the display information in the display area. a person detection process for detecting a person facing the display area, and determining whether or not to display the display information based on the attribute information when a change of the person facing the display area is detected. and a display control process to be executed by the information processing apparatus.

本発明の上記態様によれば、表示装置の表示領域を臨む人物の入れ替わりが検出された場合、表示情報の属性情報に基づき、表示の可否を決定するため、各表示情報に対して事前に個別の設定を行う必要がなく、第三者に見られたくない、表示情報の非表示を容易に行うことができる。 According to the above aspect of the present invention, when the change of the person facing the display area of the display device is detected, it is determined whether or not to display based on the attribute information of the display information. , and it is possible to easily hide display information that is not viewed by a third party.

図1は、実施形態にかかる情報処理装置の構成を示す例示的かつ模式的なブロック図である。FIG. 1 is an exemplary and schematic block diagram showing the configuration of an information processing apparatus according to an embodiment. 図2は、実施形態にかかる情報処理装置で表示可能な表示情報を格納したフォルダと、各表示情報に付随する属性情報を示す例示的かつ模式的な説明図である。FIG. 2 is an exemplary and schematic explanatory diagram showing folders storing display information that can be displayed by the information processing apparatus according to the embodiment, and attribute information associated with each display information. 図3は、実施形態にかかる情報処理装置の正規利用者が情報処理装置(例えばスマートフォン)を第三者に渡し、情報処理装置に表示される表示情報を見せているシーンを示す例示的かつ模式的な説明図である。FIG. 3 is an exemplary schematic diagram showing a scene in which an authorized user of the information processing device according to the embodiment hands over the information processing device (for example, a smartphone) to a third party and shows display information displayed on the information processing device; It is a typical explanatory diagram. 図4は、図3の各シーンにおいて、情報処理装置の表示部に表示される内容を示す例示的かつ模式的な説明図である。FIG. 4 is an exemplary and schematic explanatory diagram showing the contents displayed on the display unit of the information processing device in each scene of FIG. 図5は、実施形態にかかる情報処理装置において、顔画像取得による第三者の入れ替わりのチェックを行う処理の流れを示す例示的なフローチャートである。FIG. 5 is an exemplary flowchart showing a flow of processing for checking replacement of a third party by acquiring a face image in the information processing apparatus according to the embodiment; 図6は、実施形態にかかる情報処理装置において、特定の表示情報が表示可能か否かのチェックを行う処理の流れを示す例示的なフローチャートである。FIG. 6 is an exemplary flowchart illustrating a flow of processing for checking whether or not specific display information can be displayed in the information processing apparatus according to the embodiment; 図7は、実施形態にかかる情報処理装置において、特定の表示情報(特に画像)が表示可能か否かのチェックを行う処理の流れを示す例示的なフローチャートである。FIG. 7 is an exemplary flowchart showing a flow of processing for checking whether or not specific display information (particularly an image) can be displayed in the information processing apparatus according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions, results, and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

実施形態にかかる情報処理装置(例えばパーソナルコンピュータ、タブレット端末、スマートフォン等)は、表示装置の表示部(表示領域)を臨む人物の入れ替わりが検出された際に、表示する表示情報の属性情報に基づいて、その表示情報の表示の可否を決定するものである。 An information processing apparatus (for example, a personal computer, a tablet terminal, a smartphone, etc.) according to an embodiment detects a change of a person facing a display unit (display area) of a display device, based on attribute information of display information to be displayed. It determines whether or not to display the display information.

図1は、実施形態にかかる情報処理装置10の構成を示す例示的かつ模式的なブロック図である。図1は、情報処理装置10の一例としてスマートフォンを示す。 FIG. 1 is an exemplary and schematic block diagram showing the configuration of an information processing apparatus 10 according to an embodiment. FIG. 1 shows a smart phone as an example of the information processing device 10 .

情報処理装置10は、例えば、CPU(中央演算処理装置、処理ユニット)12、RAM(ランダムアクセスメモリ)14、ROM(リードオンリーメモリ)16、記憶部18、通信部20、フロントカメラ(インカメラ)22、虹彩承認装置24、表示装置26、位置検出部28等を備える。 The information processing device 10 includes, for example, a CPU (central processing unit, processing unit) 12, a RAM (random access memory) 14, a ROM (read only memory) 16, a storage section 18, a communication section 20, a front camera (in-camera). 22, an iris recognition device 24, a display device 26, a position detection unit 28, and the like.

CPU12は、ROM16等の不揮発性の記憶装置にインストールされ記憶された情報処理プログラムを読み出し、当該プログラムにしたがって各種制御や演算処理を実行するモジュールを実現する。CPU12は、例えば、本実施形態の表示情報(作成書類や写真等)の表示の可否を決定するためにモジュールとして、取得部12a、人検出部12b、表示制御部12cを含む。なお、CPU12は、情報処理装置10(スマートフォン)の他の機能、例えば、電話機能、撮影機能、検索機能、書類作成機能、ゲーム機能等種々の機能を実現するモジュールを実現するが、本実施形態の表示情報の表示可否機能以外のモジュールに関する説明は省略する。 The CPU 12 reads an information processing program installed and stored in a non-volatile storage device such as the ROM 16, and implements a module that executes various controls and arithmetic processing according to the program. The CPU 12 includes, for example, an acquisition unit 12a, a person detection unit 12b, and a display control unit 12c as modules for determining whether or not to display display information (created documents, photographs, etc.) according to the present embodiment. Note that the CPU 12 realizes modules that realize other functions of the information processing device 10 (smartphone), such as a telephone function, a photographing function, a search function, a document creation function, a game function, and the like. Description of modules other than the display information display enable/disable function will be omitted.

取得部12aは、表示装置26の表示部26a(表示領域)に表示可能な表示情報(例えば、作成書類や写真等)、とその表示情報に付随する属性情報(例えば、作成日時、作成場所の位置情報、作成時に接続されていたネットワーク名等)を取得する。表示情報や属性情報の詳細は後述する。 The acquisition unit 12a acquires display information (eg, created documents, photographs, etc.) that can be displayed on the display unit 26a (display area) of the display device 26, and attribute information accompanying the display information (eg, date and time of creation, place of creation, etc.). Location information, network name connected at the time of creation, etc.). Details of display information and attribute information will be described later.

人検出部12bは、表示部26a(表示領域)に表示情報が表示される場合に、表示領域を臨む(表示部26aを覗き込む)人物を検出する。例えば、情報処理装置10の表示部26aの周辺に配置されたフロントカメラ22により、表示部26aを覗き込む人物(人間と見なせる画像)を取得し、表示制御部12cに提供する。 When display information is displayed on the display section 26a (display area), the person detection section 12b detects a person facing the display area (looking into the display section 26a). For example, the front camera 22 arranged around the display unit 26a of the information processing device 10 acquires a person (image that can be regarded as a human being) looking into the display unit 26a, and provides the display control unit 12c with the image.

表示制御部12cは、人検出部12bが検出した人物に関する情報を取得し、表示部26aを臨む人物の入れ替わりがあるか否か検出する。例えば、当初取得していた情報処理装置10の正規利用者(例えば生体(虹彩)認証等により認証を受けている人物)から非正規利用者(認証が拒否された他の人物)に画像情報が変化した場合等に、表示情報に付随する属性情報に基づき、その表示情報の表示の可否を決定する。例えば、表示自体を実行しない処理や、表示情報の存在は示すものの、マスク処理等により認識不能にする処理を実行する。 The display control unit 12c acquires information about the person detected by the person detection unit 12b, and detects whether or not there is a change in the person facing the display unit 26a. For example, an authorized user (for example, a person who has been authenticated by biometric (iris) authentication or the like) of the information processing apparatus 10 that was originally acquired may transfer image information to an unauthorized user (another person whose authentication has been rejected). When the display information is changed, whether or not to display the display information is determined based on the attribute information accompanying the display information. For example, processing that does not execute display itself, or processing that indicates the presence of display information but makes it unrecognizable by mask processing or the like is executed.

RAM14は、揮発性のメモリで、CPU12での演算で用いられる各種データやフロントカメラ22で撮像した撮像画像データ等を一時的に記憶(保持)する。 The RAM 14 is a volatile memory that temporarily stores (holds) various data used in calculations by the CPU 12, captured image data captured by the front camera 22, and the like.

ROM16は、CPU12で情報処理(表示画像の表示可否処理)を実現する情報処理プログラム16aの他、上述したような電話機能や検索機能等を実現する各種プログラムを記憶する。また、ROM16は、各種プログラムの実行に必要なパラメータ等を記憶する。 The ROM 16 stores an information processing program 16a for realizing information processing (display image display enable/disable processing) by the CPU 12, as well as various programs for realizing the above-described telephone function, search function, and the like. The ROM 16 also stores parameters and the like necessary for executing various programs.

記憶部18は、不揮発性の書換可能なメモリで、CPU12で実現される書類作成機能で作成された作成書類の情報(作成書類データ)や撮影機能によりフロントカメラ22や背面カメラ等を用いて撮像された写真、通信部20を介して外部のサーバや他のスマートフォン等から取得した外部情報等(書類情報データや写真データ等)の表示情報18aを逐次保存および更新可能である。また、CPU12で実行可能な各種アプリケーション18bが記憶されている。なお、記憶部18に保存される情報(特に、表示情報18a)には、上述したように、基本的に、作成(取得)日時、作成(取得)場所の位置情報、作成(取得)時に接続されていたネットワーク名等の属性情報が紐付けられ、表示の可否を決定する際に利用可能である。なお、属性情報は、表示の可否決定の他、表示情報を管理する場合にも利用可能である。 The storage unit 18 is a non-volatile, rewritable memory, and includes information (created document data) of a document created by the document creation function realized by the CPU 12, and an image captured by the front camera 22, the rear camera, etc. by the shooting function. Display information 18a such as captured photos and external information (document information data, photo data, etc.) acquired from an external server or another smartphone via the communication unit 20 can be sequentially saved and updated. Various applications 18b that can be executed by the CPU 12 are also stored. As described above, the information stored in the storage unit 18 (in particular, the display information 18a) basically includes the creation (acquisition) date and time, the location information of the creation (acquisition) place, the Attribute information such as the network name that has been displayed is linked and can be used when deciding whether to display it. The attribute information can be used not only for deciding whether to display the information, but also for managing the display information.

通信部20は、CPU12で実行される各種機能にしたがい、外部の通信機器と通信を行う。例えば、通信部20は、ネットワークを介して、外部のサーバと通信を行い、希望する情報(書類データや画像データ、写真データ等)を取得する。また、通信部20は、情報処理装置10で作成した書類データや画像データ、写真データを外部の通信機器(例えば他のスマートフォン等)や外部サーバ等に送信する。なお、通信部20は、ネットワークと接続する際、無線LANの標準規格(WiFi(登録商標):WIreless FIdelity)のネットワーク名(例えば、アクセスポイント(AP)のSSID(Service Set Identifier)を取得する。そして、情報処理装置10は、取得した書類データや画像データ、写真データ等に添付する。また、情報処理装置10は、通信部20が取得したSSIDを、情報処理装置10で作成した書類データや画像データ、写真データ等に、作成時の位置情報の一つとして添付可能である。 The communication unit 20 communicates with external communication devices according to various functions executed by the CPU 12 . For example, the communication unit 20 communicates with an external server via a network to obtain desired information (document data, image data, photo data, etc.). The communication unit 20 also transmits document data, image data, and photo data created by the information processing apparatus 10 to an external communication device (such as another smartphone) or an external server. When connecting to a network, the communication unit 20 acquires a network name (for example, an SSID (Service Set Identifier) of an access point (AP)) of a wireless LAN standard (WiFi (registered trademark): Wireless Fidelity). Then, the information processing device 10 attaches it to the acquired document data, image data, photo data, etc. Further, the information processing device 10 attaches the SSID acquired by the communication unit 20 to the document data created by the information processing device 10 and It can be attached to image data, photograph data, etc. as one of position information at the time of creation.

フロントカメラ22は、表示装置26の一部(例えば上端部)に搭載されたカメラで、表示部26aのある側に位置し、主に情報処理装置10に対面している人物自身(表示部26aを覗き込んでいる人物自身)の撮影を行う。フロントカメラ22は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。フロントカメラ22は、所定のフレームレートで動画データ(撮像画像データ30)を出力し、人検出部12bに逐次提供する。また、CPU12で実現されているカメラ機能を用いて、フロントカメラ22から出力された撮像画像データ30を静止画像データや動画データとして記憶部18に保存することも可能である。なお、撮像画像データ30を記憶部18に保存する際には、上述したように、撮影位置や撮影日時等示す属性情報が紐付けられ保存される。図示を省略しているが、情報処理装置10は、フロントカメラ22とは別に、メインカメラ(スマートフォンの場合は、背面カメラ等)を備えてもよく、同様に、属性情報を有する静止画像データや動画データを記憶部18に保存するようにしてもよい。 The front camera 22 is a camera mounted on a part (for example, the upper end) of the display device 26, is positioned on the side of the display section 26a, and is mainly used by a person facing the information processing apparatus 10 (the display section 26a). The person looking into the camera) is photographed. The front camera 22 is, for example, a digital camera incorporating an imaging device such as a CCD (Charge Coupled Device) or CIS (CMOS image sensor). The front camera 22 outputs moving image data (captured image data 30) at a predetermined frame rate, and sequentially provides it to the human detection unit 12b. Further, it is also possible to store captured image data 30 output from the front camera 22 in the storage unit 18 as still image data or moving image data using the camera function realized by the CPU 12 . Note that when the captured image data 30 is stored in the storage unit 18, as described above, the attribute information indicating the shooting position, the shooting date and time, and the like is linked and stored. Although not shown, the information processing apparatus 10 may include a main camera (a rear camera or the like in the case of a smartphone) in addition to the front camera 22. Similarly, still image data having attribute information, You may make it preserve|save moving image data in the memory|storage part 18. FIG.

虹彩承認装置24は、フロントカメラ22と同様に、例えば、CCDやCIS等の撮像素子を内蔵するデジタルカメラで、所定のフレームレートで動画データ(撮像画像データ、画像情報)を出力する。虹彩承認装置24は、可視光域をカットするフィルタを備え、例えば、波長域が780nm~2500nmの近赤外域の画像を撮像する。虹彩承認装置24は、図示を省略した近赤外線照射部が照射する近赤外光が対象物、この場合、情報処理装置10を保持する人間(主に表示部26aを覗き込んでいる、表示部26aに対面している人物)の顔で反射した近赤外光に基づく画像を撮像する。虹彩承認装置24は、主に画像に含まれる人物の瞳Eの虹彩認証を行う場合にのみ、撮像を行う。したがって、近赤外線照射部も虹彩承認装置24が撮像を行うタイミングに合わせて、近赤外光を照射する。撮像された撮像画像データは、周知の技術を用いた認証処理が施される。そして、
情報処理装置10を覗き込んでいる人物(情報処理装置10を保持している人物、情報処理装置10に対面している人物)が、情報処理装置10の利用を許可された(登録された)正規のユーザであるか否かの判定が実行される。
Like the front camera 22, the iris recognition device 24 is, for example, a digital camera incorporating an imaging device such as a CCD or CIS, and outputs moving image data (captured image data, image information) at a predetermined frame rate. The iris recognition device 24 has a filter that cuts off the visible light range, and captures an image in the near-infrared range with a wavelength range of 780 nm to 2500 nm, for example. The iris recognition device 24 emits near-infrared light emitted by a near-infrared irradiation unit (not shown) to an object, in this case, a person holding the information processing device 10 (mainly a person looking into the display unit 26a, a display unit 26a, etc.). An image based on the near-infrared light reflected by the face of the person facing 26a is captured. The iris recognition device 24 captures an image only when performing iris recognition of the pupil E of a person mainly included in the image. Therefore, the near-infrared irradiation unit also irradiates near-infrared light at the timing when the iris recognition device 24 takes an image. The captured image data is subjected to authentication processing using a well-known technique. and,
A person looking into the information processing device 10 (a person holding the information processing device 10, a person facing the information processing device 10) is permitted to use the information processing device 10 (registered). A determination is made as to whether the user is authorized.

表示装置26は、表示部26aとタッチパネル26bとを含む。表示部26aは、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。また、表示部26aは、透明な操作入力部としてのタッチパネル26bで覆われている。操作者(利用者)は、タッチパネル26bを介して表示部26aの表示領域(表示画面)に表示される情報(例えば、記憶部18に記憶された表示情報としての画像データ32等)を視認することができる。また、操作者は、表示部26aの表示領域に表示される画像(表示情報、画像データ32)に対応した位置で手指等によりタッチパネル26bを触れたり押したり動かしたりして操作することで、操作入力を実行することができる。 The display device 26 includes a display section 26a and a touch panel 26b. The display unit 26a is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like. Further, the display section 26a is covered with a touch panel 26b as a transparent operation input section. An operator (user) visually recognizes information (for example, image data 32 as display information stored in the storage unit 18) displayed on the display area (display screen) of the display unit 26a via the touch panel 26b. be able to. Further, the operator touches, presses, or moves the touch panel 26b with a finger or the like at a position corresponding to the image (display information, image data 32) displayed in the display area of the display unit 26a, thereby performing an operation. Input can be performed.

位置検出部28は、例えば、GPS(Global Positioning System)信号を取得し、情報処理装置10が現在存在する位置の位置情報(例えば、緯度経度情報)を取得する。位置検出部28で、情報処理装置10の現在の位置情報を取得することにより、情報処理装置10のカメラ機能を用いて撮像した撮像画像データの取得位置情報や情報処理装置10の書類作成機能を用いて作成した作成書類データの作成位置情報を取得することができる。 The position detection unit 28 acquires, for example, a GPS (Global Positioning System) signal, and acquires position information (for example, latitude and longitude information) of the current position of the information processing device 10 . By acquiring the current position information of the information processing device 10 with the position detection unit 28, the acquisition position information of the captured image data captured using the camera function of the information processing device 10 and the document creation function of the information processing device 10 can be obtained. It is possible to acquire the creation position information of the created document data created using.

図2は、記憶部18に保存された、情報処理装置10で表示可能な表示情報を格納したフォルダ32Fが示されている。フォルダ32Fには、例えば、フロントカメラ22やメインカメラで撮像された静止画像データや動画データ等画像データ32(表示情報)が格納されている例を示している。 FIG. 2 shows a folder 32F storing display information that can be displayed on the information processing apparatus 10 and stored in the storage unit 18 . The folder 32F shows an example in which image data 32 (display information) such as still image data and moving image data captured by the front camera 22 or the main camera is stored.

図2の場合、フォルダ32Fには、例えば、静止画像の写真データとしての画像データ32a~32e(画像データ32)が格納されている。例えば、画像データ32aは、猫柄がプリントされたTシャツを着た人物34のアップ写真(猫柄のアップ写真)である。また、画像データ32bは、画像データ32aの画角違いの写真であり、人物34の顔が写り込んでいる写真である。画像データ32cは、他の人物36のスナップ写真である。画像データ32dは、猫38のスナップ写真であり、画像データ32eは、画像データ32dの撮像時とは異なるタイミングで猫38の表情を撮影した写真である。 In the case of FIG. 2, the folder 32F stores, for example, image data 32a to 32e (image data 32) as photographic data of still images. For example, the image data 32a is a close-up photograph of a person 34 wearing a T-shirt printed with a cat pattern (close-up photograph of a cat pattern). The image data 32b is a photograph with a different angle of view than the image data 32a, and is a photograph in which the face of the person 34 is included. The image data 32c is a snapshot of another person 36. FIG. The image data 32d is a snapshot of the cat 38, and the image data 32e is a photograph of the facial expression of the cat 38 taken at a timing different from that of the image data 32d.

また、各画像データ32(32a~32e)には、属性情報40として、例えば、撮影時の条件が付随する。各画像データ32(32a~32e)に対応して付随する属性情報40(40a~40e)は、例えば、位置検出部28によって取得される位置情報(GPS信号に基づく、緯度経度情報)、時間情報として、撮影日を示す日時および撮影時刻が示されている。また、情報処理装置10が使用された位置を示す他の位置情報として、SSIDが属性情報40として各画像データ32に付随される。SSIDは、情報処理装置10が使用された場所、つまり、画像データ32が取得(撮影)された場所で通信部20を介して、情報処理装置10がネットワークに接続されていた場合の、例えば、WiFiのアクセスポイント(AP)の位置を示す。なお、情報処理装置10がネットワークに接続されていない状態で使用された場合は、画像データ32cに対応する属性情報40cに示されるように、SSIDの欄はブランクとなる。 Further, each image data 32 (32a to 32e) is accompanied by, for example, conditions at the time of photographing as attribute information 40. FIG. The attribute information 40 (40a to 40e) associated with each image data 32 (32a to 32e) includes, for example, position information (latitude and longitude information based on GPS signals) acquired by the position detection unit 28, time information , the date and time indicating the shooting date and shooting time are shown. As other positional information indicating the position where the information processing device 10 is used, SSID is attached to each image data 32 as attribute information 40 . The SSID is used when the information processing device 10 is connected to the network via the communication unit 20 at the location where the information processing device 10 is used, that is, the location where the image data 32 is acquired (captured). Indicates the location of a WiFi access point (AP). When the information processing apparatus 10 is used without being connected to the network, the SSID column is blank as shown in the attribute information 40c corresponding to the image data 32c.

図2に示す例の場合、画像データ32a,32b,32d,32eの属性情報40の緯度経度情報がほぼ同じである。また、画像データ32a,32b,32d,32eの属性情報40のSSIDが同一である。したがって、画像データ32a,32b,32d,32eは、ほぼ同じ位置(例えば、人物34の自宅等)で人物34や人物34が飼っている猫38等を撮像した写真であることが推定できる。一方、画像データ32cは、緯度経度情報が画像データ32a,32b,32d,32eと異なり、SSIDが記録されていない。つまり、画像データ32cは、異なる位置(例えば、旅行先等)で撮像された写真であることが推定できる。したがって、後述する図3、図4を用いた例では、画像データ32cが、人物の入れ替わりが検出された際に非表示とされる例が示される。なお、図2では、情報処理装置10による表示情報(画像データ32)の表示可否処理が実行される場合の表示フラグ42の状態が併せて示されている。表示フラグ42の詳細は後述する。 In the example shown in FIG. 2, the latitude and longitude information of the attribute information 40 of the image data 32a, 32b, 32d, and 32e are substantially the same. Also, the SSIDs of the attribute information 40 of the image data 32a, 32b, 32d, and 32e are the same. Therefore, it can be estimated that the image data 32a, 32b, 32d, and 32e are photographs of the person 34, the cat 38 owned by the person 34, etc. taken at substantially the same position (for example, the person's 34 home). On the other hand, the image data 32c differs from the image data 32a, 32b, 32d, and 32e in latitude and longitude information, and the SSID is not recorded. That is, it can be estimated that the image data 32c are photographs taken at different locations (for example, travel destinations). Therefore, in the examples using FIGS. 3 and 4, which will be described later, an example in which the image data 32c is hidden when a change of persons is detected is shown. Note that FIG. 2 also shows the state of the display flag 42 when the display information (image data 32) display enable/disable process by the information processing apparatus 10 is executed. Details of the display flag 42 will be described later.

このように構成される情報処理装置10と、記憶部18に記憶されるフォルダ32F(画像データ32)および属性情報40と、を用いて実行される、表示情報の表示可否処理について、図3に示すシーン44a~44e(シーン44)および図4に示す表示例50を用いて説明する。つまり、情報処理装置10の表示装置26の表示部26a(表示領域)を臨む人物の入れ替わりが検出された際に、表示する表示情報(画像データ32)の属性情報40に基づいて表示情報(画像データ32)の表示の可否を決定する例を説明する。 FIG. 3 shows display information display enable/disable processing executed using the information processing apparatus 10 configured as described above and the folder 32F (image data 32) and the attribute information 40 stored in the storage unit 18. Scenes 44a to 44e (scene 44) shown and a display example 50 shown in FIG. That is, when the change of the person facing the display unit 26a (display area) of the display device 26 of the information processing device 10 is detected, the display information (image data 32) is displayed based on the attribute information 40 of the display information (image data 32) An example of determining whether or not to display data 32) will be described.

図3に示すシーン44a~44eは、情報処理装置10の正規利用者(例えば、虹彩(生体)認証済みの人物46)が情報処理装置10(例えばスマートフォン)を第三者(人物34)に渡し、情報処理装置10に表示される表示情報(画像データ32)を見せている場合を示す例示的かつ模式的な説明図である。 In scenes 44a to 44e shown in FIG. 3, an authorized user of the information processing device 10 (for example, a person 46 who has completed iris (biometric) authentication) passes the information processing device 10 (for example, a smartphone) to a third party (person 34). 4 is an exemplary and schematic explanatory diagram showing a case where display information (image data 32) displayed on the information processing apparatus 10 is shown; FIG.

シーン44aは、情報処理装置10の虹彩承認装置24による虹彩認証(生体認証)により、登録された情報処理装置10の正規利用者であることが認証された人物46が情報処理装置10の表示部26aを覗き込んでいる状態である。また、人物46の近くには、第三者であり虹彩承認装置24による生体認証で認証が否定される人物34(情報処理装置10の非登録者)が存在している。 In a scene 44a, a person 46 authenticated as a registered authorized user of the information processing device 10 by iris authentication (biometric authentication) by the iris authentication device 24 of the information processing device 10 appears on the display unit of the information processing device 10. It is in a state of looking into 26a. Also, near the person 46 , there is a person 34 (non-registered person of the information processing apparatus 10 ) who is a third party and whose authentication is denied by biometric authentication by the iris recognition device 24 .

シーン44aの場合、情報処理装置10の表示部26aを覗き込んでいる人物46は虹彩承認装置24による認証が肯定されているため、図4の表示例50aに示されるように、記憶部18に保存された表示情報(画像データ32)は何ら制限を受けることなく、閲覧することができる。この場合、例えば、表示部26aには、表示情報(画像データ32)が制限を受けることなく表示可能であることを示す、サムネイル表示領域52a(例えば表示部26aの下部)に、画像データ32a~32eに対応するサムネイルが表示されている。このとき、情報処理装置10は、人物46が人物34に閲覧させたくない旅行先の画像データ32c等も含めて全ての画像データ32の閲覧が可能である。表示例50aでは、表示部26aのメイン表示領域52bにサムネイル表示領域52aに表示されたサムネイルの中から例えば画像データ32cが拡大表示されている。 In the case of the scene 44a, since the person 46 looking into the display section 26a of the information processing device 10 has been affirmatively authenticated by the iris recognition device 24, as shown in the display example 50a of FIG. The stored display information (image data 32) can be browsed without any restrictions. In this case, for example, the image data 32a to 32e is displayed. At this time, the information processing apparatus 10 can browse all the image data 32 including the image data 32c of the travel destination that the person 46 does not want the person 34 to browse. In the display example 50a, for example, the image data 32c from among the thumbnails displayed in the thumbnail display area 52a is enlarged and displayed in the main display area 52b of the display section 26a.

続いて、シーン44bは、認証肯定者であり正規利用者である人物46が、認証否定者である人物34に、記憶部18に保存された画像データ32を閲覧させるために情報処理装置10を渡している状態である。また、シーン44cは、情報処理装置10を受け取った人物34が情報処理装置10の表示部26aを覗き込んでいる状態である。この場合、図4の表示例50bに示されるように、フロントカメラ22で撮像された人物34がメイン表示領域52bに表示され、メイン表示領域52bに表示可能な画像データ32のサムネイルが表示されている。この場合、情報処理装置10のフロントカメラ22の画角から人物46が外れ、新たに人物34が写り込むことになる。つまり、人検出部12bは、表示部26a(表示領域)を臨む人物が人物46から人物34に入れ替わったことを検出することになる。そして、表示制御部12cは、各画像データ32が有する属性情報40を参照して、非表示とする画像データ32を決定する。 Subsequently, in a scene 44b, a person 46 who is an authenticated and authorized user activates the information processing apparatus 10 to allow a person 34 who is an authenticated denyer to view the image data 32 stored in the storage unit 18. It is in a state of being handed over. A scene 44 c is a state in which the person 34 who received the information processing device 10 is looking into the display section 26 a of the information processing device 10 . In this case, as shown in a display example 50b of FIG. 4, a person 34 captured by the front camera 22 is displayed in the main display area 52b, and thumbnails of displayable image data 32 are displayed in the main display area 52b. there is In this case, the person 46 is out of the angle of view of the front camera 22 of the information processing device 10, and the person 34 is newly captured. That is, the person detection unit 12b detects that the person facing the display unit 26a (display area) has changed from the person 46 to the person 34. FIG. Then, the display control unit 12c refers to the attribute information 40 of each image data 32 and determines the image data 32 to be hidden.

例えば、認証肯定者である人物46が認証否定者である人物34に情報処理装置10を渡す直前に、人物34には見せたくない画像データ32c以外の画像データ32、例えば、人物34の自宅で撮影した画像データ32aを表示させ、人物34の自宅撮影の写真のみを人物34に閲覧させようとした場合を考える。この場合、上述したように、画像データ32cのみが旅行先等で撮影された写真であり、撮影場所の位置情報や撮影日が大きく異なる。また、画像データ32cに付随する属性情報40には、ネットワークへの接続を示すSSIDも記載されていない。そのため、表示制御部12cは、表示例50bに示されるように、画像データ32cを除く画像データ32a,32b,32d,32eのサムネイルを表示し、画像データ32cは非表示として、ブランクイメージ(B.I.)を示すサムネイル画像32fをサムネイル表示領域52aに表示する。 For example, immediately before the person 46 who is an authentication affirmer hands over the information processing apparatus 10 to the person 34 who is an authentication denial, image data 32 other than the image data 32c that the person 34 does not want to see, for example, at the person 34's home Consider a case where the photographed image data 32a is displayed and only the photograph taken by the person 34 at home is viewed by the person 34. FIG. In this case, as described above, only the image data 32c is a photograph taken at a travel destination or the like, and the position information of the photographing place and the photographing date are greatly different. The attribute information 40 associated with the image data 32c does not include an SSID indicating connection to a network. Therefore, the display control unit 12c displays the thumbnails of the image data 32a, 32b, 32d, and 32e excluding the image data 32c as shown in a display example 50b, hides the image data 32c, and displays a blank image (B. I.) is displayed in the thumbnail display area 52a.

シーン44dは、非表示であった画像データ32cを人物34に人物46の許可に基づき、表示させるために、人物46が情報処理装置10を受け取り虹彩承認装置24による瞳46aによる認証を行っている状態である。人物46は、認証が肯定された後、所定の操作を行うことにより、表示制御部12cによる画像データ32cの非表示処理の解除を実行する。ここで、所定の操作とは、例えば、パスコードの入力操作や、サムネイル画像32fの長押し操作、閲覧を許可する属性情報40の範囲(作成日時や作成場所(位置情報))の変更操作等である。 In the scene 44d, the person 46 receives the information processing device 10 and the iris recognition device 24 authenticates the image data 32c, which has been hidden, to the person 34 based on the permission of the person 46 with the pupil 46a. state. After the authentication is affirmed, the person 46 performs a predetermined operation to cancel the non-display processing of the image data 32c by the display control unit 12c. Here, the predetermined operation is, for example, a passcode input operation, a long press operation of the thumbnail image 32f, an operation of changing the range of the attribute information 40 that is permitted to be browsed (creation date and time and creation location (position information)), and the like. is.

シーン44eは、非表示処理が解除された情報処理装置10を人物34が受け取り、情報処理装置10の表示部26aを覗き込んでいる状態を示している。表示制御部12cによる非表示処理が解除されたことにより、人物34は、表示例シーン50cに示されるように、記憶部18に保存された表示情報(画像データ32)は何ら制限を受けることなく、閲覧可能になる。したがって、表示部26aのサムネイル表示領域52aには、表示情報(画像データ32)が制限を受けることなく表示可能であることを示す、画像データ32a~32eに対応するサムネイルが表示されている。すなわち、人物46が当初人物34に閲覧させたくないとして除外していた旅行先で人物36を撮影した画像データ32c等も含めた全ての画像データ32の閲覧が可能である。表示例シーン50cでは、表示部26aのメイン表示領域52bにサムネイル表示領域52aに表示されたサムネイルの中から例えば画像データ32cが拡大表示されている。なお、上述した例では、表示制御部12cは、画像データ32の閲覧を制限する(非表示にする)場合に、画像データ32cをサムネイル画像32fとして表示した。別の例では、サムネイル画像32fを非表示としてもよい。この場合、第三者である人物34に、非表示になっている画像データ32が存在することを認識されないようにすることが可能で、不自然なサムネイル表示を回避することができる。 A scene 44 e shows a state in which the person 34 receives the information processing device 10 whose non-display processing has been canceled and looks into the display section 26 a of the information processing device 10 . By canceling the non-display processing by the display control unit 12c, the person 34 can display the display information (image data 32) stored in the storage unit 18 without any restrictions, as shown in the display example scene 50c. , will be available for viewing. Therefore, thumbnails corresponding to the image data 32a to 32e are displayed in the thumbnail display area 52a of the display section 26a, indicating that the display information (image data 32) can be displayed without restriction. That is, it is possible to browse all the image data 32 including the image data 32c of the person 36 photographed at the travel destination that the person 46 did not want the person 34 to browse at first. In the display example scene 50c, for example, the image data 32c is enlarged and displayed from among the thumbnails displayed in the thumbnail display area 52a in the main display area 52b of the display unit 26a. In the example described above, the display control unit 12c displayed the image data 32c as the thumbnail image 32f when restricting viewing of the image data 32 (hidden). In another example, the thumbnail image 32f may be hidden. In this case, it is possible to prevent the person 34, who is a third party, from recognizing the presence of the hidden image data 32, thereby avoiding unnatural thumbnail display.

このように、情報処理装置10によれば、個々の表示情報(画像データ32)に個別に非表示等の設定を行う必要がなくなる。つまり、作業負担を増大させることなく、閲覧を意図しない表示情報を第三者に覗き見されることを容易に回避することができる。 As described above, according to the information processing apparatus 10, it is not necessary to perform settings such as non-display for each display information (image data 32). In other words, it is possible to easily prevent a third party from peeking at display information that is not intended to be viewed without increasing the work load.

なお、上述した例では、属性情報40として、人物46から人物34への入れ替わりが検出される前に、表示装置26に表示されていた第一の表示情報(例えば画像データ32a)の作成時に付加された第一の作成時位置情報と、人物の入れ替わりが検出された後に、表示装置26に表示され得る第二の表示情報(例えば画像データ32c)の作成時に付加された第二の作成時位置情報との比較結果に基づき、第二の表示情報(画像データ32c)の表示の可否を決定する例を示した。 In the above example, as the attribute information 40, it was added when creating the first display information (for example, the image data 32a) displayed on the display device 26 before the change from the person 46 to the person 34 was detected. and the second created position information added when creating the second display information (for example, the image data 32c) that can be displayed on the display device 26 after the person change is detected. An example is shown in which whether or not to display the second display information (image data 32c) is determined based on the result of comparison with the information.

表示制御部12cは、設定により他の属性情報40を利用した表示情報の非表示処理を行うことができる。例えば、表示制御部12cは、属性情報40としての表示情報(画像データ32や作成書類データ)の作成時に付加された作成時位置情報と、位置検出部28により取得される表示装置26の現在の位置を示す機器位置情報と、の比較結果に基づき、表示情報(画像データ32や作成書類データ)の表示の可否を決定してもよい。例えば、人物46が会社で作成した作成書類データを会社以外の場所、例えば、自宅や出張先等で閲覧したり、更新したりした場合を考える。この場合、自宅等で第三者が表示装置26を覗き込んだ場合、作成情報の属性情報40に含まれる会社の位置情報(作成位置情報)と、情報処理装置10が現在存在する位置情報(機器位置情報)とが異なる。その結果、表示制御部12cは、第三者が会社で作成した作成書類を覗き込もうとした時点で、表示装置26に表示中に作成書類を非表示にすることができる。したがって、個々の表示情報(画像データ32や作成書類データ)に個別に非表示設定を行う必要がなくなる。つまり、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避することができる。その結果、セキュリティ性の低い自宅や出張先等でも、容易に作成書類のセキュリティ性を向上することができる。 The display control unit 12c can perform non-display processing of display information using other attribute information 40 by setting. For example, the display control unit 12c controls the position information at the time of creation added when the display information (the image data 32 and the created document data) as the attribute information 40 is created, and the current position of the display device 26 acquired by the position detection unit 28. Whether or not to display the display information (the image data 32 and the created document data) may be determined based on the comparison result between the device position information indicating the position. For example, consider the case where the person 46 browses or updates the created document data created at the company at a place other than the company, for example, at home or on a business trip. In this case, when a third party looks into the display device 26 at home or the like, the location information (creation location information) of the company included in the attribute information 40 of the creation information and the location information (creation location information) where the information processing device 10 currently exists ( device location information). As a result, the display control unit 12c can hide the created document while it is being displayed on the display device 26 when a third party tries to look into the created document created by the company. Therefore, it is not necessary to individually set non-display for each piece of display information (image data 32 and created document data). In other words, it is possible to easily prevent information that is not intended for viewing from being peeped at by a third party without increasing the work load. As a result, the security of created documents can be easily improved even at home or on a business trip, where security is low.

また、別の例では、表示制御部12cは、属性情報40としての表示情報(画像データ32や作成書類データ)の作成時に付加された当該表示情報の作成装置(情報処理装置10)が接続された第一のネットワーク名(例えば、会社で接続可能なWiFiのアクセスポイントのSSID)と、表示装置(例えば情報処理装置10や自宅PC)が現在接続されている第二のネットワーク名(例えば、自宅で接続可能なWiFiのアクセスポイントのSSID)と、の比較結果に基づき、表示情報(画像データ32や作成書流データ等)の表示の可否を決定してもよい。この場合も、第三者が表示装置26を覗き込んだ場合、作成情報の属性情報40に含まれる会社の位置情報(第一のネットワーク名)と、情報処理装置10が現在存在する位置の位置情報(第二のネットワーク名)とが異なる。その結果、表示制御部12cは、第三者が会社で作成した作成書類を覗き込もうとした時点で、表示装置26に表示中に作成書類を非表示にすることができる。したがって、個々の表示情報(画像データ32や作成書類データ)に個別に非表示設定を行う必要がなくなる。つまり、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避することができる。その結果、セキュリティ性の低い自宅や出張先等でも、容易に作成書類のセキュリティ性を向上することができる。なお、位置情報(緯度経度情報)が同じであっても、情報処理装置10が接続されるネットワーク名が異なる場合がある。例えば、マンションやビル等では、自宅と近隣の部屋やロビーでは、実質的に緯度経度情報が同じでも、接続されているネットワーク名が異なる場合がある。このような場合、属性情報40として同じ位置情報を有していても、他の属性情報であるネットワーク名が異なるため、自宅で作成した表示情報(画像データ32や作成書類データ)を近隣の自宅以外の場所で覗き見されることが回避可能となり,セキュリティ性の向上やプライバシー保護強化に寄与できる。 In another example, the display control unit 12c is connected to the display information creation device (information processing device 10) added when the display information (image data 32 or created document data) as the attribute information 40 is created. The first network name (for example, the SSID of a WiFi access point that can be connected at work) and the second network name (for example, home (SSID of a Wi-Fi access point that can be connected to the Internet), and whether or not to display the display information (image data 32, created writing style data, etc.) may be determined based on the comparison result. In this case as well, when a third party looks into the display device 26, the location information of the company (first network name) included in the attribute information 40 of the creation information and the location of the current location of the information processing device 10 Information (second network name) is different. As a result, the display control unit 12c can hide the created document while it is being displayed on the display device 26 when a third party tries to look into the created document created by the company. Therefore, it is not necessary to individually set non-display for each piece of display information (image data 32 and created document data). In other words, it is possible to easily prevent information that is not intended for viewing from being peeped at by a third party without increasing the work load. As a result, the security of created documents can be easily improved even at home or on a business trip, where security is low. Even if the position information (latitude and longitude information) is the same, the network name to which the information processing apparatus 10 is connected may be different. For example, in a condominium or building, even if the latitude and longitude information is substantially the same between one's home and neighboring rooms or lobbies, the connected network names may differ. In such a case, even if the attribute information 40 has the same location information, the network name, which is another attribute information, is different. This makes it possible to avoid prying eyes in places other than this, contributing to improved security and enhanced privacy protection.

また、別の例では、表示制御部12cは、属性情報40として、人物の入れ替わりが検出される前に、表示装置26に表示されていた第一の表示情報(例えば画像データ32a)の作成時に付加された第一の時間情報(作成日付や作成時間等)と、人物の入れ替わりが検出された後に、表示装置26に表示され得る第二の表示情報の作成時に付加された第二の時間情報(作成日付や作成時間等)との比較結果に基づき、表示情報(画像データ32や作成書流データ等)の表示の可否を決定してもよい。この場合も、第三者が表示装置26を覗き込んだ場合、作成情報の属性情報40に含まれる時間情報(第一の時間情報)と、情報処理装置10が表示装置26に現在表示し得る第二の表示情報(例えば画像データ32c)の作成時に付加された第二の時間情報(作成日付や作成時間等)とが異なる。その結果、表示制御部12cは、第三者が表示装置26を覗き込もうとした時点で第二の表時情報(例えば、画像データ32c)を非表示とすることができる。したがって、個々の表示情報(画像データ32)に個別に非表示設定を行う必要がなくなる。つまり、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避することができる。その結果、セキュリティ性の低い自宅や出張先等でも、容易に作成書類のセキュリティ性を向上することができる。 In another example, the display control unit 12c generates the first display information (for example, the image data 32a) displayed on the display device 26 as the attribute information 40 before the replacement of the person is detected. Added first time information (date of creation, time of creation, etc.) and second time information added at the time of creation of second display information that can be displayed on the display device 26 after detection of a person change Whether or not to display the display information (the image data 32, the writing style data, etc.) may be determined based on the result of comparison with (date of creation, time of creation, etc.). Also in this case, when a third party looks into the display device 26, the time information (first time information) included in the attribute information 40 of the created information and the information that the information processing device 10 can currently display on the display device 26 It differs from the second time information (creation date, creation time, etc.) added when the second display information (for example, the image data 32c) was created. As a result, the display control unit 12c can hide the second time information (for example, the image data 32c) when a third person tries to look into the display device 26. FIG. Therefore, it is not necessary to individually set non-display for each piece of display information (image data 32). In other words, it is possible to easily prevent information that is not intended for viewing from being peeped at by a third party without increasing the work load. As a result, the security of created documents can be easily improved even at home or on a business trip, where security is low.

また、別の例では、表示制御部12cは、属性情報40として、人物の入れ替わりが検出された後に、検出された人物の顔画像情報と、表示装置26に表示され得る表示情報としての人物画像(例えば画像データ32等)に含まれる顔画像情報との比較結果に基づき、人物画像の表示の可否を決定してもよい。例えば、情報処理装置10の認証肯定者(正規利用者)である人物46から認証否定者である人物34に入れ替わった後に検出された人物34の顔画像情報と、表示装置26に表示され得る表示情報としての人物画像(例えば画像データ32等)に含まれる顔画像情報とが一致しない場合、その顔画像情報が含まれる画像データ32を非表示とする。逆に、人物34の顔画像情報と一致する人物画像が含まれる画像データ32が存在する場合、その画像データ32の表示は許可される。つまり、人物34自身が写っている場合は、閲覧を許可される。このように、表示制御部12cは、第三者が表示装置26を覗き込もうとした時点で、対象となる画像データ32に人物34が写っていない場合非表示にすることができる。その結果、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避することができる。つまり、セキュリティ性やプライバシー保護の向上を容易に行うことができる。 In another example, the display control unit 12c controls, as the attribute information 40, the face image information of the detected person after detecting the replacement of the person, and the person image as display information that can be displayed on the display device 26. Whether or not to display a person image may be determined based on the result of comparison with face image information included in (for example, the image data 32 or the like). For example, the face image information of the person 34 detected after the person 46 who is the authenticated person (authorized user) of the information processing apparatus 10 is replaced by the person 34 who is the authenticated person, and the display that can be displayed on the display device 26 When the face image information included in the person image (for example, image data 32) as information does not match, the image data 32 including the face image information is not displayed. Conversely, if there is image data 32 containing a person image that matches face image information of person 34, display of that image data 32 is permitted. In other words, when the person 34 himself is shown, viewing is permitted. In this manner, the display control unit 12c can hide the person 34 if the person 34 is not shown in the target image data 32 when the third person tries to look into the display device 26 . As a result, it is possible to easily prevent information that is not intended for viewing from being peeped at by a third party without increasing the work load. That is, it is possible to easily improve security and privacy protection.

なお、上述した例では、表示情報として、例えば、画像データ32や作成書類データ等を非表示とする場合を示した。さらに他の例では、人物の入れ替わりが検出されたときに、表示装置26で実行状態を表示可能なアプリケーションによる実行結果を非表示としてもよい。例えば、情報処理装置10を第三者に渡しているときに、メール等のアプリケーションがメール受信を行った場合、メールの発信者やプレビュー画面の内容が第三者に見られてしまう場合がある。そこで、表示情報としてアプリケーションの属性情報に基づき、実行結果を非表示にすることで、アプリケーションの実行結果の漏洩を回避することができる。この場合も、作業負担を増大させることなく、閲覧を意図しない情報を第三者に覗き見されることを容易に回避することができる。その結果、セキュリティ性やプライバシー保護の向上を容易に行うことができる。 In the above example, the display information, for example, the image data 32 and the prepared document data are not displayed. In yet another example, the execution result of an application capable of displaying the execution state on the display device 26 may not be displayed when a person change is detected. For example, if an application such as e-mail receives an e-mail while the information processing apparatus 10 is handed over to a third party, the sender of the e-mail and the content of the preview screen may be seen by the third party. . Therefore, by hiding the execution result as display information based on the attribute information of the application, it is possible to avoid leakage of the execution result of the application. In this case as well, it is possible to easily prevent information that is not intended for viewing from being peeped at by a third party without increasing the work load. As a result, it is possible to easily improve security and privacy protection.

なお、実施形態の人検出部12bは、表示部26a(表示領域)を臨む人物の顔画像情報の変化に基づき人物の入れ替わりを検出するため、生体(虹彩)認証等を行って人物の入れ替わりを判定する場合に比べ、処理負荷が軽減可能で、容易に人物の入れ替わりを検出することができる。 Note that the person detection unit 12b of the embodiment detects a change of person based on a change in the face image information of the person facing the display unit 26a (display area). Compared to the case of determination, the processing load can be reduced, and it is possible to easily detect the replacement of persons.

図5~図7のフローチャートは、情報処理装置10による表示情報の非表示処理の流れの一例である。 The flowcharts of FIGS. 5 to 7 are examples of the flow of non-display processing of display information by the information processing apparatus 10. FIG.

図5は、フロントカメラ22による人物の入れ替わりを検出する際の処理を示すフローチャートである。人検出部12bは、常時フロントカメラ22により顔検出を行いつつ、一時的にそのデータを保存している。そこで、人検出部12bは、人物の入れ替わり検出が必要な状態、すなわち、虹彩承認装置24による虹彩認証が実行され、正規利用者による情報処理装置10の使用が確認できた状態で、人物の入れ替わりの監視が必要になった場合、まずフロントカメラ22で撮像している顔検出データの記憶領域である顔検出テーブルをクリアする(S100)。すなわち、前回処理周期(生体認証前の処理周期)で残っていた顔検出データを一度リセットする。また、同時に、最新の更新済みの顔検出テーブルを取得する(S102)。なお、生体認証後、最初の処理周期の場合、顔検出データはクリア済みなので存在しない。したがって、最初の処理では、例えば、虹彩承認装置24で取得した認証済みの顔検出データを更新済み顔検出テーブルに書き込み取得する。 FIG. 5 is a flow chart showing processing when the front camera 22 detects a change of persons. The human detection unit 12b constantly detects faces using the front camera 22 and temporarily stores the data. Therefore, the person detection unit 12b detects a person change in a state where it is necessary to detect a person change, that is, in a state where iris authentication by the iris authentication device 24 has been executed and use of the information processing device 10 by an authorized user has been confirmed. is required, first, the face detection table, which is a storage area for face detection data captured by the front camera 22, is cleared (S100). That is, the face detection data remaining in the previous processing cycle (processing cycle before biometric authentication) is once reset. At the same time, the latest updated face detection table is acquired (S102). In the case of the first processing cycle after biometric authentication, the face detection data has already been cleared and does not exist. Therefore, in the first process, for example, the authenticated face detection data acquired by the iris recognition device 24 is written and acquired in the updated face detection table.

続いて、人検出部12bは、人物の入れ替わり検出のための顔検出をフロントカメラ22で実行する(S104)。そして、S104で検出された顔検出データ(単数もしくは複数)が、S102で取得した顔検出テーブルの顔検出データと一致するか確認する(S106)。もし、顔検出データが一致した場合(S106のYes)、つまり、S104で検出された顔検出データは、認証済みの顔検出データと一致した場合であり、人物の入れ替わりはないと判定できる。したがって、人物の入れ替わり検出サービスの終了(例えば情報処理装置10の利用終了)が通知されない場合(S108のNo)、S102の処理に戻り、S102以降の処理を実行し、人物の入れ替わり検出処理を継続する。また、顔検出サービスの終了が通知された場合(S108のYes)、例えば、情報処理装置10の使用が終了された場合、このフローを一旦終了する。 Subsequently, the person detection unit 12b performs face detection for detecting the replacement of persons with the front camera 22 (S104). Then, it is confirmed whether the face detection data (single or plural) detected in S104 matches the face detection data in the face detection table acquired in S102 (S106). If the face detection data match (Yes in S106), that is, the face detection data detected in S104 matches the authenticated face detection data, and it can be determined that the person has not been replaced. Therefore, when the completion of the person replacement detection service (for example, the end of use of the information processing apparatus 10) is not notified (No in S108), the process returns to S102, the processes after S102 are executed, and the person replacement detection process is continued. do. Also, when the termination of the face detection service is notified (Yes in S108), for example, when the use of the information processing apparatus 10 is terminated, this flow is once terminated.

S106の処理で、顔検出データが一致しない場合(S106のNo)、直近に検出した顔検出データで顔検出テーブルを更新する(S110)。つまり、承認が肯定された人物以外の顔検出データで顔検出テーブルを更新する。この顔検出テーブルは、次の処理周期で、S102の処理で取得される。また、このとき、虹彩承認装置24で虹彩認証(生体認証)を行った時刻情報をクリアする(S112)。つまり、情報処理装置10を利用する人物(表示部26aを覗き込んでいる人物)が入れ替わったことが検出できる。その後、認証を無効にしてS108に移行して、顔検出サービスの終了が通知されるまで、人物の入れ替わりを検出する処理を実行する。 In the process of S106, if the face detection data do not match (No in S106), the face detection table is updated with the most recently detected face detection data (S110). In other words, the face detection table is updated with face detection data other than the person whose approval has been affirmed. This face detection table is acquired in the processing of S102 in the next processing cycle. Also, at this time, the time information when the iris authentication (biometric authentication) was performed by the iris authentication device 24 is cleared (S112). In other words, it can be detected that the person using the information processing apparatus 10 (the person looking into the display section 26a) has changed. Thereafter, the authentication is invalidated, the process proceeds to S108, and the process of detecting the replacement of persons is executed until the termination of the face detection service is notified.

次に、図6のフローチャートを用いて、特定の表示情報(画像データ32や作成書類データ等)が表示可能か否かチェックを行う処理の流れの一例を説明する。 Next, an example of the flow of processing for checking whether or not specific display information (image data 32, created document data, etc.) can be displayed will be described with reference to the flowchart of FIG.

表示制御部12cは、まず、全ての表示情報(画像データ32や作成書類データ等)の表示フラグ42(図2参照)をONにする(S200)。つまり、一旦全ての表示情報を閲覧可能にする。続いて、表示制御部12cは、現在のタイミングが、直近の生体認証(虹彩認証)からの経過時間が、規定時間(生体認証の有効期間)以内か確認する(S202)。経過時間が規定時間以内の場合(S202のYes)、表示情報に位置情報やWiFiのAP情報が含まれているか否か確認する(S204)。表示情報に位置情報やWiFiのAP情報が含まれている場合(S204のYes)、表示制御部12cは、表示情報の位置情報やWiFiのAP情報と、現在位置の位置情報とが一致すると見なせるか確認する(S206)。S206において、位置情報が一致すると見なせる場合(S206のYes)、一旦このフローを終了する。つまり、全ての表示情報を閲覧可能とする状態を維持する。 The display control unit 12c first turns on the display flags 42 (see FIG. 2) of all display information (image data 32, created document data, etc.) (S200). In other words, once all display information is made available for viewing. Subsequently, the display control unit 12c checks whether the current timing is within a specified time (valid period of biometric authentication) since the last biometric authentication (iris authentication) (S202). If the elapsed time is within the specified time (Yes in S202), it is checked whether the display information includes location information and WiFi AP information (S204). If the display information includes location information or WiFi AP information (Yes in S204), the display control unit 12c can assume that the location information or WiFi AP information of the display information matches the location information of the current location. (S206). In S206, if the position information can be considered to match (Yes in S206), this flow is temporarily terminated. In other words, the state in which all the display information can be browsed is maintained.

S202の処理において、直近の生体認証(虹彩認証)からの経過時間が規定時間以内を超えた場合(S202のNo)、表示情報(画像データ32や作成書類データ等)の表示フラグ42をOFFにする(S208)。つまり、全ての表示情報を非表示として閲覧不能にして、このフローを一旦終了する。同様に、S204の処理において、表示情報に位置情報やWiFiのAP情報が含まれていない場合(S204のNo)、位置情報やWiFiのAP情報が含まれていない表示情報(画像データ32や作成書類データ等)の表示フラグ42をOFFにする(S208)。つまり、位置情報による判定精度が低下する可能性がある場合、特定の表示情報を非表示として閲覧不能にして、このフローを一旦終了する。また、S206の処理において、位置情報が一致するとは見なせない場合(S206のNo)、位置情報が一致するとは見なせない表示情報(画像データ32や作成書類データ等)の表示フラグ42をOFFにする(S208)。つまり、表示情報を作成時とは異なる位置で閲覧しようとしていると見なし、該当する特定の表示情報を非表示として閲覧不能にして、このフローを一旦終了するにする。 In the process of S202, if the elapsed time from the most recent biometric authentication (iris authentication) exceeds the specified time (No in S202), the display flag 42 of the display information (image data 32, created document data, etc.) is turned OFF. (S208). In other words, all display information is made non-display so that it cannot be browsed, and this flow is terminated once. Similarly, in the processing of S204, if the display information does not include the position information or the WiFi AP information (No in S204), the display information (the image data 32 or the created document data, etc.) is turned off (S208). In other words, if there is a possibility that the determination accuracy based on the position information will be lowered, the specific display information is hidden so that it cannot be browsed, and this flow is once terminated. In the process of S206, if the position information cannot be considered to match (No in S206), the display flag 42 of the display information (image data 32, created document data, etc.) that cannot be considered to match the position information is turned OFF. (S208). In other words, it is assumed that the display information is to be viewed at a position different from that at the time of creation, the corresponding specific display information is hidden so that it cannot be viewed, and this flow is temporarily terminated.

次に、図7のフローチャートを用いて、特定の画像データ32が表示可能か否かチェックを行う処理の流れの一例を説明する。 Next, an example of the flow of processing for checking whether or not specific image data 32 can be displayed will be described with reference to the flowchart of FIG.

表示制御部12cは、まず、全ての表示情報(画像データ32)の表示フラグ42(図2参照)をONにする(S300)。つまり、一旦全ての表示情報を閲覧可能にする。続いて、表示制御部12cは、現在のタイミングが、直近の生体認証(虹彩認証)からの経過時間が、規定時間(生体認証の有効期間)以内か確認する(S302)。経過時間が規定時間以内の場合(S302のYes)、表示情報に位置情報やWiFiのAP情報が含まれているか否か確認する(S304)。表示情報に位置情報やWiFiのAP情報が含まれている場合(S304のYes)、表示制御部12cは、表示情報の位置情報やWiFiのAP情報と、直前に表示していた表示情報の位置情報やWiFiのAP情報とが近いか否か(所定範囲内か否か)判定する(S306)。表示情報の位置情報やWiFiのAP情報と、直前に表示していた表示情報の位置情報やWiFiのAP情報とが近い場合(S3306のYes)、表示制御部12cは、フロントカメラ22で認識できた顔画像データ(複数可)が全ての表示情報内に検出できるか否か確認する(S308)。フロントカメラ22で認識できた顔画像データ(人物の顔画像データ)が全ての表示情報内に検出できた場合(S308のYes)、一旦このフローを終了する。つまり、全ての表示情報(画像データ32)を閲覧可能とする状態を維持する。 The display control unit 12c first turns on the display flags 42 (see FIG. 2) of all display information (image data 32) (S300). In other words, once all display information is made available for viewing. Subsequently, the display control unit 12c checks whether the current timing is within a specified time (valid period of biometric authentication) after the latest biometric authentication (iris authentication) (S302). If the elapsed time is within the specified time (Yes in S302), it is checked whether the display information includes location information and WiFi AP information (S304). If the display information includes location information and WiFi AP information (Yes in S304), the display control unit 12c controls the location information and WiFi AP information of the display information and the location of the previously displayed display information. It is determined whether the information and the WiFi AP information are close (whether within a predetermined range) (S306). If the position information of the display information or the WiFi AP information is close to the position information of the display information or the WiFi AP information that was displayed immediately before (Yes in S3306), the display control unit 12c can be recognized by the front camera 22. It is checked whether or not the face image data (a plurality of data) can be detected in all the display information (S308). When the face image data (person's face image data) recognized by the front camera 22 can be detected in all the display information (Yes in S308), this flow is once terminated. That is, a state is maintained in which all display information (image data 32) can be browsed.

S302の処理において、直近の生体認証(虹彩認証)からの経過時間が規定時間以内を超えた場合(S302のNo)、表示情報(画像データ32)の表示フラグ42をOFFにする(S310)。つまり、全ての表示情報(画像データ32)を非表示として閲覧不能にして、このフローを一旦終了する。同様に、S304の処理において、表示情報に位置情報やWiFiのAP情報が含まれていない場合(S304のNo)、位置情報やWiFiのAP情報が含まれていない表示情報(画像データ32)の表示フラグ42をOFFにする(S310)。つまり、位置情報による判定精度が低下する可能性がある場合、該当する特定の表示情報を非表示として閲覧不能にして、このフローを一旦終了する。また、S306の処理において、位置情報が近いとは見なせない場合(S306のNo)、位置情報が近いとは見なせない表示情報(画像データ32)の表示フラグ42をOFFにする(S310)。つまり、表示情報の作成位置とは異なる位置で閲覧されようとしていると見なし、該当する特定の表示情報を非表示として閲覧不能にして、このフローを一旦終了するにする。また、S308の処理において、フロントカメラ22で認識できた顔画像データが表示情報(画像データ32)内に検出できない場合(S308のNo)、一致する顔画像データが存在しない表示情報(画像データ32)の表示フラグ42をOFFにする(S310)。つまり、特定の表示情報を非表示として閲覧不能にして、このフローを一旦終了する。 In the processing of S302, if the elapsed time from the most recent biometric authentication (iris authentication) exceeds the specified time (No in S302), the display flag 42 of the display information (image data 32) is turned OFF (S310). In other words, all the display information (image data 32) is hidden so that it cannot be browsed, and this flow is temporarily terminated. Similarly, in the process of S304, if the display information does not include the location information or the WiFi AP information (No in S304), the display information (image data 32) that does not include the location information or the WiFi AP information The display flag 42 is turned off (S310). In other words, if there is a possibility that the determination accuracy based on the position information will be lowered, the corresponding specific display information is hidden so that it cannot be browsed, and this flow is temporarily terminated. Further, in the process of S306, if the position information cannot be regarded as close (No in S306), the display flag 42 of the display information (image data 32) whose position information cannot be regarded as close is turned OFF (S310). . In other words, it is assumed that the display information is about to be browsed at a position different from the position where the display information was created, and the corresponding specific display information is hidden so that it cannot be browsed, and this flow is temporarily terminated. In addition, in the process of S308, if the face image data recognized by the front camera 22 cannot be detected in the display information (image data 32) (No in S308), the display information (image data 32) that does not have matching face image data ) is turned off (S310). In other words, the specific display information is made invisible so that it cannot be browsed, and this flow is temporarily terminated.

このように、本実施形態の情報処理装置10によれば、表示装置26の表示領域を臨む人物の入れ替わりが検出された場合、表示情報(画像データ32や作成書類データ等)の属性情報40に基づき、表示の可否を決定するため、各表示情報に対して事前に個別の設定を行う必要がなく、第三者に見られたくない、表示情報の非表示を容易に行うことができる。 As described above, according to the information processing apparatus 10 of the present embodiment, when the change of the person facing the display area of the display device 26 is detected, the attribute information 40 of the display information (image data 32, created document data, etc.) Therefore, it is not necessary to individually set each display information in advance, and it is possible to easily hide the display information, which is not desired to be seen by a third party.

本実施形態の情報処理装置10(CPU12)で実行される非表示のための情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The information processing program for non-display executed by the information processing apparatus 10 (CPU 12) of the present embodiment is an installable or executable file on a CD-ROM, a flexible disk (FD), or a CD-R. , DVD (Digital Versatile Disk) or other computer-readable recording medium.

さらに、情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the information processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the information processing program executed in this embodiment may be configured to be provided or distributed via a network such as the Internet.

なお、上述した実施形態では、情報処理装置10がスマートフォンである場合を示した。別の実施形態では、据え置き型のデスクトップコンピュータ、可搬型のノート型のパーソナルコンピュータ、タブレット端末、表示画面を備える携帯電話等の情報表示が可能な処理装置であれば、本実施形態の構成が適用可能であり、上述した実施形態と同様の効果を得ることができる。 In addition, in the embodiment described above, the case where the information processing device 10 is a smart phone is shown. In another embodiment, the configuration of this embodiment is applied to any processing device capable of displaying information, such as a stationary desktop computer, a portable notebook personal computer, a tablet terminal, or a mobile phone with a display screen. It is possible, and the same effect as the embodiment described above can be obtained.

また、上述した実施形態では、フロントカメラ22が撮像した顔画像データに基づき人検出部12bが人物の入れ替わりの発生の有無を判定する例を示した。他の実施形態では、例えば、フロントカメラ22に代えて、表示部26aの周辺に配置したレーダーや、マウスやキーボードに配置した近接センサ等他の検出方式を用いて、入れ替わりの有無を判定してもよく、同様の効果を得ることができる。 Further, in the above-described embodiment, the example in which the person detection unit 12b determines whether or not the person has been replaced based on the face image data captured by the front camera 22 has been described. In another embodiment, for example, in place of the front camera 22, other detection methods such as a radar arranged around the display unit 26a or a proximity sensor arranged on a mouse or keyboard are used to determine whether or not there is a replacement. well, you can get the same effect.

また、本実施形態では、情報処理装置10の表示部26aを直接覗き込まれた場合に表示情報の表示の可否を決定する例を示した。他の例では,例えば、テレビ会議システム等で表示情報の共有が行われる場合、人検出部12bが、他の人物の参加を検出した場合、情報処理装置10に表示されている表示情報の属性情報に基づき、表示の可否を決定するようにしてもよく、本実施形態と同様の効果を得ることができる。 Further, in the present embodiment, an example of determining whether or not to display display information when the display unit 26a of the information processing apparatus 10 is directly looked into has been shown. In another example, for example, when display information is shared in a video conference system or the like, when the person detection unit 12b detects the participation of another person, the attribute of the display information displayed on the information processing device 10 Whether or not to display may be determined based on the information, and the same effects as in the present embodiment can be obtained.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments and variations of the invention have been described, these embodiments and variations are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

10…情報処理装置、12…CPU、12a…取得部、12b…人検出部、12c…表示制御部、16a…情報処理プログラム、22…フロントカメラ、24…虹彩承認装置、26…表示装置、26a…表示部、26b…タッチパネル、28…位置検出部、40…属性情報。 DESCRIPTION OF SYMBOLS 10... Information processing apparatus 12... CPU 12a... Acquisition part 12b... Human detection part 12c... Display control part 16a... Information processing program 22... Front camera 24... Iris recognition apparatus 26... Display device 26a ... display section, 26b ... touch panel, 28 ... position detection section, 40 ... attribute information.

Claims (9)

表示装置の表示領域に表示可能な表示情報と前記表示情報に付随する属性情報とを取得する取得部と、
前記表示領域に前記表示情報が表示される場合に、前記表示領域を臨む人物を検出する人検出部と、
前記表示領域を臨む前記人物の入れ替わりが検出された際に、前記属性情報に基づいて前記表示情報の表示の可否を決定する表示制御部と、
を備える、情報処理装置。
an acquisition unit that acquires display information that can be displayed in a display area of a display device and attribute information that accompanies the display information;
a person detection unit that detects a person facing the display area when the display information is displayed in the display area;
a display control unit that determines whether or not to display the display information based on the attribute information when the replacement of the person facing the display area is detected;
An information processing device.
前記表示制御部は、前記属性情報としての前記表示情報の作成時に付加された作成時位置情報と、前記表示装置の現在の位置を示す機器位置情報と、の比較結果に基づき、前記表示情報の表示の可否を決定する、請求項1に記載の情報処理装置。 The display control unit controls the display information based on a comparison result between position information at the time of creation added when the display information as the attribute information is created and device position information indicating the current position of the display device. 2. The information processing apparatus according to claim 1, which decides whether or not to display. 前記表示制御部は、前記属性情報としての前記表示情報の作成時に付加された前記表示情報の作成装置が接続された第一のネットワーク名と、前記表示装置が現在接続されている第二のネットワーク名と、の比較結果に基づき、前記表示情報の表示の可否を決定する、請求項1または請求項2に記載の情報処理装置。 The display control unit controls a first network name to which the display information creation device is connected, which is added when the display information as the attribute information is created, and a second network to which the display device is currently connected. 3. The information processing apparatus according to claim 1, wherein whether or not to display the display information is determined based on a comparison result between the first name and the first name. 前記表示制御部は、前記属性情報として、前記人物の入れ替わりが検出される前に、前記表示装置に表示されていた第一の表示情報の作成時に付加された第一の作成時位置情報と、前記人物の入れ替わりが検出された後に、前記表示装置に表示され得る第二の表示情報の作成時に付加された第二の作成時位置情報との比較結果に基づき、前記第二の表示情報の表示の可否を決定する、請求項1に記載の情報処理装置。 The display control unit uses, as the attribute information, first created position information added when creating the first display information displayed on the display device before the replacement of the person was detected, and Display of the second display information based on a result of comparison with the second position information at the time of creation added at the time of creation of the second display information that can be displayed on the display device after the replacement of the person is detected. 2. The information processing apparatus according to claim 1, which determines whether or not to allow. 前記表示制御部は、前記属性情報として、前記人物の入れ替わりが検出される前に、前記表示装置に表示されていた第一の表示情報の作成時に付加された第一の時間情報と、前記人物の入れ替わりが検出された後に、前記表示装置に表示され得る第二の表示情報の作成時に付加された第二の時間情報との比較結果に基づき、前記第二の表示情報の表示の可否を決定する、請求項1または請求項4に記載の情報処理装置。 The display control unit uses, as the attribute information, first time information added when creating first display information displayed on the display device before the change of the person was detected, and the person After the replacement of the second display information is detected, based on the result of comparison with the second time information added when creating the second display information that can be displayed on the display device, determine whether to display the second display information The information processing apparatus according to claim 1 or 4, wherein 前記表示制御部は、前記人物の入れ替わりが検出された後に、検出された前記人物の顔画像情報と、前記表示装置に表示され得る表示情報としての人物画像に含まれる顔画像情報との比較結果に基づき、前記人物画像の表示の可否を決定する、請求項1から請求項5のいずれか1項に記載の情報処理装置。 After the replacement of the person is detected, the display control unit compares the face image information of the detected person with the face image information included in the person image as display information that can be displayed on the display device. 6. The information processing apparatus according to any one of claims 1 to 5, wherein whether or not to display the person image is determined based on. 前記人検出部は、前記表示領域を臨む人物の顔画像情報の変化に基づき前記人物の入れ替わりを検出する、請求項1から請求項6のいずれか1項に記載の情報処理装置。 7. The information processing apparatus according to any one of claims 1 to 6, wherein said person detection unit detects replacement of said person based on a change in face image information of a person facing said display area. 前記表示情報は、前記表示装置で実行状態を表示可能なアプリケーションを含む、請求項1から請求項7のいずれか1項に記載の情報処理装置。 8. The information processing apparatus according to any one of claims 1 to 7, wherein said display information includes an application whose execution state can be displayed on said display device. 表示装置の表示領域に表示可能な表示情報と前記表示情報に付随する属性情報とを取得する取得処理と、
前記表示領域に前記表示情報が表示される場合に、前記表示領域を臨む人物を検出する人検出処理と、
前記表示領域を臨む前記人物の入れ替わりが検出された際に、前記属性情報に基づいて前記表示情報の表示の可否を決定する表示制御処理と、
を、情報処理装置に実行させる、情報処理プログラム。
Acquisition processing for acquiring display information that can be displayed in a display area of a display device and attribute information accompanying the display information;
a person detection process for detecting a person facing the display area when the display information is displayed in the display area;
a display control process for determining whether or not to display the display information based on the attribute information when the replacement of the person facing the display area is detected;
An information processing program that causes an information processing device to execute.
JP2021085650A 2021-05-20 2021-05-20 Information processing apparatus and information processing program Pending JP2022178687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021085650A JP2022178687A (en) 2021-05-20 2021-05-20 Information processing apparatus and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021085650A JP2022178687A (en) 2021-05-20 2021-05-20 Information processing apparatus and information processing program

Publications (1)

Publication Number Publication Date
JP2022178687A true JP2022178687A (en) 2022-12-02

Family

ID=84239698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021085650A Pending JP2022178687A (en) 2021-05-20 2021-05-20 Information processing apparatus and information processing program

Country Status (1)

Country Link
JP (1) JP2022178687A (en)

Similar Documents

Publication Publication Date Title
US10599300B2 (en) Entry points to image-related applications in a mobile device
EP3179408B1 (en) Picture processing method and apparatus, computer program and recording medium
US9911002B2 (en) Method of modifying image including photographing restricted element, and device and system for performing the method
KR102094509B1 (en) Method of modifying image including photographing restricted element, device and system for performing the same
US10165178B2 (en) Image file management system and imaging device with tag information in a communication network
WO2016024173A1 (en) Image processing apparatus and method, and electronic device
KR20160011612A (en) Method and device for locking file
US20130243273A1 (en) Image publishing device, image publishing method, image publishing system, and program
WO2016192325A1 (en) Method and device for processing logo on video file
US11004163B2 (en) Terminal-implemented method, server-implemented method and terminal for acquiring certification document
US20170339287A1 (en) Image transmission method and apparatus
CN112040145B (en) Image processing method and device and electronic equipment
CN105979062B (en) Communication event processing method and device
US9086723B2 (en) Image processing apparatus and control method for determining and associating private information with an image
JP5880946B2 (en) Image processing apparatus, terminal apparatus, image processing method, and program
JP6428152B2 (en) Portrait right protection program, information communication device, and portrait right protection method
EP3445077B1 (en) Unlocking mobile terminal in augmented reality
JP2022178687A (en) Information processing apparatus and information processing program
CN106528197B (en) Shooting method and device
JP5891828B2 (en) Mobile terminal, photographed image disclosure method, program
JP2024076619A (en) VIDEO MANAGEMENT DEVICE, VIDEO MANAGEMENT SYSTEM, TERMINAL DEVICE USED IN THIS VIDEO MANAGEMENT SYSTEM, VIDEO MANAGEMENT METHOD, AND VIDEO MANAGEMENT PROGRAM
CN115967854A (en) Photographing method and device and electronic equipment
JP2018191075A (en) Image processing apparatus, control method of the same, and program
KR20120066770A (en) Processing method of personal information for mobile phone