JP2022133036A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2022133036A
JP2022133036A JP2021031841A JP2021031841A JP2022133036A JP 2022133036 A JP2022133036 A JP 2022133036A JP 2021031841 A JP2021031841 A JP 2021031841A JP 2021031841 A JP2021031841 A JP 2021031841A JP 2022133036 A JP2022133036 A JP 2022133036A
Authority
JP
Japan
Prior art keywords
image
user
data
risk
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021031841A
Other languages
Japanese (ja)
Other versions
JP7275175B2 (en
Inventor
久人 寛司
Hisato Kanji
さゆり 黒須
Sayuri Kurosu
卓 菊池
Taku Kikuchi
昌貴 後藤
Masataka Goto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2021031841A priority Critical patent/JP7275175B2/en
Publication of JP2022133036A publication Critical patent/JP2022133036A/en
Application granted granted Critical
Publication of JP7275175B2 publication Critical patent/JP7275175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To appropriately specify a risk that personal information on a user may be inferred from an image.SOLUTION: An extraction section 22 extracts an image object from image data included in posted data acquired by a data acquisition section 21. Further, the extraction section 22 classifies a plurality of image objects extracted from the image data and additional data added to the image data into categories to which the respective image objects or the additional data belong. A selection section 23 selects any of a plurality of specification methods for specifying risks that personal data on users may be inferred from the image objects and additional data. According to the specification method selected by the selection section 23, a specification section 25 specifies a risk that the personal information on a user may be inferred from the image object or additional data extracted by the extraction section 22. A processing section 26 executes processing according to the risk specified by the specification section 25.SELECTED DRAWING: Figure 3

Description

本発明は、個人情報の保護のための技術に関する。 The present invention relates to technology for protecting personal information.

近年はSNS(Social Networking Service)と呼ばれるサービスが普及しているが、このSNSによって共有される画像などからユーザのプライバシーに関わる個人情報が推測されるおそれが指摘されている。そこで、例えば特許文献1には、画像データからオブジェクトを抽出し、抽出したオブジェクトから、オブジェクトの信頼度に応じて人物の顔、名前、住所等の特徴部分を抽出し、抽出された特徴部分に対してモザイク等の処理を行うことで、プライバシーを保護した動画を生成する仕組みが開示されている。 In recent years, a service called SNS (Social Networking Service) has been widely used, and it has been pointed out that personal information related to user's privacy may be inferred from images and the like shared by the SNS. Therefore, for example, in Patent Document 1, an object is extracted from image data, a characteristic portion such as a person's face, name, address, etc. is extracted from the extracted object according to the reliability of the object, and the extracted characteristic portion On the other hand, a mechanism for generating a moving image with privacy protection by performing processing such as mosaic is disclosed.

特開2010-268055号公報JP 2010-268055 A

ユーザの個人情報が画像から推測されるリスクは様々な状況に応じて変わり得る。そこで、本発明は、ユーザの個人情報が画像から推測されるリスクを適切に特定することを目的とする。 The risk of a user's personal information being inferred from an image can vary depending on various circumstances. SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to appropriately identify a risk that a user's personal information may be inferred from an image.

上記課題を解決するため、本発明は、画像データから画像オブジェクトを抽出する抽出部と、画像オブジェクトからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する選択部と、選択された前記特定方法に従い、抽出された前記画像オブジェクトからユーザの個人情報が推測されるリスクを特定する特定部とを備えることを特徴とする情報処理装置を提供する。 In order to solve the above problems, the present invention provides an extraction unit for extracting an image object from image data, and a selection method for selecting one of a plurality of identification methods for identifying the risk of inferring personal information of a user from the image object. and a specifying unit that specifies a risk that a user's personal information is inferred from the extracted image object according to the selected specifying method.

この構成によれば、複数の特定方法のうち選択された特定方法に従い、画像オブジェクトからユーザの個人情報が推測されるリスクが特定される。 According to this configuration, the risk of the user's personal information being inferred from the image object is specified according to the specifying method selected from among the plurality of specifying methods.

本発明によれば、ユーザの個人情報が画像から推測されるリスクを適切に特定することができる。 According to the present invention, it is possible to appropriately identify the risk that a user's personal information is inferred from an image.

本発明の一実施形態に係る情報処理システム1の構成の一例を示す図である。It is a figure showing an example of composition of information processing system 1 concerning one embodiment of the present invention. 同実施形態に係るサーバ装置20のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server apparatus 20 which concerns on the same embodiment. 同実施形態に係るサーバ装置20の機能構成を示す図である。It is a figure which shows the functional structure of the server apparatus 20 which concerns on the same embodiment. 同実施形態における投稿の内容を例示する図である。It is a figure which illustrates the content of the contribution in the same embodiment. 同実施形態に係るサーバ装置20によって記憶されるデータを例示する図である。It is a figure which illustrates the data memorize|stored by the server apparatus 20 which concerns on the same embodiment. 同実施形態に係るサーバ装置20によって記憶されるデータを例示する図である。It is a figure which illustrates the data memorize|stored by the server apparatus 20 which concerns on the same embodiment. 同実施形態に係るサーバ装置20によって記憶されるデータを例示する図である。It is a figure which illustrates the data memorize|stored by the server apparatus 20 which concerns on the same embodiment. 同実施形態に係るサーバ装置20の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the server device 20 according to the embodiment;

[構成]
図1は、本実施形態に係る情報処理システム1の一例を示す図である。図1に示すように、情報処理システム1は、複数のユーザが通信端末としてそれぞれ利用する複数(図1では3つ)のユーザ端末10と、本発明に係る情報処置装置の一例として機能するサーバ装置20と、これらを通信可能に接続する無線通信網又は有線通信網を含むネットワーク2とを備えている。ネットワーク2は、例えばLTE(Long Term Evolution)又は5G(5th generation mobile communication system)などに準拠した無線通信網や、例えばLAN(Local Area Network)、WAN(Wide Area Network)、公衆交換通信網(PSTN:Public Switched Telephone Networks)、サービス統合デジタル網(ISDN:Integrated Services Digital Network)又はインターネットなどの有線通信網を含んでもよい。
[Constitution]
FIG. 1 is a diagram showing an example of an information processing system 1 according to this embodiment. As shown in FIG. 1, an information processing system 1 includes a plurality of (three in FIG. 1) user terminals 10 used by a plurality of users as communication terminals, and a server functioning as an example of an information processing apparatus according to the present invention. It comprises a device 20 and a network 2 including a wireless communication network or a wired communication network for communicably connecting them. The network 2 is, for example, a wireless communication network conforming to LTE (Long Term Evolution) or 5G (5th generation mobile communication system), for example, LAN (Local Area Network), WAN (Wide Area Network), public switched communication network (PSTN (Public Switched Telephone Networks), Integrated Services Digital Network (ISDN), or wired communication networks such as the Internet.

本実施形態において、サーバ装置20は、SNS(Social Networking Service)を提供するSNS機能と、このSNSによって投稿されたデータ(以下、投稿データという)を共有するユーザ間において各ユーザのプライバシーにかかわる個人情報が推測されるリスクを特定し、そのリスクに応じた処理を行う個人情報保護機能とを備えている。ただし、本発明において情報処置装置の一例として機能するサーバ装置20においては、個人情報保護機能が必須の機能であり、SNS機能は必ずしも備えていなくてもよい。この場合、個人情報保護機能を備えたサーバ装置は、SNS機能を備えたSNS装置と通信可能に接続されており、SNS装置が記憶する投稿データを取得することができるようになっている。サーバ装置20は、ユーザ端末10にネットワーク2を介した通信サービスを提供する通信事業者によって管理されていてもよいが、これに限定されない。サーバ装置20は、単体のコンピュータで実現されてもよいし、複数のコンピュータの集合体によって実現されてもよい。 In the present embodiment, the server device 20 provides an SNS (Social Networking Service) function, and an individual user who is concerned with the privacy of each user among users who share data posted by this SNS (hereinafter referred to as posted data). It also has a personal information protection function that identifies the risk of information being guessed and performs processing according to that risk. However, in the server device 20 functioning as an example of the information processing device in the present invention, the personal information protection function is an essential function, and the SNS function does not necessarily have to be provided. In this case, the server device having the personal information protection function is communicably connected to the SNS device having the SNS function, and can acquire post data stored in the SNS device. The server device 20 may be managed by a telecommunications carrier that provides communication services via the network 2 to the user terminals 10, but is not limited to this. The server device 20 may be realized by a single computer, or may be realized by an aggregation of a plurality of computers.

ユーザ端末10は、例えばスマートホン、ウェアラブル端末、タブレット又はパーソナルコンピュータなどの、無線又は有線を介してネットワーク2に接続可能なコンピュータである。各ユーザは自身のユーザ端末10を用いて、サーバ装置20が提供するSNS機能を利用することができる。各ユーザがSNS機能を利用して投稿した投稿データはサーバ装置20に記憶され、他のユーザと共有される、つまり他のユーザによって参照可能になっている。このため、特に投稿データの共有範囲が第3者にまで広く設定されているような場合、投稿データからユーザのプライバシーに関わる個人情報が推測されるおそれがある。 The user terminal 10 is a computer, such as a smart phone, wearable terminal, tablet, or personal computer, which can be connected to the network 2 wirelessly or by wire. Each user can use the SNS function provided by the server device 20 using his/her own user terminal 10 . Posted data posted by each user using the SNS function is stored in the server device 20 and shared with other users, that is, can be referred to by other users. For this reason, especially when the sharing range of the posted data is set to include a third party, there is a risk that personal information related to the user's privacy may be inferred from the posted data.

図2は、サーバ装置20のハードウェア構成を示す図である。サーバ装置20は、物理的には、プロセッサ2001、メモリ2002、ストレージ2003、通信装置2004及びこれらを接続するバスなどを含むコンピュータとして構成されている。これらの各装置は図示せぬ電源から供給される電力によって動作する。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ装置20のハードウェア構成は、図2に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。また、それぞれ筐体が異なる複数の装置が通信接続されて、サーバ装置20を構成してもよい。 FIG. 2 is a diagram showing the hardware configuration of the server device 20. As shown in FIG. The server device 20 is physically configured as a computer including a processor 2001, a memory 2002, a storage 2003, a communication device 2004, and a bus connecting them. Each of these devices operates with power supplied from a power source (not shown). Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the server device 20 may be configured to include one or more of the devices shown in FIG. 2, or may be configured without some of the devices. Further, the server device 20 may be configured by connecting a plurality of devices having different housings for communication.

サーバ装置20における各機能は、プロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ2001が演算を行い、通信装置2004による通信を制御したり、メモリ2002及びストレージ2003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function in the server apparatus 20 is performed by causing the processor 2001 to perform calculations, controlling communication by the communication apparatus 2004, and controlling the and by controlling at least one of reading and writing data in the storage 2003 .

プロセッサ2001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ2001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。また、例えばベースバンド信号処理部や呼処理部などがプロセッサ2001によって実現されてもよい。 The processor 2001, for example, operates an operating system and controls the entire computer. The processor 2001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. Also, for example, a baseband signal processing unit, a call processing unit, and the like may be implemented by the processor 2001 .

プロセッサ2001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ2003及び通信装置2004の少なくとも一方からメモリ2002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、後述する動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。サーバ装置20の機能ブロックは、メモリ2002に格納され、プロセッサ2001において動作する制御プログラムによって実現されてもよい。各種の処理は、1つのプロセッサ2001によって実行されてもよいが、2以上のプロセッサ2001により同時又は逐次に実行されてもよい。プロセッサ2001は、1以上のチップによって実装されてもよい。なお、プログラムは、ネットワーク2経由でサーバ装置20に送信されてもよい。 The processor 2001 reads programs (program codes), software modules, data, etc. from at least one of the storage 2003 and the communication device 2004 to the memory 2002, and executes various processes according to them. As the program, a program that causes a computer to execute at least part of the operations described below is used. The functional blocks of server device 20 may be implemented by a control program stored in memory 2002 and running on processor 2001 . Various processes may be executed by one processor 2001, but may also be executed by two or more processors 2001 simultaneously or sequentially. Processor 2001 may be implemented by one or more chips. Note that the program may be transmitted to the server device 20 via the network 2 .

メモリ2002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ2002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ2002は、本実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 2002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 2002 may also be called a register, cache, main memory (main storage device), or the like. The memory 2002 can store executable programs (program code), software modules, etc. to perform the methods of the present invention.

ストレージ2003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ2003は、補助記憶装置と呼ばれてもよい。 The storage 2003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 2003 may also be called an auxiliary storage device.

通信装置2004は、ネットワーク2を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 2004 is hardware (transmitting/receiving device) for communicating between computers via the network 2, and is also called a network device, a network controller, a network card, a communication module, or the like.

プロセッサ2001、メモリ2002などの各装置は、情報を通信するためのバスによって接続される。バスは、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。また、サーバ装置20は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ2001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Each device such as processor 2001 and memory 2002 is connected by a bus for communicating information. The bus may be configured using a single bus, or may be configured using different buses between devices. The server device 20 also includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). may be configured, and a part or all of each functional block may be realized by the hardware. For example, processor 2001 may be implemented using at least one of these pieces of hardware.

なお、サーバ装置20は、外部からの入力を受け付ける入力デバイス(例えば、キー、スイッチ、ボタン等の各種の入力インターフェース)や、外部への出力を実施する出力デバイス(例えば、ディスプレイ、LEDランプ等の各種の出力インターフェース)を備えていてもよい。 The server device 20 includes an input device (for example, various input interfaces such as keys, switches, and buttons) that receives input from the outside, and an output device that outputs to the outside (for example, a display, an LED lamp, etc.). various output interfaces).

図3は、サーバ装置20の機能構成を示すブロック図である。サーバ装置20において上記の各ハードウェアが連携することによって、データ取得部21、抽出部22、選択部23、記憶部24、特定部25、処理部26、及び出力部27という機能が実現される。 FIG. 3 is a block diagram showing the functional configuration of the server device 20. As shown in FIG. Functions of the data acquisition unit 21, the extraction unit 22, the selection unit 23, the storage unit 24, the identification unit 25, the processing unit 26, and the output unit 27 are realized by the cooperation of the above hardware in the server device 20. .

データ取得部21は、各種データを取得する。このデータは、例えばSNS機能によってサーバ装置20に記憶された投稿データである。投稿データは、ユーザがユーザ端末10のカメラで撮像するなどして生成された画像データと、その画像データに対して付加されたテキストデータや投稿日時データ等の付加データとを含む。テキストデータはユーザがユーザ端末10の操作UIを用いて入力したデータである。投稿日時データは、サーバ装置20により付与されたタイムスタンプに相当するデータである。 The data acquisition unit 21 acquires various data. This data is posted data stored in the server device 20 by the SNS function, for example. The posted data includes image data generated by the user capturing an image with the camera of the user terminal 10, and additional data such as text data and posted date/time data added to the image data. The text data is data input by the user using the operation UI of the user terminal 10 . The posting date and time data is data corresponding to the time stamp given by the server device 20 .

ここで、図4は、ユーザによる投稿の内容を例示する図である。図4では、投稿データに応じてユーザ端末10に表示された画像100を図示している。この画像100には、例えば何らかの物体の画像オブジェクト101と、人物の画像オブジェクト102とが含まれている。また、画像100には、付加データである投稿日時103と、投稿者たるユーザにより入力された付加データであるコメント104も含まれている。 Here, FIG. 4 is a diagram exemplifying the content of a post by a user. FIG. 4 shows an image 100 displayed on the user terminal 10 according to the posted data. This image 100 includes, for example, an image object 101 of some physical object and an image object 102 of a person. The image 100 also includes a posted date and time 103 as additional data and a comment 104 as additional data input by the user who posted the image.

図5は、サーバ装置20のストレージ2003によって実現される記憶部24に記憶された投稿データを例示する図である。図に示すように、各ユーザを識別するユーザIDに対応付けて、そのユーザが投稿データを投稿した日時を表す投稿日時データ及びその投稿データ(画像データ、付加データ)が記憶されている。なお、SNS機能に関してサーバ装置20のストレージ2003に記憶されるデータは、図5の例示に限定されず、例えば各ユーザの属性や、各投稿データに対する、投稿者以外のユーザからのコメントデータなどが含まれていてもよい。 FIG. 5 is a diagram illustrating post data stored in storage unit 24 realized by storage 2003 of server device 20. As shown in FIG. As shown in the figure, posting date and time data representing the date and time when the user posted the posted data and the posted data (image data, additional data) are stored in association with the user ID that identifies each user. Note that the data stored in the storage 2003 of the server device 20 regarding the SNS function is not limited to the example shown in FIG. may be included.

図3の説明に戻り、抽出部22は、データ取得部21により取得された投稿データに含まれる画像データから画像オブジェクトを抽出する。ここでいう画像オブジェクトとは、例えば人間の顔を表すオブジェクト、人間が着る服を表すオブジェクト、人間や場所の名前や名称を表すオブジェクトなど、予め決められた画像オブジェクトである。画像データからこれらの画像オブジェクトを抽出する技術としては、例えば機械学習を用いた画像認識の分野において周知のアルゴリズムを用いればよい。 Returning to the description of FIG. 3 , the extraction unit 22 extracts an image object from the image data included in the posted data acquired by the data acquisition unit 21 . The image object referred to here is a predetermined image object such as an object representing a human face, an object representing clothes worn by a human, an object representing a name or name of a person or a place, and the like. As a technique for extracting these image objects from image data, for example, well-known algorithms in the field of image recognition using machine learning may be used.

さらに、抽出部22は、画像データから抽出された複数の画像オブジェクト、及びその画像データに付加されている付加データを、各々の画像オブジェクト又は付加データが属するカテゴリに分類する。ここでいうカテゴリは、人物に関するカテゴリ(以下、whoカテゴリという)、場所に関するカテゴリ(以下、whereカテゴリという)、又は、日時に関するカテゴリ(以下、whenカテゴリという)を含む。 Further, the extraction unit 22 classifies the plurality of image objects extracted from the image data and the additional data added to the image data into categories to which each image object or additional data belongs. The category here includes a category related to person (hereinafter referred to as who category), a category related to place (hereinafter referred to as where category), or a category related to date and time (hereinafter referred to as when category).

ここで図6は、各カテゴリに属する画像オブジェクト及び付加データを定義したデータベースを例示する図である。このデータベースは、サーバ装置20のストレージ2003によって実現される記憶部24に記憶されている。図6に例示するように、whoカテゴリに属する画像オブジェクトは、投稿データを投稿したユーザが誰であるかを第3者が推測するのに用いられる可能性がある画像オブジェクトであり、例えば人間の顔を表す顔画像オブジェクト、人間が着る制服を表す制服画像オブジェクト、人間や組織の名前を表す名前画像オブジェクトなどである。whereカテゴリに属する画像オブジェクトは、投稿データを投稿したユーザがどこに存在しているのかを第3者が推測するのに用いられる可能性がある画像オブジェクトであり、例えば施設や設備の外観を表す施設/設備画像オブジェクト、住所や場所の名称を表す住所/名称画像オブジェクト、イベントの様子を表すイベント画像オブジェクト、景色を表す景色画像オブジェクト、天気の様子を表す天気画像オブジェクトなどである。whenカテゴリに属する画像オブジェクトは、投稿データを投稿したユーザがいつ存在しているのかを第3者が推測するのに用いられる可能性がある画像オブジェクトであり、例えば何らかの物体の影の画像を表す影画像オブジェクト、時計を表す時計画像オブジェクトなどである。どのような画像オブジェクトがどのカテゴリに属するかを判定する技術については、例えば機械学習を用いた画像認識の分野において周知のアルゴリズムを用いればよい。 Here, FIG. 6 is a diagram illustrating a database defining image objects and additional data belonging to each category. This database is stored in the storage unit 24 implemented by the storage 2003 of the server device 20 . As illustrated in FIG. 6, image objects belonging to the who category are image objects that may be used by a third party to guess who the user who posted the posted data is. They include a face image object representing a face, a uniform image object representing a uniform worn by a person, a name image object representing the name of a person or an organization, and the like. An image object belonging to the where category is an image object that may be used by a third party to guess where the user who posted the posted data is located. They are a /facility image object, an address/name image object representing an address or place name, an event image object representing an event, a scenery image object representing scenery, and a weather image object representing weather conditions. An image object belonging to the when category is an image object that may be used by a third party to guess when the user who posted the posted data exists. For example, it represents an image of the shadow of some object. Examples include a shadow image object and a clock image object representing a clock. As a technique for determining which image object belongs to which category, for example, a well-known algorithm in the field of image recognition using machine learning may be used.

また、付加データについても画像オブジェクトと同様の考え方に従い、whoカテゴリに属する付加データは、人間の名前を表すデータなどであり、whereカテゴリに属する付加データは、場所を表す場所データなどであり、whenカテゴリに属する付加データは、日時を表す日時データなどである。どのような付加データがどのカテゴリに属するかを判定する技術については、例えば構文解析や意味解析の分野において周知のアルゴリズムを用いればよい。 The additional data also follows the same concept as the image object. Additional data belonging to the who category is data representing a person's name, and additional data belonging to the where category is location data representing a place. Additional data belonging to the category is date and time data representing date and time. As a technique for determining what kind of additional data belongs to which category, for example, a well-known algorithm in the fields of syntactic analysis and semantic analysis may be used.

図3の説明に戻り、選択部23は、画像オブジェクト及び付加データからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する。より具体的には、選択部23は、ユーザの個人情報が推測されることによって生じる可能性がある迷惑行為に応じて特定方法を選択する。ここでいう迷惑行為とは、例えばつきまとい、ストーカー(現実世界におけるストーカー及びネットワーク上のつきまといを含む)、詐欺、窃盗、強盗などである。ユーザがどの迷惑行為を防止したいかということはそのユーザによりユーザ端末10を用いて入力され、サーバ装置20に通知される。つまり、選択部23は、ユーザの指定に従って特定方法を選択することになる。 Returning to the description of FIG. 3, the selection unit 23 selects one of a plurality of identification methods for identifying the risk of inferring the user's personal information from the image object and the additional data. More specifically, the selection unit 23 selects an identification method according to a nuisance that may occur due to guessing of the user's personal information. The nuisance here is, for example, stalking, stalking (including stalking in the real world and stalking on the network), fraud, theft, robbery, and the like. The user inputs which nuisance behavior the user wants to prevent using the user terminal 10 and notifies the server device 20 of the input. That is, the selection unit 23 selects the identification method according to the user's designation.

ここで図7は、迷惑行為ごとのリスクの特定方法を定義したデータベースを例示する図である。このデータベースは、サーバ装置20のストレージ2003によって実現される記憶部24に記憶されている。図7の例示では、例えばつきまとい又はストーカーという迷惑行為については、whoカテゴリのみに属する画像オブジェクト又は付加データが投稿データに含まれる場合はユーザの個人情報が推測されるリスクが低く、whenカテゴリのみに属する画像オブジェクト又は付加データが投稿データに含まれる場合はリスクが低く、whereカテゴリのみに属する画像オブジェクト又は付加データが投稿データに含まれる場合はユーザの個人情報が推測されるリスクが中程度であり、whoカテゴリに属する画像オブジェクト又は付加データ、及び、whenカテゴリに属する画像オブジェクト又は付加データが投稿データに含まれる場合はリスクが高く、whenカテゴリに属する画像オブジェクト又は付加データ、及び、whereカテゴリに属する画像オブジェクト又は付加データが投稿データに含まれる場合はリスクが低く、whoカテゴリに属する画像オブジェクト又は付加データ、及び、whereカテゴリに属する画像オブジェクト又は付加データが投稿データに含まれる場合はリスクが高く、whoカテゴリに属する画像オブジェクト又は付加データ、whenカテゴリに属する画像オブジェクト又は付加データ及び、及び、whereカテゴリに属する画像オブジェクト又は付加データが投稿データに含まれる場合はリスクが高い。 Here, FIG. 7 is a diagram illustrating a database that defines a method of identifying risks for each nuisance. This database is stored in the storage unit 24 implemented by the storage 2003 of the server device 20 . In the example of FIG. 7, for example, with respect to harassment such as stalking or stalking, if the posted data includes an image object or additional data belonging only to the who category, the risk of guessing the user's personal information is low. If the posted data contains an image object or additional data belonging to the where category, the risk is low. If the posted data contains an image object or additional data that belongs only to the where category, the risk of guessing the user's personal information is medium. , If an image object or additional data belonging to the who category and an image object or additional data belonging to the when category are included in the posted data, the risk is high, and an image object or additional data belonging to the when category and an image object or additional data belonging to the where category The risk is low when image objects or additional data are included in the posted data, and the risk is high when image objects or additional data belonging to the who category and image objects or additional data belonging to the where category are included in the posted data. The risk is high if the posted data includes an image object or additional data belonging to the who category, an image object or additional data belonging to the when category, and an image object or additional data belonging to the where category.

上記の例示は、つきまとい又はストーカーという迷惑行為においては、ユーザが誰であるか、ユーザがどこに居るか、ユーザがいつ居るか、ということがそれぞれ単独で推測されたとしてもその迷惑行為が発生するリスクは小さいが、これらのユーザが誰であるか、ユーザがどこに居るか、ユーザがいつ居るか、という情報が複数組み合わせられることで、個人情報が推測されるリスクが高くなり、その結果、つきまとい又はストーカーという迷惑行為が発生する可能性が高くなるという考え方に基づいている。ただし、これらのユーザが誰であるか、ユーザがどこに居るか、ユーザがいつ居るか、という情報が複数組み合わせられた場合であっても、ユーザがどこに居るか及びユーザがいつ居るかという情報が組み合わせられた場合は、ユーザが誰であるか及びユーザがいつ居るかという情報が組み合わせられた場合や、ユーザが誰であるか及びユーザがどこに居るかという情報が組み合わせられた場合よりも、個人情報が推測されるリスクは低く、その結果、つきまとい又はストーカーという迷惑行為が発生する可能性も低い。なお、図7の内容は単なる例示であり、迷惑行為ごとのリスクの特定方法は自由に定義し得る。 In the above example, in the nuisance behavior of stalking or stalking, the nuisance behavior occurs even if it is independently guessed who the user is, where the user is, and when the user is. The risk is small, but the combination of multiple pieces of information about who these users are, where they are, and when they are, increases the risk that personal information can be inferred, resulting in stalking. Or it is based on the idea that the possibility of nuisance behavior such as stalking will increase. However, even if multiple pieces of information about who the user is, where the user is, and when the user is, the information about where the user is and when the user is When combined, it is more personal than the combined information of who the user is and when the user is, or the combined information of who the user is and where the user is. The risk of information being inferred is low, and as a result, the nuisance of stalking or stalking is also low. Note that the content of FIG. 7 is merely an example, and the method of identifying the risk for each nuisance can be freely defined.

このように、図7に例示したデータベースには、画像オブジェクト又は付加データが属するカテゴリの組み合わせごとに、ユーザの個人情報が推測されるリスクに関する情報が登録されている。選択部23は、迷惑行為として例えばつきまとい又はストーカーを防止したい場合には、図7の最上段に例示されたリスクの特定方法を選択するし、また、迷惑行為として例えば窃盗又は強盗を防止したい場合には、図7の最下段に例示されたリスクの特定方法を選択する。 In this way, in the database illustrated in FIG. 7, information regarding the risk of guessing the user's personal information is registered for each combination of categories to which image objects or additional data belong. The selection unit 23 selects the risk identification method exemplified at the top of FIG. 7 when, for example, stalking or stalking is to be prevented as a nuisance, and when it is desired to prevent, for example, theft or robbery as a nuisance. , select the risk identification method exemplified at the bottom of FIG.

図3の説明に戻り、特定部25は、選択部23により選択された特定方法に従い、抽出部22により抽出された画像オブジェクト又は付加データからユーザの個人情報が推測されるリスクを特定する。より具体的には、特定部25は、図に例示したデータベースに基づいて、画像データから抽出された複数の画像オブジェクト及び画像データに対して付加されている付加データの組み合わせに応じて、これらの画像オブジェクト及び付加データからユーザの個人情報が推測されるリスクを特定する。 Returning to the description of FIG. 3 , the specifying unit 25 specifies the risk of guessing the user's personal information from the image object or additional data extracted by the extracting unit 22 according to the specifying method selected by the selecting unit 23 . More specifically, the identification unit 25 selects a plurality of image objects extracted from the image data and additional data added to the image data, based on the database illustrated in the drawing, in accordance with the combination of these image objects. Identify the risk that the user's personal information is inferred from the image object and additional data.

処理部26は、特定部25により特定されたリスクに応じた処理を行う。この処理部26が行う処理は、抽出部22により抽出された画像オブジェクトに対して、特定部25により特定されたリスクに応じた画像処理を行うこと、又は、特定部25により特定されたリスクに応じた情報をユーザに報知する報知処理を行うことを含む。抽出部22により抽出された画像オブジェクトに対するリスクに応じた画像処理とは、リスクが一定レベル(例えばリスク中)以上の場合は、例えばその画像オブジェクトの解像度を下げることで、いわゆる画像をぼかすようなぼかし処理や、その画像オブジェクトを非表示にする非表示処理とか、その画像オブジェクトを他の画像オブジェクトに置換する置換処理などである。また、リスクが大きいほど、例えばその画像オブジェクトの解像度を小さくしたりしてもよい。また、特定部25により特定されたリスクに応じた情報をユーザに報知する報知処理とは、画像オブジェクト又は付加データにより個人情報が推測されるおそれがあることをユーザに報知するメッセージをユーザ端末10において表示する処理などである。出力部27は、処理部26により処理された結果を含むデータを出力する。 The processing unit 26 performs processing according to the risks specified by the specifying unit 25 . The processing performed by the processing unit 26 is to perform image processing on the image object extracted by the extraction unit 22 according to the risk specified by the specifying unit 25, or to perform image processing according to the risk specified by the specifying unit 25. It includes performing notification processing for notifying the user of the information in response. The image processing corresponding to the risk of the image object extracted by the extracting unit 22 means that when the risk is at a certain level (for example, medium risk) or higher, the resolution of the image object is lowered, for example, so that the image is blurred. Blur processing, non-display processing for hiding the image object, replacement processing for replacing the image object with another image object, and the like. Also, the higher the risk, the lower the resolution of the image object, for example. Further, the notification process for notifying the user of information corresponding to the risk identified by the identifying unit 25 means that a message is sent to the user terminal 10 to notify the user that personal information may be guessed from the image object or additional data. , and the like. The output unit 27 outputs data including results processed by the processing unit 26 .

[動作]
次に、図8を参照して、情報処理システム1の動作について説明する。なお、以下の説明において、サーバ装置20を処理の主体として記載する場合には、具体的にはプロセッサ2001、メモリ2002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ2001が演算を行い、通信装置2004による通信や、メモリ2002及びストレージ2003におけるデータの読み出し及び/又は書き込みを制御することにより、処理が実行されることを意味する。ユーザ端末10についても同様である。
[motion]
Next, operation of the information processing system 1 will be described with reference to FIG. In the following description, when the server device 20 is described as the main body of processing, specifically, the processor 2001 and the memory 2002 are loaded with predetermined software (program) on hardware such as the processor 2001 and the memory 2002. performs an operation and controls communication by the communication device 2004 and data reading and/or writing in the memory 2002 and storage 2003 to execute processing. The same applies to the user terminal 10 as well.

図8において、まず、サーバ装置20のデータ取得部21は、サーバ装置20の記憶部24に記憶された投稿データをその記憶部24から読み出すことで、これを取得する(ステップS11)。なお、サーバ装置20が、個人情報保護機能のみを備えており、SNS機能を備えていない場合は、SNS機能を備えたSNS装置から投稿データを取得すればよい。 In FIG. 8, first, the data acquisition unit 21 of the server device 20 acquires the post data stored in the storage unit 24 of the server device 20 by reading it from the storage unit 24 (step S11). If the server device 20 has only the personal information protection function and does not have the SNS function, the post data may be acquired from the SNS device having the SNS function.

次に、サーバ装置20の抽出部22は、データ取得部21により取得された、或る1つの投稿データに含まれる画像データから画像オブジェクトを抽出する(ステップS12)。 Next, the extracting unit 22 of the server device 20 extracts an image object from the image data included in one post data acquired by the data acquiring unit 21 (step S12).

次に、抽出部22は、上記画像データから抽出された複数の画像オブジェクト、及び、その画像データに付加されている付加データを、図6に例示した定義に従って、各々の画像オブジェクト又は付加データが属するカテゴリに分類する(ステップS13)。これにより、1つの投稿データに含まれる画像データから抽出された複数の画像オブジェクト、及び、その画像データに付加されている付加データが、whoカテゴリ、whereカテゴリ、又は、whenカテゴリのいずれかに分類される。 Next, the extracting unit 22 extracts a plurality of image objects extracted from the image data and additional data added to the image data according to the definition illustrated in FIG. It is classified into the category to which it belongs (step S13). As a result, a plurality of image objects extracted from image data included in one post data and additional data added to the image data are classified into one of the who category, where category, and when category. be done.

次に、サーバ装置20の選択部23は、画像オブジェクト及び付加データからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する(ステップS14)。具体的には、ユーザがどの迷惑行為を防止したいかということはそのユーザによりユーザ端末10を用いて入力され、サーバ装置20にユーザIDとともに通知されるから、選択部23は、そのユーザIDのユーザが投稿者である投稿データについては、通知された迷惑行為に対応する特定方法を図7の例示に従って選択する。ここでは、つきまとい又はストーカーという迷惑行為に対応する特定方法、図7の最上段の内容によって表される特定方法が選択されたとする。 Next, the selection unit 23 of the server device 20 selects one of a plurality of identification methods for identifying the risk of inferring the user's personal information from the image object and the additional data (step S14). Specifically, the user inputs which nuisance behavior the user wants to prevent using the user terminal 10, and is notified to the server device 20 together with the user ID. For posted data posted by a user, a method of specifying corresponding to the reported nuisance is selected according to the example in FIG. Here, it is assumed that the identification method corresponding to the nuisance behavior of stalking or stalking, and the identification method represented by the content at the top of FIG. 7 are selected.

次に、サーバ装置20の特定部25は、選択部23により選択された特定方法に従い、抽出部22により抽出された画像オブジェクト又は付加データからユーザの個人情報が推測されるリスクを特定する(ステップS15)。ここでは、抽出部22により画像データから抽出された画像オブジェクトが例えば顔画像オブジェクト及び制服画像オブジェクトであり、その画像データに付加されている付加データが「○○カフェ」という場所データ及び「2020年10月23日 18:57」という日時データであったとする。この場合、図6の例示では、顔画像オブジェクト及び制服画像オブジェクトはwhoカテゴリに属し、「○○カフェ」という付加データ(場所データ)はwhereカテゴリに属し、「2020年10月23日 18:57」という付加データ(日時データ)はwhenカテゴリに属する。従って、図7の例示では、つきまとい又はストーカーという迷惑行為に対応する特定方法において、whoカテゴリ、whereカテゴリ及びwhenカテゴリに属する画像オブジェクト及び付加データが投稿データに含まれていることになるので、これらwhoカテゴリ、whereカテゴリ及びwhenカテゴリの組み合わせに対応する「リスク高」が特定されることになる。 Next, the specifying unit 25 of the server device 20 specifies the risk of estimating the user's personal information from the image object or additional data extracted by the extracting unit 22 according to the specifying method selected by the selecting unit 23 (step S15). Here, the image objects extracted from the image data by the extracting unit 22 are, for example, a face image object and a uniform image object, and the additional data added to the image data are the place data "XX Cafe" and the year 2020. Assume that the date and time data is "October 23, 18:57". In this case, in the example of FIG. 6, the face image object and the uniform image object belong to the who category, the additional data (location data) "○○ cafe" belongs to the where category, and the "October 23, 2020 18:57 ” (date and time data) belongs to the when category. Therefore, in the example of FIG. 7, in the identification method for dealing with nuisance behavior such as stalking or stalking, image objects and additional data belonging to the who category, where category, and when category are included in the posted data. A "high risk" corresponding to a combination of who, where and when categories will be identified.

これに対し、抽出部22により画像データから抽出された画像オブジェクトが例えば時計画像オブジェクトであり、その画像データに付加されている付加データが「○○カフェ」という場所データ及び「2020年10月23日 18:57」という日時データであった場合、図6の例示では、時計画像オブジェクトはwhenカテゴリに属し、「○○カフェ」という付加データ(場所データ)はwhereカテゴリに属し、「2020年10月23日 18:57」という付加データ(日時データ)はwhenカテゴリに属する。従って、図7の例示では、つきまとい又はストーカーという迷惑行為に対応する特定方法において、whereカテゴリ及びwhenカテゴリの組み合わせに対応する「リスク低」が特定されることになる。 On the other hand, the image object extracted from the image data by the extracting unit 22 is, for example, a clock image object, and the additional data added to the image data are the location data "○○ cafe" and "October 23, 2020". In the example of FIG. 6, the clock image object belongs to the when category, the additional data (place data) of "○○ cafe" belongs to the where category, and the date and time data "2020 10:57" belongs to the where category. The additional data (date and time data) "18:57 on the 23rd of the month" belongs to the when category. Therefore, in the example of FIG. 7, "low risk" corresponding to the combination of the where category and when category is specified in the specifying method corresponding to the harassing behavior of stalking or stalking.

次に、サーバ装置20の処理部26は、特定部25により特定されたリスクに応じた対応処理を行う(ステップS16)。前述したように、この処理部26が行う処理は、抽出部22により抽出された画像オブジェクトに対して、特定部25により特定されたリスクに応じた画像処理を行うこと、又は、特定部25により特定されたリスクに応じた情報をユーザに報知する報知処理を行うことを含む。出力部27は、処理部26により処理された結果を含むデータを出力する。この結果、処理部26により処理が成された投稿データを参照するときは、抽出部22により抽出された画像オブジェクトに対してぼかし処理等が施されているので、個人情報が推測されにくくなる。また、投稿者たるユーザに対しては、リスクに応じた情報が報知されるので、例えばこのユーザは投稿データを削除したり編集したりするなどの処置をとることが可能となる。 Next, the processing unit 26 of the server device 20 performs a handling process according to the risk specified by the specifying unit 25 (step S16). As described above, the process performed by the processing unit 26 is to perform image processing on the image object extracted by the extraction unit 22 according to the risk specified by the specifying unit 25, or It includes performing notification processing for notifying the user of information corresponding to the identified risk. The output unit 27 outputs data including results processed by the processing unit 26 . As a result, when the post data processed by the processing unit 26 is referred to, the image object extracted by the extraction unit 22 is subjected to blurring processing, etc., so that personal information is less likely to be guessed. In addition, information corresponding to the risk is notified to the user who is the poster, so that the user can take measures such as deleting or editing the posted data, for example.

以上説明した実施形態によれば、ユーザの個人情報が画像から推測されるリスクは様々な状況に応じて変わり得るが、そのリスクを適切に特定し、特定したリスクに応じた処理を行うことができる。その結果、推測された個人情報に基づく迷惑行為を未然に防ぐことが可能となる。 According to the embodiments described above, the risk that a user's personal information may be inferred from an image may change depending on various circumstances. can. As a result, it is possible to prevent nuisance behavior based on the inferred personal information.

[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
上述した実施形態においては、リスクの特定方法を実質的にユーザが指定しており、選択部23はそのユーザの指定に従ってリスクの特定方法を選択していた。この例に限定されず、選択部23は、ユーザによる指定以外の手順でリスクの特定方法を選択するようにしてもよい。例えば選択部23は、ユーザの属性に応じて特定方法を選択するようにしてもよい。このため、サーバ装置20の記憶部24は、ユーザの属性(例えば性別、年齢、有名人であるか否か等)をそのユーザのユーザIDに対応付けて記憶しておくとともに、属性の組み合わせとリスクの特定方法とを対応付けて記憶しておく。例えばユーザの性別が女性であれば、つきまとい、ストーカーという迷惑行為を防止するためのリスクの特定方法が対応付けられ、ユーザの年齢が閾値以上の高齢であれば、詐欺又は強盗という迷惑行為を防止するためのリスクの特定方法が対応付けられ、ユーザが有名人であれば、ネットストーカー、窃盗又は強盗という迷惑行為を防止するためのリスクの特定方法が対応付けられる。そして、選択部23は、投稿者のユーザIDに対応する属性を参照し、その属性に応じたリスクの特定方法を選択する。これにより、或る属性のユーザにおいて典型的に発生し得る迷惑行為を未然に防ぐことが可能となる。
[Modification]
The invention is not limited to the embodiments described above. The embodiment described above may be modified as follows. Also, two or more of the following modified examples may be combined for implementation.
[Modification 1]
In the embodiment described above, the user substantially designates the method of identifying the risk, and the selection unit 23 selects the method of identifying the risk according to the user's designation. It is not limited to this example, and the selection unit 23 may select the risk identification method by a procedure other than the specification by the user. For example, the selection unit 23 may select the identification method according to the attributes of the user. For this reason, the storage unit 24 of the server device 20 stores user attributes (for example, gender, age, celebrity status, etc.) in association with the user ID of the user. is stored in correspondence with the method for specifying the . For example, if the user's gender is female, a risk identification method is associated to prevent nuisance behavior such as stalking or stalking. If the user is a celebrity, a risk identification method for preventing nuisance such as net stalking, theft or robbery is associated. Then, the selection unit 23 refers to the attribute corresponding to the user ID of the poster, and selects a risk identification method according to the attribute. This makes it possible to prevent nuisances that typically occur in users with certain attributes.

[変形例2]
また、選択部23は、投稿データが投稿されたサイト又はソーシャルネットワーキングサービスに応じて、リスクの特定方法を選択するようにしてもよい。このため、サーバ装置20の記憶部24は、サイト又はソーシャルネットワーキングサービスの識別子(サイト名又はソーシャルネットワーキングサービス名)とリスクの特定方法とを対応付けて記憶しておく。例えば或るサイト又は或るソーシャルネットワーキングサービスが若い女性に人気があるとされるものであれば、つきまとい、ストーカーという迷惑行為を防止するためのリスクの特定方法が対応付けられ、また、或るサイト又は或るソーシャルネットワーキングサービスが高齢のユーザに人気があるとされるものであれば、詐欺又は強盗という迷惑行為を防止するためのリスクの特定方法が対応付けられる。そして、選択部23は、投稿データが投稿されたサイト又はソーシャルネットワーキングサービスの識別子を特定し、その識別子に応じたリスクの特定方法を選択する。これにより、或るサイトやソーシャルネットワーキングサービスの利用が多い属性のユーザにおいて典型的に発生し得る迷惑行為を未然に防ぐことが可能となる。
[Modification 2]
Further, the selection unit 23 may select a risk identification method according to the site or social networking service to which the posted data is posted. Therefore, the storage unit 24 of the server device 20 associates and stores the site or social networking service identifier (site name or social networking service name) with the risk identification method. For example, if a certain site or a certain social networking service is said to be popular with young women, a risk identification method for preventing harassing behavior such as stalking is associated with it, and a certain site Or if a social networking service is deemed popular with older users, then associated risk identification methods to prevent fraud or robbery nuisances. Then, the selection unit 23 identifies the identifier of the site or social networking service where the posted data is posted, and selects a risk identification method according to the identifier. As a result, it is possible to prevent nuisances that typically occur in users who frequently use certain sites or social networking services.

[変形例3]
実施形態において、特定部25は、画像データから抽出された複数の画像オブジェクト及びその画像データに対して付加されている付加データの組み合わせに応じて、当該複数の画像オブジェクト及び当該付加データからユーザの個人情報が推測されるリスクを特定していた。この例に限定されず、特定部25は、投稿データに含まれる画像データのみに基づいてそのリスクを特定してもよい。つまり、特定部25は、投稿データに含まれる画像データから抽出された複数の画像オブジェクトの組み合わせに応じて、当該複数の画像オブジェクトからユーザの個人情報が推測されるリスクを特定するようにしてもよい。
[Modification 3]
In the embodiment, the identification unit 25 selects a user's image from the plurality of image objects and the additional data according to the combination of the plurality of image objects extracted from the image data and the additional data added to the image data. It identified the risk of personal information being inferred. Without being limited to this example, the identifying unit 25 may identify the risk based only on the image data included in the posted data. In other words, the specifying unit 25 may specify the risk that the user's personal information is inferred from the plurality of image objects according to the combination of the plurality of image objects extracted from the image data included in the posted data. good.

[変形例4]
一般に投稿者たるユーザは複数回の投稿を行うから、第3者は1人の投稿者について複数の投稿データを参照してその個人情報を推測することができる。そこで、サーバ装置20は、1人のユーザが投稿した複数の投稿データに含まれる複数の画像データを用いてリスクを特定するようにしてもよい。この場合、これら複数の投稿データは同一のSNS機能によって投稿されたものであってもよいし、それぞれ異なる複数のSNS機能によって投稿されたものであってもよい。複数の投稿データが同一のSNS機能によって投稿されたものである場合、抽出部22は、同一のユーザIDに対応付けられて記憶されている複数の投稿データからそれぞれ画像オブジェクト及び付加データを抽出し、特定部25は、それぞれ異なる複数の投稿データに含まれる複数の画像データから抽出された複数の画像オブジェクト及び付加データの組み合わせからユーザの個人情報が推測されるリスクを特定する。また、複数の投稿データがそれぞれ異なる複数のSNS機能によって投稿されたものである場合、これら複数のSNS機能において同一のユーザを識別する識別子を用意しておき、抽出部22は、複数のSNS機能において同一のユーザの識別子に対応付けられて記憶されている複数の投稿データに含まれる複数の画像データからそれぞれ画像オブジェクト及び付加データを抽出し、特定部25は、これら複数の投稿データから抽出された複数の画像オブジェクト及び付加データの組み合わせからユーザの個人情報が推測されるリスクを特定する。
[Modification 4]
Since a user who is a contributor generally makes multiple contributions, a third party can refer to a plurality of pieces of post data for one contributor and guess the personal information of the individual contributor. Therefore, server device 20 may identify a risk using a plurality of pieces of image data included in a plurality of pieces of posted data posted by one user. In this case, the plurality of pieces of posted data may be posted using the same SNS function, or may be posted using a plurality of different SNS functions. When a plurality of pieces of posted data are posted using the same SNS function, the extraction unit 22 extracts image objects and additional data from the plurality of pieces of posted data stored in association with the same user ID. The specifying unit 25 specifies the risk that the user's personal information is inferred from the combination of the plurality of image objects extracted from the plurality of image data included in the plurality of different post data and the additional data. Further, when a plurality of pieces of post data are posted by a plurality of different SNS functions, identifiers for identifying the same user are prepared in the plurality of SNS functions, and the extracting unit 22 uses the plurality of SNS functions. extracts image objects and additional data from a plurality of pieces of image data included in a plurality of pieces of posted data stored in association with the identifier of the same user, and the specifying unit 25 extracts image objects and additional data from the plurality of pieces of posted data. A risk that a user's personal information is inferred from a combination of a plurality of image objects and additional data is specified.

[変形例5]
投稿者たるユーザは複数回の投稿を行う場合、前後の投稿時期から相当の期間が空いた投稿からは個人情報を推測することが困難な場合がある。例えば或る投稿が2年ぶりに投稿されて且つその次の投稿が3年後であるような場合に、その或る投稿からユーザが居た場所が推測されたとしても、そのユーザのプライバシーに関わる事態とは言えないと考えてよいことがある。そこで、サーバ装置20が1人のユーザによって投稿された複数の投稿データを用いてリスクを特定する場合において、抽出部22は、各々の投稿間隔が閾値以下となる複数の投稿データに含まれる複数の画像データから画像オブジェクト及び付加データを抽出する。これにより、前後の投稿間隔が閾値を超えるような投稿データから画像オブジェクト及び付加データは抽出されないことになる。そして、特定部25は、これら複数の投稿データに含まれる複数の画像データから抽出された複数の画像オブジェクト及び付加データの組み合わせからユーザの個人情報が推測されるリスクを特定する。これにより、個人情報を推測することが困難と考えられる投稿データについては、処理部26による処理がなされず、投稿者が投稿した内容をそのまま公開することが可能となる。
[Modification 5]
When a user who is a contributor makes multiple posts, it may be difficult to guess personal information from posts made a considerable period of time after the previous and subsequent posting times. For example, if a certain post is posted for the first time in two years and the next post is three years later, even if the user's location is inferred from that certain post, the user's privacy may be compromised. There are some things that can be considered unrelated. Therefore, when the server device 20 identifies a risk using a plurality of pieces of posted data posted by one user, the extracting unit 22 extracts a plurality of pieces of posted data whose posting intervals are equal to or less than a threshold. image objects and additional data are extracted from the image data. As a result, the image object and the additional data are not extracted from the posted data whose posting interval before and after exceeds the threshold. Then, the specifying unit 25 specifies the risk that the personal information of the user is inferred from the combination of the multiple image objects and the additional data extracted from the multiple image data included in the multiple pieces of posted data. As a result, posted data whose personal information is considered difficult to guess is not processed by the processing unit 26, and the content posted by the poster can be published as it is.

[変形例6]
投稿者たるユーザは複数回の投稿を行う場合、投稿時期が古い投稿データから個人情報が推測される可能性が小さいことがある。そこで、サーバ装置20が1人のユーザによって投稿された複数の投稿データを用いてリスクを特定する場合において、特定部25は、それぞれ異なる複数の投稿データの投稿時期に応じて、ユーザの個人情報が推測されるリスクを特定するようにしてもよい。具体的には、抽出部22は、同一のユーザIDに対応付けられて記憶されている複数の投稿データに含まれる複数の画像データからそれぞれ画像オブジェクト及び付加データを抽出する。特定部25は、それぞれ異なる複数の投稿データに含まれる複数の画像データから抽出された複数の画像オブジェクト及び付加データの組み合わせからユーザの個人情報が推測されるリスクを特定するが、このとき、投稿時期が古いものほど、特定されるリスクの重みを小さくするような処理を行う。これにより、個人情報を推測することが困難と考えられる投稿データについては、処理部26による処理がなされず、投稿者が投稿した内容をそのまま公開することが可能となる。
[Modification 6]
When a user who is a contributor posts multiple times, there is a small possibility that personal information can be guessed from post data posted a long time ago. Therefore, when the server device 20 identifies a risk using a plurality of pieces of posted data posted by a single user, the identification unit 25 determines whether the user's personal information may identify the estimated risk. Specifically, the extracting unit 22 extracts image objects and additional data from a plurality of pieces of image data included in a plurality of pieces of post data stored in association with the same user ID. The specifying unit 25 specifies the risk that the user's personal information is inferred from a combination of a plurality of image objects extracted from a plurality of image data included in a plurality of different post data and additional data. Processing is performed so that the older the time, the smaller the weight of the identified risk. As a result, posted data whose personal information is considered difficult to guess is not processed by the processing unit 26, and the content posted by the poster can be published as it is.

[変形例7]
本発明において、画像データは、静止画像データでもあってもよいし、動画像データであってもよい。また、また、本発明が適用されるサービスはSNSに限定されない。
[Modification 7]
In the present invention, the image data may be still image data or moving image data. Moreover, the service to which the present invention is applied is not limited to SNS.

[変形例8]
本開示の一実施の形態におけるサーバ装置20などは、本開示の処理を行うコンピュータとして機能してもよい。つまり、本発明は、コンピュータを、画像データから複数の画像オブジェクトを抽出する抽出部と、抽出された前記複数の画像オブジェクトの組み合わせに応じて、当該複数の画像オブジェクトからユーザの個人情報が推測されるリスクを特定する特定部として機能させるためのプログラムとしても観念し得る。
[Modification 8]
The server device 20 or the like according to an embodiment of the present disclosure may function as a computer that performs processing of the present disclosure. In other words, the present invention comprises a computer comprising: an extraction unit for extracting a plurality of image objects from image data; It can also be thought of as a program for functioning as an identification unit that identifies risks that may occur.

また、本発明は、画像データから画像オブジェクトを抽出する抽出ステップと、画像オブジェクトからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する選択ステップと、選択された前記特定方法に従い、抽出された前記画像オブジェクトからユーザの個人情報が推測されるリスクを特定する特定ステップとを備える情報処理方法としても観念し得る。 Further, the present invention provides an extraction step of extracting an image object from image data; and a identifying step of identifying the risk that the user's personal information will be inferred from the extracted image object according to the identifying method described above.

[その他の変形例]
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
[Other Modifications]
It should be noted that the block diagrams used in the description of the above embodiments show blocks in units of functions. These functional blocks (components) are realized by any combination of at least one of hardware and software. Also, the method of implementing each functional block is not particularly limited. That is, each functional block may be implemented using one device that is physically or logically coupled, or directly or indirectly using two or more devices that are physically or logically separated (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信制御部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, investigating, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting control unit (transmitting unit) or a transmitter (transmitter). In either case, as described above, the implementation method is not particularly limited.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせなど)適用されてもよい。 Each aspect/embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other suitable systems and extended It may be applied to at least one of the next generation systems. Also, multiple systems may be combined (for example, combining at least one of LTE and LTE-A with 5G).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

入出力された情報などは特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報などは、上書き、更新、又は追記され得る。出力された情報などは削除されてもよい。入力された情報などは他の装置へ送信されてもよい。 Input/output information may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like. Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the "first," "second," etc. designations used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient method of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements can be employed or that the first element must precede the second element in any way.

上記の各装置の構成における「部」を、「手段」、「回路」、「デバイス」などに置き換えてもよい。 The “unit” in the configuration of each device described above may be replaced with “means”, “circuit”, “device”, or the like.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.

本開示において、例えば、英語でのa,an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."

1:情報処理システム、2:ネットワーク、10:ユーザ端末、100:画像、101,102:画像オブジェクト、103,104:付加データ、20:サーバ装置、21:データ取得部、22:抽出部、23:選択部、24:記憶部、25:特定部、26:処理部、27:出力部、2001:プロセッサ、2002:メモリ、2003:ストレージ、2004:通信装置。 1: information processing system, 2: network, 10: user terminal, 100: image, 101, 102: image object, 103, 104: additional data, 20: server device, 21: data acquisition unit, 22: extraction unit, 23 2001: processor, 2002: memory, 2003: storage, 2004: communication device.

上記課題を解決するため、本発明は、画像データから画像オブジェクトを抽出する抽出部と、画像オブジェクトからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する選択部と、選択された前記特定方法に従い、抽出された前記画像オブジェクトからユーザの個人情報が推測されることによって生じる迷惑行為のリスクを特定する特定部とを備えることを特徴とする情報処理装置を提供する。 In order to solve the above problems, the present invention provides an extraction unit for extracting an image object from image data, and a selection method for selecting one of a plurality of identification methods for identifying the risk of inferring personal information of a user from the image object. and a specifying unit that specifies a risk of nuisance caused by inferring personal information of a user from the extracted image object according to the selected specifying method. offer.

Claims (10)

画像データから画像オブジェクトを抽出する抽出部と、
画像オブジェクトからユーザの個人情報が推測されるリスクを特定する複数の特定方法のうちいずれかを選択する選択部と、
選択された前記特定方法に従い、抽出された前記画像オブジェクトからユーザの個人情報が推測されるリスクを特定する特定部と
を備えることを特徴とする情報処理装置。
an extraction unit that extracts an image object from image data;
a selection unit that selects one of a plurality of identification methods for identifying a risk that a user's personal information is inferred from an image object;
and a specifying unit that specifies a risk that a user's personal information is inferred from the extracted image object according to the selected specifying method.
前記選択部は、ユーザの個人情報が推測されることによって生じる可能性がある迷惑行為に応じて前記特定方法を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the selection unit selects the identification method according to a nuisance that may occur due to guessing of the user's personal information.
前記選択部は、ユーザの属性に応じて前記特定方法を選択する
ことを特徴とする請求項1又は2に記載の情報処理装置。
3. The information processing apparatus according to claim 1, wherein the selection unit selects the identification method according to user attributes.
前記選択部は、ユーザの指定に従って前記特定方法を選択する
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
4. The information processing apparatus according to any one of claims 1 to 3, wherein the selection unit selects the specifying method according to a user's designation.
前記選択部は、前記画像データが投稿されたサイト又はソーシャルネットワーキングサービスに応じて前記特定方法を選択する
ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 4, wherein the selection unit selects the specifying method according to a site or social networking service to which the image data is posted.
前記抽出部は、前記画像データから複数の前記画像オブジェクトを抽出し、
前記特定部は、抽出された前記複数の画像オブジェクトの組み合わせに応じて、当該複数の画像オブジェクトからユーザの個人情報が推測されるリスクを特定する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
The extraction unit extracts the plurality of image objects from the image data,
6. The identifying unit identifies a risk that the user's personal information is inferred from the plurality of image objects according to the combination of the plurality of extracted image objects. The information processing device according to item 1.
前記抽出部は、それぞれ異なる複数の前記画像データから前記画像オブジェクトを抽出し、
前記特定部は、それぞれ異なる前記複数の画像データから抽出された複数の前記画像オブジェクトの組み合わせを特定して、当該複数の画像オブジェクトからユーザの個人情報が推測されるリスクを特定する
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
The extraction unit extracts the image object from a plurality of different image data,
The specifying unit specifies a combination of the plurality of image objects extracted from the plurality of image data different from each other, and specifies a risk that the user's personal information is inferred from the plurality of image objects. The information processing apparatus according to any one of claims 1 to 6.
前記特定部は、前記画像データから抽出された画像オブジェクト及び前記画像データに対して付加されている付加データの組み合わせに応じて、当該画像オブジェクト及び当該付加データからユーザの個人情報が推測されるリスクを特定する
ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。
The identifying unit, according to a combination of an image object extracted from the image data and additional data added to the image data, risks inferring personal information of a user from the image object and the additional data. 8. The information processing apparatus according to any one of claims 1 to 7, characterized in that:
前記特定部により特定されたリスクに応じた処理を行う処理部を備える
ことを特徴とする請求項1~8のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 8, further comprising a processing unit that performs processing according to the risk identified by the identification unit.
前記処理部が行う処理は、抽出された前記画像オブジェクトに対して特定された前記リスクに応じた画像処理を行うこと、又は、特定された前記リスクに応じた情報をユーザに報知する報知処理を行うことを含む
ことを特徴とする請求項9に記載の情報処理装置。
The processing performed by the processing unit is to perform image processing on the extracted image object in accordance with the identified risk, or to notify the user of information in accordance with the identified risk. 10. The information processing apparatus according to claim 9, comprising performing.
JP2021031841A 2021-03-01 2021-03-01 Information processing equipment Active JP7275175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021031841A JP7275175B2 (en) 2021-03-01 2021-03-01 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021031841A JP7275175B2 (en) 2021-03-01 2021-03-01 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2022133036A true JP2022133036A (en) 2022-09-13
JP7275175B2 JP7275175B2 (en) 2023-05-17

Family

ID=83229438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021031841A Active JP7275175B2 (en) 2021-03-01 2021-03-01 Information processing equipment

Country Status (1)

Country Link
JP (1) JP7275175B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078788A (en) * 2012-10-09 2014-05-01 Navitime Japan Co Ltd Image disclosing server, terminal device, image disclosing system, image disclosing method and image disclosing program
JP2019220194A (en) * 2014-05-22 2019-12-26 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078788A (en) * 2012-10-09 2014-05-01 Navitime Japan Co Ltd Image disclosing server, terminal device, image disclosing system, image disclosing method and image disclosing program
JP2019220194A (en) * 2014-05-22 2019-12-26 ソニー株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP7275175B2 (en) 2023-05-17

Similar Documents

Publication Publication Date Title
US11288107B2 (en) Selective obfuscation of notifications
US20120198348A1 (en) Apparatus and method for providing integrated user information
CN103414815B (en) The display packing and terminal of associated person information
US20170075737A1 (en) Method of displaying notifications and electronic device adapted thereto
US20140310654A1 (en) Method and system for interworking plurality of applications
CN106569900A (en) Application processing method and device
WO2016003084A1 (en) Method and apparatus of notifying of smishing
CN105335633B (en) A kind of mobile terminal glance prevention method and mobile terminal
CN105068726B (en) Information processing method and terminal
CN114726947B (en) Message display method, device, user terminal and readable storage medium
CN106991179A (en) Data-erasure method, device and mobile terminal
KR20140099837A (en) A method for initiating communication in a computing device having a touch sensitive display and the computing device
JP7203132B2 (en) Information processing equipment
JP7275175B2 (en) Information processing equipment
CN106254675A (en) The method of system language setting and terminal
CN110782169A (en) Method and device for updating business process
US20210150243A1 (en) Efficient image sharing
CN114390011A (en) Message processing method and device and readable storage medium
US10185760B2 (en) Method and device for forming group using communication history information
CN107145286B (en) Browsing interaction processing method and device
CN106855813A (en) A kind for the treatment of method and apparatus of application entrance object
CN107770042B (en) Terminal and method and storage device for processing messages based on face recognition
CN106713576A (en) Method for distinguishing multiple numbers in contact person information and device thereof
CN112580762A (en) Dynamic two-dimensional code and identification method and identification device thereof
JPWO2019220791A1 (en) Dialogue device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230307

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7275175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150