JP2018147289A - 表示装置、表示システム及びプログラム - Google Patents
表示装置、表示システム及びプログラム Download PDFInfo
- Publication number
- JP2018147289A JP2018147289A JP2017042727A JP2017042727A JP2018147289A JP 2018147289 A JP2018147289 A JP 2018147289A JP 2017042727 A JP2017042727 A JP 2017042727A JP 2017042727 A JP2017042727 A JP 2017042727A JP 2018147289 A JP2018147289 A JP 2018147289A
- Authority
- JP
- Japan
- Prior art keywords
- display
- history
- unit
- inspector
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/416—Extracting the logical structure, e.g. chapters, sections or page numbers; Identifying elements of the document, e.g. authors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/22—Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00352—Input means
- H04N1/00381—Input by recognition or interpretation of visible user gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/0035—User-machine interface; Control console
- H04N1/00405—Output means
- H04N1/00408—Display of information to the user, e.g. menus
- H04N1/0044—Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
- H04N1/00461—Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet marking or otherwise tagging one or more displayed image, e.g. for selective reproduction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】端末において表示されていた画像のどこを点検者が注視して点検の操作をしたかを検証する。【解決手段】第1取得部111は、端末の表示部の表示画面に表示された画像の履歴を示す表示履歴を取得する。第2取得部112は、端末の表示部の表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する。第3取得部113は、端末の操作部に対する点検者の操作の履歴を示す操作履歴を取得する。抽出部115は、第3取得部113が取得した操作履歴から点検の項目ごとに対応する操作を抽出する。表示制御部117は、取得した表示履歴及び注視点履歴に基づいて、抽出された操作に応じた期間における注視点を示す図形を、この期間に端末の表示部の表示画面に表示された画像に重ねて表示部14に表示させる。【選択図】図11
Description
本発明は、表示装置、表示システム及びプログラムに関する。
特許文献1には、ユーザがデータ閲覧を行う際の視線情報を取得してデータ検索処理の効率化を試みる情報処理装置が開示されている。
特許文献2には、文書を閲覧する閲覧者の閲覧箇所を検出して付加情報の表示を制御する文書閲覧システムが開示されている。
特許文献2には、文書を閲覧する閲覧者の閲覧箇所を検出して付加情報の表示を制御する文書閲覧システムが開示されている。
本発明は、端末において表示されていた画像のどこを点検者が注視して点検の操作をしたかを検証することを目的とする。
上述した課題を解決するため、本発明の請求項1に係る表示装置は、端末の表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、前記操作履歴から操作を抽出する抽出部と、前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて表示部に表示させる表示制御部と、を有する。
本発明の請求項2に係る表示装置は、請求項1に記載の態様において、前記画像において前記操作ごとに対応付けられた領域を示す領域情報を取得する第4取得部、を有し、前記表示制御部は、前記操作ごとに対応付けられた前記領域を、該操作に応じた期間に表示された前記画像に重ねて表示させることを特徴とする。
本発明の請求項3に係る表示装置は、請求項2に記載の態様において、前記表示部により表示される前記領域と、前記注視点とに基づいて、前記点検者による点検を評価する評価部、を有することを特徴とする。
本発明の請求項4に係る表示装置は、請求項3に記載の態様において、前記評価部は、前記注視点が前記領域の内側に存在した時間が長いほど前記点検を高く評価することを特徴とする。
本発明の請求項5に係る表示装置は、請求項3又は4に記載の態様において、前記表示制御部は、前記評価部による評価の結果に応じて前記画像を表示させることを特徴とする。
本発明の請求項6に係る表示システムは、表示画面を有する端末、該端末と通信するサーバ装置、及び該サーバ装置と通信する表示装置を有し、前記サーバ装置は、前記表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、前記操作履歴から操作を抽出する抽出部と、を有し、前記表示装置は、前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて表示部に表示させる表示制御部を有する。
本発明の請求項7に係るプログラムは、表示部を有するコンピュータを、端末の表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、前記操作履歴から操作を抽出する抽出部と、前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて前記表示部に表示させる表示制御部として機能させるためのプログラムである。
請求項1、6、7に係る発明によれば、端末において表示されていた画像のどこを点検者が注視して点検の操作をしたかを検証することができる。
請求項2に係る発明によれば、点検者の行った操作ごとにその点検者が注視すべきであった領域を検証者が知ることができる。
請求項3に係る発明によれば、注視すべきであった領域を注視していたか否かを評価させることができる。
請求項4に係る発明によれば、注視していた時間に応じて点検者の点検が評価される。
請求項5に係る発明によれば、注視すべきであった領域を注視していたか否かについて検証者が知ることができる。
請求項2に係る発明によれば、点検者の行った操作ごとにその点検者が注視すべきであった領域を検証者が知ることができる。
請求項3に係る発明によれば、注視すべきであった領域を注視していたか否かを評価させることができる。
請求項4に係る発明によれば、注視していた時間に応じて点検者の点検が評価される。
請求項5に係る発明によれば、注視すべきであった領域を注視していたか否かについて検証者が知ることができる。
1.実施形態
1−1.表示システムの全体構成
図1は、本実施形態に係る表示システム9の全体構成を示す図である。表示システム9は、LAN(Local Area Network)及びWAN(Wide Area Network)等を形成する通信回線4と、この通信回線4に接続された表示装置1、端末2、及び画像読取装置3を有する。
1−1.表示システムの全体構成
図1は、本実施形態に係る表示システム9の全体構成を示す図である。表示システム9は、LAN(Local Area Network)及びWAN(Wide Area Network)等を形成する通信回線4と、この通信回線4に接続された表示装置1、端末2、及び画像読取装置3を有する。
図1に示す画像読取装置3は、通信回線4を介して端末2と接続する。画像読取装置3は、媒体等に形成された画像を読取ってその画像を示す画像データを生成し、端末2に送信する装置である。表示システム9が有する画像読取装置3は図1に示す通り1つであってもよいし、複数であってもよい。
図1に示す端末2は、画像読取装置3から送信された画像データが示す画像を表示画面に表示し、利用者にその画像を点検させる情報処理装置である。端末2の利用者を「点検者」ともいう。点検者とは、端末2を利用してこの端末2で表示される画像を点検する利用者である。端末2は、表示した画像を点検者が点検するときの、その点検者の注視点を検出するとともに、点検の結果に応じたその点検者の操作を受付ける。表示システム9が有する端末2は図1に示す通り、2つであってもよいし、1つであっても3つ以上であってもよい。
図1に示す表示装置1は、端末2の表示画面に表示された画像の履歴と、その表示画面に注がれた点検者の注視点の履歴と、点検者の操作の履歴とを取得して、点検者が点検した画像と、その点検時に注視した注視点とを重ねて表示する装置である。表示装置1の利用者を「検証者」ともいう。検証者とは、点検者が点検した画像、及びその点検の際に注視した注視点を、表示装置1を利用して確認し、その点検者の点検内容を検証する利用者である。表示システム9が有する表示装置1は図1に示す通り1つであってもよいし、複数であってもよい。
1−2.画像読取装置の構成
図2は、画像読取装置3の構成の一例を示す図である。画像読取装置3は、制御部31、記憶部32、通信部33、表示部34、操作部35、及び読取部36を有する。
図2は、画像読取装置3の構成の一例を示す図である。画像読取装置3は、制御部31、記憶部32、通信部33、表示部34、操作部35、及び読取部36を有する。
制御部31は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROMや記憶部32に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより画像読取装置3の各部を制御する。
記憶部32は、ソリッドステートドライブ等の大容量の記憶手段であり、制御部31のCPUに読み込まれる各種のプログラムを記憶する。
通信部33は、無線又は有線により通信回線4に接続する通信回路である。画像読取装置3は、通信部33により通信回線4を介して端末2と情報を遣り取りする。
操作部35は、各種の指示をするための操作ボタン等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部31に供給する。また、操作部35は、利用者の指やスタイラスペン等の操作体を検知するタッチパネルを有していてもよい。
表示部34は、液晶ディスプレイを有しており、制御部31の制御の下、画像を表示する。表示部34の液晶ディスプレイの上には、操作部35の透明のタッチパネルが重ねて配置されてもよい。
なお、画像読取装置3は、例えば通信回線4を介して外部の操作端末から操作を受付けてもよい。外部の操作端末から操作を受付ける場合、画像読取装置3には操作部35を有しなくてもよい。また、画像読取装置3は、表示部34を有しなくてもよい。
読取部36は、例えばイメージスキャナであり、原稿を光学的に読取って画像データを生成する。読取部36には、積み重ねられた原稿を1枚ずつ読取位置に送り出す原稿送り装置が設けられていてもよい。
1−3.端末の構成
図3は、端末2の構成を示す図である。端末2は、制御部21、記憶部22、通信部23、表示部24、操作部25、及び検出部26を有する。
図3は、端末2の構成を示す図である。端末2は、制御部21、記憶部22、通信部23、表示部24、操作部25、及び検出部26を有する。
制御部21は、CPU、ROM、RAMを有し、CPUがROMや記憶部22に記憶されているプログラムを読み出して実行することにより端末2の各部を制御する。
記憶部22は、ハードディスクドライブ等の大容量の記憶手段であり、制御部21のCPUに読み込まれる各種のプログラムを記憶する。
また、記憶部22は、画像読取装置3から送られた画像を示す画像データを記憶するデータベースである画像DB221を有する。
図4は、画像DB221の例を示す図である。画像DB221は、複数の画像のそれぞれを示す画像データと、その画像を識別する識別情報である画像IDとを対応付けて記憶する。なお、画像読取装置3が複数枚の原稿で構成される書類から、それらの原稿を1枚ずつ連続して読取ってそれぞれ画像データを生成した場合、生成した複数の画像データは1つの書類を構成するものとして関連付けられて画像DB221に記憶されてもよい。
通信部23は、無線又は有線により通信回線4に接続する通信回路である。端末2は、通信部23により通信回線4を介して表示装置1及び画像読取装置3と情報を遣り取りする。
操作部25は、各種の指示をするための操作ボタン等の操作子を備えており、点検者による操作を受付けてその操作内容に応じた信号を制御部21に供給する。また、操作部25は、点検者の指やスタイラスペン等の操作体を検知するタッチパネルを有していてもよい。
表示部24は、液晶ディスプレイ等の表示画面を有しており、制御部21の制御の下、画像を表示する。表示部24の表示画面の上には、操作部25の透明のタッチパネルが重ねて配置されてもよい。
検出部26は、点検者が注視している表示画面の位置、すなわち注視点を検出する。検出部26は、点検者の瞳を撮像して注視点を検出してもよいし、マウスカーソル、レーザーポインタ、タッチペン等の操作で示される点を注視点と見做してもよい。検出部26は、例えば、点検者が装着するメガネ型等のウェアラブル装置であってもよいし、点検者の瞳を撮像する固定されたカメラであってもよい。
検出部26は、例えば10ミリ秒ごと等、予め決められた周期で点検者の瞳を撮像して、それぞれ注視点を検出してもよい。検出部26は、決められた速度以上で注視点が移動したときに、その注視点を検出してもよい。
1−4.表示装置の構成
図5は、表示装置1の構成を示す図である。表示装置1は、制御部11、記憶部12、通信部13、表示部14、及び操作部15を有する。
図5は、表示装置1の構成を示す図である。表示装置1は、制御部11、記憶部12、通信部13、表示部14、及び操作部15を有する。
制御部11は、CPU、ROM、RAMを有し、CPUがROMや記憶部12に記憶されているプログラムを読み出して実行することにより表示装置1の各部を制御する。
通信部13は、無線又は有線により通信回線4に接続する通信回路である。表示装置1は、通信部13により通信回線4を介して端末2と情報を遣り取りする。
操作部15は、各種の指示をするための操作ボタン等の操作子を備えており、検証者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。また、操作部15は、検証者の指やスタイラスペン等の操作体を検知するタッチパネルを有していてもよい。
表示部14は、液晶ディスプレイ等の表示画面を有しており、制御部11の制御の下、画像を表示する。表示部14の表示画面の上には、操作部15の透明のタッチパネルが重ねて配置されてもよい。
記憶部12は、ハードディスクドライブ等の大容量の記憶手段であり、制御部11のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部12は、表示履歴DB121、注視点履歴DB122、及び操作履歴DB123を記憶する。また、記憶部12は、図5に示す通り、点検項目DB124、及びガイド領域DB125を記憶してもよい。
図6は、表示履歴DB121の例を示す図である。表示履歴DB121は、端末2の表示画面に表示された画像の履歴を示す表示履歴を記憶するデータベースである。図6に示す通り、表示履歴DB121には、端末2の表示部24の表示画面において表示された画像の識別情報を示す「画像ID」と、その画像が表示された位置を示す「表示位置」とが、その画像が表示された時刻を示す「時刻情報」に対応付けて記憶される。
図6に示す例で、例えば、表示履歴DB121には、時刻「2016/11/16 09:38:29」に、画像IDが「doc001」の画像が、表示画面の表示位置「x1,y1」に表示されたことが記憶されている。
なお、表示履歴DB121には、図6に示した情報のほか、例えば、画像の拡大率や向き、回転方向等が記憶されていてもよい。要するに、表示履歴DB121は、いつ、どの画素に画像のどの部分が端末2の表示画面において表示されていたか、が特定できる情報を記憶していればよい。
図7は、注視点履歴DB122の例を示す図である。注視点履歴DB122は、端末2の表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を記憶するデータベースである。図7に示す通り、注視点履歴DB122には、端末2の検出部26の検出結果に基づいて、点検者が表示部24の表示画面のうち注視していた位置を示す「注視点位置」が、その注視していた時刻を示す「時刻情報」に対応付けて記憶される。
図7に示す例で、例えば、注視点履歴DB122には、時刻「2016/11/16 09:39:10」に、点検者が表示画面の注視点位置「x3,y3」を注視していたことが記憶されている。
図8は、操作履歴DB123の例を示す図である。操作履歴DB123は、端末2に対する点検者の操作の履歴を示す操作履歴を記憶するデータベースである。図8に示す通り、操作履歴DB123には、点検者が端末2の操作部25を操作して行った点検の項目(点検項目)ごとの識別情報である「点検項目ID」と、その点検項目に対する点検者の点検の結果である「点検結果」とが、その点検が行われた時刻を示す「時刻情報」に対応付けて記憶される。
図8に示す例で、例えば、操作履歴DB123には、時刻「2016/11/16 09:38:28」に、点検者が点検項目ID「chk101」の項目に対して、点検結果「承認」を示す操作をしたことが記憶されている。
図9は、点検項目DB124の例を示す図である。点検項目DB124は、点検の項目ごとにその点検の内容と点検者が見て確認すべき画像とを対応付けて記憶するデータベースである。図9に示す通り、点検項目DB124には、点検の項目ごとの識別情報である「点検項目ID」と、その点検の対象となる画像の識別情報である「点検画像ID」と、その点検において比較すべき画像(比較画像)がある場合にその比較画像の識別情報である「比較画像ID」と、その点検の項目の名称である「点検項目名」と、その点検の項目で点検すべき内容とが対応付けて記憶されている。
図9に示す例で、例えば、点検項目DB124には、点検項目ID「chk104」で識別される点検において、点検者が点検項目名「金額」について、点検画像ID「doc001」で識別される点検画像を、比較画像ID「doc002」で識別される比較画像と比較して、点検内容「稟議金額と一致するか否か」という観点から点検をすべきであることが記憶されている。
図10は、ガイド領域DB125の例を示す図である。ガイド領域DB125は、点検項目ごとに確認すべき点検画像及び、ある場合には比較画像について注視すべき領域を示す枠等のガイドを表示する位置(表示位置)と、そのガイドのデータ(ガイドデータ)とを、それぞれガイドの識別情報である「ガイドID」に対応付けて記憶するデータベースである。
図10に示す例で、例えば、ガイド領域DB125には、ガイドID「g205」で識別されるガイドは、点検項目ID「chk104」について案内をするガイドであって、画像ID「doc001」で識別される画像に重なる表示位置「rx5,ry5」に領域を示すものであることが記憶されている。ガイドデータにはそのガイドの色や形状等が記憶されていてもよい。
点検項目DB124とガイド領域DB125とを組合せることで、点検の項目ごとにどの画像のどの領域を注視すべきであるかが把握される。この領域は、点検時に端末2に表示される画像に対して操作ごとに対応付けられた領域である。
1−5.表示装置の機能的構成
図11は、表示装置1の機能的構成を示す図である。図11に示す表示装置1の制御部11は、記憶部12に記憶されたプログラムを実行することにより、第1取得部111、第2取得部112、第3取得部113、抽出部115、及び表示制御部117として機能する。また、図11に示す通り、制御部11は、これらに加えて第4取得部114、及び評価部116として機能してもよい。
図11は、表示装置1の機能的構成を示す図である。図11に示す表示装置1の制御部11は、記憶部12に記憶されたプログラムを実行することにより、第1取得部111、第2取得部112、第3取得部113、抽出部115、及び表示制御部117として機能する。また、図11に示す通り、制御部11は、これらに加えて第4取得部114、及び評価部116として機能してもよい。
第1取得部111は、端末2の表示部24の表示画面に表示された画像の履歴を示す表示履歴を取得する。第1取得部111は、通信部13を介して端末2から表示履歴を取得し、記憶部12の表示履歴DB121に記憶する。また、第1取得部111は、検証者による表示装置1の操作部15(図5参照)に対する操作に応じて表示履歴DB121から表示履歴を取得する。なお、第1取得部111は、検証者の操作に依らず、例えば決められた時刻に表示履歴DB121から決められた表示履歴を取得してもよい。
第2取得部112は、端末2の表示部24の表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する。第2取得部112は、通信部13を介して端末2から注視点履歴を取得し、記憶部12の注視点履歴DB122に記憶する。また、第2取得部112は、検証者の操作に応じて注視点履歴DB122から注視点履歴を取得する。
第3取得部113は、端末2の操作部25に対する点検者の操作の履歴を示す操作履歴を取得する。第3取得部113は、通信部13を介して端末2から操作履歴を取得し、記憶部12の操作履歴DB123に記憶する。また、第3取得部113は、検証者の操作に応じて操作履歴DB123から操作履歴を取得する。
抽出部115は、第3取得部113が取得した操作履歴から点検の項目ごとに対応する操作を抽出する。
表示制御部117は、取得した表示履歴及び注視点履歴に基づいて、抽出された操作に応じた期間における注視点を示す図形を、この期間に端末2の表示部24の表示画面に表示された画像に重ねて表示部14に表示させる。
第4取得部114は、点検の対象となる画像において操作ごとに対応付けられた領域を示す領域情報を取得する。例えば、第4取得部114は、図11に示す通り、点検項目DB124及びガイド領域DB125を参照して、点検の項目ごとにどの画像のどの領域を注視すべきであるかを示す領域情報を取得する。この場合、表示制御部117は、取得した領域情報により示される領域を、上述した操作に応じた期間に表示された画像に重ねて表示させる。
評価部116は、表示部14により表示される領域と、注視点とに基づいて、点検者による点検を評価する。
例えば、評価部116は、注視点が領域の内側に存在した時間が長いほど、点検者による点検を高く評価してもよい。
なお、制御部11が評価部116として機能する場合、表示制御部117は、評価部116による評価の結果に応じて画像を表示させてもよい。
例えば、表示制御部117は、評価部116による評価の結果が高評価である点検項目ほど、これに対応する画像を表示する順序を先にしてもよい。すなわち、表示制御部117は、評価部116による評価の結果に応じて検証者が検証する点検項目の順序を並べ替えてもよい。
また、例えば、表示制御部117は、評価部116による評価の結果が閾値を下回る低評価である場合には、その点検項目に対応する画像に警告を示す文字や図形を重ねて表示してもよい。また、表示制御部117は、評価部116による評価の結果が閾値を超える高評価である場合には、その点検項目に対応する画像の表示を行わなくてもよい。
図12は、表示装置1により検証者に表示される画像の例を示す図である。表示装置1の制御部11は、表示履歴、注視点履歴、及び操作履歴を取得し、操作履歴から点検項目ごとに対応する操作を抽出する。そして、制御部11は、表示履歴に基づいてこの操作が行われた期間に端末2において表示されていた画像の画像IDとその画像が表示されていた位置(表示位置)とを特定し、表示部14において、この画像をこの表示位置に表示させる。
また、制御部11は、注視点履歴に基づいて上述の操作が行われた期間に点検者が注視していた表示部24の表示画面のおける注視点を特定し、この注視点を示す図形を表示部14に表示させる。
また、制御部11は、記憶部12の点検項目DB124及びガイド領域DB125から点検項目ごとのガイドデータを取得し、上述した画像に重ねてこのガイドデータで示されるガイドを表示部14に表示させる。
図12に示す例では、端末2において点検項目ID「chk101」の点検が行われたときに表示されていた画像と注視点とが再現されている。図8に示す時刻「2016/11/16 09:41:30」に点検者は、点検項目ID「chk101」の点検結果として「承認」を操作している。このとき、表示位置「x1,y1」には画像ID「doc001」の画像が、表示位置「x2,y2」には画像ID「doc002」の画像が、それぞれ表示されている。そして、上述の「承認」の操作をする前の「2016/11/16 09:39:10」に点検者は、注視点「x3,y3」を見ている。
また、上述した点検項目ID「chk101」に対応するガイドの識別情報はガイドID「g201」であり、表示位置「rx1,ry1」に表示される。
1−6.表示装置の動作
図13は、表示装置1の動作の流れを説明するフロー図である。表示装置1の制御部11は、操作履歴を取得して(ステップS101)、この操作履歴に抽出すべき操作が残っているか否か判断する(ステップS102)。抽出すべき操作が残っていないと判断する場合(ステップS102;NO)、制御部11は処理を終了する。
図13は、表示装置1の動作の流れを説明するフロー図である。表示装置1の制御部11は、操作履歴を取得して(ステップS101)、この操作履歴に抽出すべき操作が残っているか否か判断する(ステップS102)。抽出すべき操作が残っていないと判断する場合(ステップS102;NO)、制御部11は処理を終了する。
一方、抽出すべき操作が操作履歴に残っていると判断する場合(ステップS102;YES)、制御部11は、操作履歴から点検項目ごとの操作を抽出する(ステップS103)。
制御部11は、表示履歴を取得して(ステップS104)、この表示履歴に基づき、上述した操作が行われた期間に端末2において表示されていた画像を表示部14に表示させる(ステップS105)。
制御部11は、記憶部12から上述した操作が対象とする点検項目に対応付けられたガイドを取得し(ステップS106)、このガイドを表示部14に表示させる(ステップS107)。
制御部11は、注視点履歴を取得して(ステップS108)、上述した操作が行われた期間に点検者が注視していた注視点を表示部14に表示させる(ステップS109)。
制御部11は、上述した期間が終了するか否か判断し(ステップS110)、この期間が終了していないと判断する間は(ステップS110;NO)、ステップS109に戻って注視点を表示させる。これにより、この期間における注視点に動きがあれば、その動きが再現される。一方、この期間が終了したと判断すると(ステップS110;YES)、制御部11は、ステップS102に制御を戻す。これにより操作履歴に未抽出の操作が残っている間は、それぞれの操作ごとに表示されていた画像と注視点の動き、及びガイドが表示される。
以上の動作により、表示システム9の表示装置1は、点検者が行った点検の項目ごとに、その点検の期間に表示されていた画像と点検者が注視していた位置を表示するので、検証者は、点検者による点検が正確に行われていたか否かの検証をしやすくなる。また、点検項目に応じたガイドを表示させる場合、検証者はこのガイドを参考にして検証する。
なお、上述した期間における点検者の注視点の動きを再現する必要がない場合、制御部11は、ステップS110の判断を行わなくてもよい。この場合、表示部14には、点検項目ごとの操作の期間に注視点が存在した位置が重ねて表示される。
また、表示装置1の制御部11は、ガイドが表示される領域と注視点とに基づいて点検者の点検を評価し、評価結果を表示部14に表示させてもよい。
図14は、制御部11が点検者の点検を高く評価する場合の表示の例を示す図である。点検項目ID「chk104」の点検は、図9に示す通り、金額が稟議金額に一致するか否かを点検するものである。この点検に対して図10に示す通り、ガイドID「g205」及び「g206」のガイドが用意されている。これにより、図14に示す通り、表示装置1の表示部14には、ガイドID「g205」及び「g206」の2つのガイドが表示される。これら2つのガイドは、それぞれの内側に記載された金額が一致しているか否かを点検者が点検すべきであったことを検証者に伝える。
図14に示す注視点は、上述した2つのガイドの外側よりも内側に多く含まれている。これは、点検が行われた期間にわたって、注視点がガイドの示す領域の内側に存在した時間が、外側に存在した時間よりも長いことを意味する。したがって、点検者はこの点検の際に注視すべき領域を注視していた可能性が高い。表示装置1は、このガイドと注視点との関係からこの点検を高く評価し、例えば、図14に示す通り、「正しく点検された可能性が高いです」というコメントC1を表示する。
一方、図15は、制御部11が点検者の点検を低く評価する場合の表示の例を示す図である。図15に示す注視点は、全てが上述した2つのガイドの外側に存在している。したがって、点検者はこの点検の際に注視すべき領域を注視していなかった可能性が高い。表示装置1は、このガイドと注視点との関係からこの点検を低く評価し、例えば、図15に示す通り、「警告:点検が誤っている可能性があります」というコメントC2を表示する。
この表示を参考にすることにより検証者は、注視点がガイドの示す領域から閾値を超えて離れているときには、注視点がガイドの示す領域に含まれている場合に比べて注意して点検の検証を行うので、検証者の負担が軽減する。
2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組合せてもよい。
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組合せてもよい。
2−1.変形例1
上述した実施形態において、表示システム9の表示装置1は、端末2から通信回線4を介して直接、表示履歴、注視点履歴、及び操作履歴を取得していたが、他の装置を仲介してこれらを取得してもよい。例えば、図1に破線で示す通り、表示システム9は、表示装置1及び端末2に接続し、端末2における操作の履歴を蓄積して表示装置1に提供するサーバ装置5を有してもよい。
上述した実施形態において、表示システム9の表示装置1は、端末2から通信回線4を介して直接、表示履歴、注視点履歴、及び操作履歴を取得していたが、他の装置を仲介してこれらを取得してもよい。例えば、図1に破線で示す通り、表示システム9は、表示装置1及び端末2に接続し、端末2における操作の履歴を蓄積して表示装置1に提供するサーバ装置5を有してもよい。
図16は、サーバ装置5の構成の例を示す図である。図16に示すサーバ装置5は、制御部51、記憶部52、及び通信部53を有する。これらの機能はそれぞれ、上述した実施形態における表示装置1の、制御部11、記憶部12、及び通信部13に相当する。
また、記憶部52は、表示履歴DB521、注視点履歴DB522、及び操作履歴DB523を記憶する。これらはそれぞれ、上述した実施形態における記憶部12に記憶される表示履歴DB121、注視点履歴DB122、及び操作履歴DB123に相当する。記憶部52がこれらのデータベースを記憶する場合、表示装置1の記憶部12は、これらのデータベースを記憶しなくてもよい。
図17は、変形例1における表示装置1の機能的構成を示す図である。サーバ装置5の制御部51は、記憶部52に記憶されたプログラムを実行することにより、第1取得部511、第2取得部512、第3取得部513、及び抽出部515として機能する。これらは、図11に示した第1取得部111、第2取得部112、第3取得部113、及び抽出部115の機能をサーバ装置5の制御部51が実現するものである。
この場合、サーバ装置5の制御部51は、取得した操作履歴から点検項目ごとの操作を抽出し、それぞれの操作に応じた期間において端末2が表示していた画像と、点検者が注視していた注視点とを、取得した表示履歴及び注視点履歴に基づいて特定して、これらを示す情報を表示装置1の制御部11に送る。
表示装置1の制御部11は、上述した期間において端末2で表示されていた画像に重ねて点検者の注視点を示す図形を表示部14に表示させる表示制御部117として機能する。すなわち、この変形例では、実施形態に示した制御部11の機能のうち、一部が制御部51により実現される。
この変形例において、表示システム9は、表示画面を有する端末2、端末2と通信するサーバ装置5、及びサーバ装置5と通信する表示装置1を有し、サーバ装置5は、端末2の表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部511と、表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部512と、端末2に対する点検者の操作の履歴を示す操作履歴を取得する第3取得部513と、操作履歴から操作を抽出する抽出部515と、を有する。また、この変形例において、表示装置1は、表示履歴及び注視点履歴に基づいて、抽出された操作に応じた期間における注視点を示す図形を、この期間に表示画面に表示された画像に重ねて表示部に表示させる表示制御部117を有する。
なお、制御部11は、サーバ装置5に対して点検項目ごとの操作を示す情報と、その操作に対応する上述した画像及び注視点の情報を要求する要求部118として機能してもよい。この場合、抽出部515は、要求部118の要求に応じて、操作を抽出し、抽出した操作を示す情報を表示装置1に提供すればよい。
また、この場合にも、図17に示す通り、制御部11は、第4取得部114及び評価部116として機能してもよい。
2−2.変形例2
上述した実施形態において、領域情報を取得する第4取得部114として機能していたが、この第4取得部114としての機能はなくてもよい。
上述した実施形態において、領域情報を取得する第4取得部114として機能していたが、この第4取得部114としての機能はなくてもよい。
例えば、検証者が点検内容について熟知している場合等において、表示装置1は、ガイドを表示しなくてもよい。この場合、制御部11は、第4取得部114として機能しなくてもよく、記憶部12は、点検項目DB124及びガイド領域DB125を記憶しなくてもよい。そして、制御部11は、図13に示したステップS106及びステップS107を行わなくてもよい。
2−3.変形例3
上述した実施形態において、表示装置1の制御部11は、第4取得部114により取得された領域情報により示される領域であって、表示部14により表示される領域と、注視点とに基づいて、点検者による点検を評価する評価部116として機能していたが、評価部116としての機能はなくてもよい。
上述した実施形態において、表示装置1の制御部11は、第4取得部114により取得された領域情報により示される領域であって、表示部14により表示される領域と、注視点とに基づいて、点検者による点検を評価する評価部116として機能していたが、評価部116としての機能はなくてもよい。
2−4.変形例4
上述した実施形態において、注視点が領域の内側に存在した時間が長いほど、点検者による点検を高く評価する評価部116の例を挙げたが、評価部116による評価の基準はこれに限られない。例えば、注視点が領域の内側に存在しているときの注視点の移動速度及び加速度が決められた条件を満たしている場合に、評価部116は、点検者による点検を高く評価してもよい。
上述した実施形態において、注視点が領域の内側に存在した時間が長いほど、点検者による点検を高く評価する評価部116の例を挙げたが、評価部116による評価の基準はこれに限られない。例えば、注視点が領域の内側に存在しているときの注視点の移動速度及び加速度が決められた条件を満たしている場合に、評価部116は、点検者による点検を高く評価してもよい。
なお、表示制御部117は、点検者の視線が注がれた時間に応じた態様で注視点を示す図形を表示させてもよい。例えば、点検者の視線が注がれた時間が長いほど、その視線が注がれた注視点を示す図形の色を濃くして表示部14に表示させてもよい。
2−5.変形例5
上述した実施形態において、表示制御部117は、評価部116による評価の結果に応じて画像を表示させていたが、制御部11は、画像の表示以外の方法で、評価部116による評価の結果に応じた情報を点検者に対して提示してもよい。例えば、表示装置1はスピーカ等の音声を出力する装置を有しており、制御部11は、評価部116による評価の結果に応じた音声を出力させてもよい。
上述した実施形態において、表示制御部117は、評価部116による評価の結果に応じて画像を表示させていたが、制御部11は、画像の表示以外の方法で、評価部116による評価の結果に応じた情報を点検者に対して提示してもよい。例えば、表示装置1はスピーカ等の音声を出力する装置を有しており、制御部11は、評価部116による評価の結果に応じた音声を出力させてもよい。
2−6.変形例6
上述した実施形態において、表示装置1と端末2とは別体であったが、端末2の機能を表示装置1が有していてもよい。
上述した実施形態において、表示装置1と端末2とは別体であったが、端末2の機能を表示装置1が有していてもよい。
2−7.変形例7
表示装置1の制御部11によって実行されるプログラムは、磁気テープや磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上記の制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
表示装置1の制御部11によって実行されるプログラムは、磁気テープや磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上記の制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
1…表示装置、11…制御部、111…第1取得部、112…第2取得部、113…第3取得部、114…第4取得部、115…抽出部、116…評価部、117…表示制御部、118…要求部、12…記憶部、121…表示履歴DB、122…注視点履歴DB、123…操作履歴DB、124…点検項目DB、125…ガイド領域DB、13…通信部、14…表示部、15…操作部、2…端末、21…制御部、22…記憶部、221…画像DB、23…通信部、24…表示部、25…操作部、26…検出部、3…画像読取装置、31…制御部、32…記憶部、33…通信部、34…表示部、35…操作部、36…読取部、4…通信回線、5…サーバ装置、51…制御部、511…第1取得部、512…第2取得部、513…第3取得部、515…抽出部、52…記憶部、521…表示履歴DB、522…注視点履歴DB、523…操作履歴DB、53…通信部、9…表示システム、C1…コメント、C2…コメント。
Claims (7)
- 端末の表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、
前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、
前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、
前記操作履歴から操作を抽出する抽出部と、
前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて表示部に表示させる表示制御部と、
を有する表示装置。 - 前記画像において前記操作ごとに対応付けられた領域を示す領域情報を取得する第4取得部、を有し、
前記表示制御部は、前記操作ごとに対応付けられた前記領域を、該操作に応じた期間に表示された前記画像に重ねて表示させる
ことを特徴とする請求項1に記載の表示装置。 - 前記表示部により表示される前記領域と、前記注視点とに基づいて、前記点検者による点検を評価する評価部、
を有することを特徴とする請求項2に記載の表示装置。 - 前記評価部は、前記注視点が前記領域の内側に存在した時間が長いほど前記点検を高く評価する
ことを特徴とする請求項3に記載の表示装置。 - 前記表示制御部は、前記評価部による評価の結果に応じて前記画像を表示させる
ことを特徴とする請求項3又は4に記載の表示装置。 - 表示画面を有する端末、該端末と通信するサーバ装置、及び該サーバ装置と通信する表示装置を有し、
前記サーバ装置は、
前記表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、
前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、
前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、
前記操作履歴から操作を抽出する抽出部と、を有し、
前記表示装置は、
前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて表示部に表示させる表示制御部
を有する表示システム。 - 表示部を有するコンピュータを、
端末の表示画面に表示された画像の履歴を示す表示履歴を取得する第1取得部と、
前記表示画面に注がれた点検者の注視点の履歴を示す注視点履歴を取得する第2取得部と、
前記端末に対する前記点検者の操作の履歴を示す操作履歴を取得する第3取得部と、
前記操作履歴から操作を抽出する抽出部と、
前記表示履歴及び前記注視点履歴に基づいて、抽出された前記操作に応じた期間における前記注視点を示す図形を、該期間に前記表示画面に表示された前記画像に重ねて前記表示部に表示させる表示制御部
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042727A JP2018147289A (ja) | 2017-03-07 | 2017-03-07 | 表示装置、表示システム及びプログラム |
US15/796,864 US20180261182A1 (en) | 2017-03-07 | 2017-10-30 | Display apparatus, display system, and non-transitory computer readable medium storing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042727A JP2018147289A (ja) | 2017-03-07 | 2017-03-07 | 表示装置、表示システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147289A true JP2018147289A (ja) | 2018-09-20 |
Family
ID=63444978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042727A Pending JP2018147289A (ja) | 2017-03-07 | 2017-03-07 | 表示装置、表示システム及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180261182A1 (ja) |
JP (1) | JP2018147289A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021002114A (ja) * | 2019-06-20 | 2021-01-07 | コニカミノルタ株式会社 | 支援システム、支援方法および支援プログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114071150B (zh) | 2020-07-31 | 2023-06-16 | 京东方科技集团股份有限公司 | 图像压缩方法及装置、图像显示方法及装置和介质 |
JP7547843B2 (ja) * | 2020-08-03 | 2024-09-10 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及びプログラム |
CN115826766B (zh) * | 2023-02-16 | 2023-04-21 | 北京睛采智能科技有限公司 | 基于显示模拟器的眼动目标获取装置、方法和系统 |
-
2017
- 2017-03-07 JP JP2017042727A patent/JP2018147289A/ja active Pending
- 2017-10-30 US US15/796,864 patent/US20180261182A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021002114A (ja) * | 2019-06-20 | 2021-01-07 | コニカミノルタ株式会社 | 支援システム、支援方法および支援プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180261182A1 (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018147289A (ja) | 表示装置、表示システム及びプログラム | |
US9111255B2 (en) | Methods, apparatuses and computer program products for determining shared friends of individuals | |
EP2905680B1 (en) | Information processing apparatus, information processing method, and program | |
CN105009034B (zh) | 信息处理设备、信息处理方法和程序 | |
US11017257B2 (en) | Information processing device, information processing method, and program | |
US20150215674A1 (en) | Interactive streaming video | |
JP2015153195A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
JP2017162103A (ja) | 点検作業支援システム、点検作業支援方法、点検作業支援プログラム | |
CN103608761A (zh) | 输入设备、输入方法以及记录介质 | |
JPWO2018066102A1 (ja) | 情報提供システム、情報提供装置、情報提供方法、及びプログラム | |
JP5694890B2 (ja) | 注視領域データ生成装置およびその動作方法 | |
JP2015114798A (ja) | 情報処理装置および情報処理方法、プログラム | |
JP5601142B2 (ja) | 画像表示装置、画像表示方法及びプログラム | |
US11335044B2 (en) | Display system of a wearable terminal, display method of the wearable terminal, and program | |
JP2017032870A (ja) | 画像投影装置及び画像表示システム | |
KR101856939B1 (ko) | 안구운동 데이터 제공 시스템 | |
JP2016062564A (ja) | 情報処理装置及び情報処理プログラム | |
US10296280B2 (en) | Captured image sharing system, captured image sharing method and program | |
JP2022095402A (ja) | 情報処理装置 | |
US10976912B2 (en) | Information processing device, information processing method, and recording medium | |
US20180292980A1 (en) | System, information processing method, and storage medium | |
CN110895458A (zh) | 信息处理方法及装置、非临时性计算机可读存储介质 | |
JP2024111956A (ja) | 情報処理システム及びその制御方法、プログラム | |
JP2024111955A (ja) | 情報処理システム及びその制御方法、プログラム |