JP6598316B2 - 表示方法、表示装置およびプログラム - Google Patents
表示方法、表示装置およびプログラム Download PDFInfo
- Publication number
- JP6598316B2 JP6598316B2 JP2017552555A JP2017552555A JP6598316B2 JP 6598316 B2 JP6598316 B2 JP 6598316B2 JP 2017552555 A JP2017552555 A JP 2017552555A JP 2017552555 A JP2017552555 A JP 2017552555A JP 6598316 B2 JP6598316 B2 JP 6598316B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- input
- location
- unit
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
以下、図面を参照して本発明の第1の実施形態について説明する。図1は第1の実施形態の構成を示すシステム図である。図1に示した表示装置1は、表示部2と、検出部3と、処理部4とを備える。
以下、図面を参照して本発明の第2の実施形態について説明する。図9は第2の実施形態の構成を示すシステム図である。図9に示した表示装置1aは、表示部2と、判別部5と、処理部A41と、処理部B42とを備える。判別部5と、処理部A41と、処理部B42とを組み合わせたものが、図1に示した第1の実施形態の処理部4に対応する構成である。判別部5、処理部A41、および処理部B42は、例えば同一のまたは異なるCPUと記憶装置とを用いて構成され、CPUによって所定のプログラムを実行することで動作する。
本発明の第3の実施形態は、構成が図9に示した第2の実施形態の表示装置1aと同一であり、動作が第2の実施形態と異なる。ただし、第3の実施形態では、図9に示した検出部3が、タッチセンサとカメラとから構成されている。第3の実施形態は、検出部3を構成するタッチセンサとカメラとを用いて汚損を検出する。第3の実施形態は、例えば、タッチセンサで検出できない汚損をカメラを用いて検出することで検出精度を向上させることができる。また、第3の実施形態は、汚損の有無に加えて汚損のレベルを管理する機能を備える。
図20から図29を参照して本発明の第4の実施形態について説明する。図20は第4の実施形態の構成例を示すシステム図である。図20に示した表示装置1cは、表示部2bと、判別部5bと、処理部A41bと、処理部B42bと、処理部M43とを備える。判別部5bと、処理部A41bと、処理部B42bと、処理部M43とを組み合わせたものが、図1に示した第1の実施形態の処理部4に対応する構成である。判別部5b、処理部A41b、処理部B42b、および処理部M43は、例えば同一のまたは異なるCPUと記憶装置とを用いて構成され、CPUによって所定のプログラムを実行することで動作する。
図35は、上述した第1の実施形態から第4の実施形態およびそれらの変形例の基本構成の例を示す。図35(A)に示した各実施形態の基本構成の一例である表示装置200は、処理部201を少なくとも備える。ただし、表示装置200は、入力表示部202を備えていてもよい。入力表示部202は、入力表示面を備え、ユーザーの入力表示面への操作を入力するための入力部の機能と、入力表示面に画像を表示するための表示部の機能とを有する。なお、入力表示部202の入力表示面は、透過型で画像を表示するものであってもよいし、反射型で画像を表示するものであってもよい。処理部201は、入力表示部202の汚損を検出する汚損検出ステップと、検出した汚損の位置に対応する入力表示部202の第1箇所に所定の表示をする汚損箇所表示ステップとを実行する。また、処理部201は、入力表示部202に対する入力操作を検知するステップを実行し、入力操作が第1箇所以外の第2箇所で検知されたときに、入力操作に応じた処理を行うことができる。
202…入力表示部
2、2b…表示部
2a…表示画面
3…検出部
4、201…処理部
41、41a、41b、41c…処理部A
42、42a、42b、42c…処理部B
43、43c…処理部M
5、5b、5c…判別部
80…汚損
81…模様
Claims (24)
- 入力表示部に対する入力を検知する検知ステップと、
ユーザが前記入力表示部に対する入力操作をしていない無操作時の前記検知ステップにより、前記入力表示部の汚損を検出する汚損検出ステップと、
前記検出した汚損の位置に対応する前記入力表示部の第1箇所に所定の表示をする汚損箇所表示ステップと、
を含み、
前記無操作時に前記検知ステップにより検知される、前記第1箇所に対する前記入力に応じた処理をしない、
表示方法。 - 前記無操作時でない時に前記検知ステップにより検知される、前記第1箇所に対する前記入力に応じた処理をしない
請求項1に記載の表示方法。 - ユーザが入力操作を行っているか否かを判定するステップをさらに含み、
ユーザ入力操作を行っていないことを検出した場合に、前記汚損検出ステップにより汚損された箇所を検出する
請求項1または請求項2に記載の表示方法。 - 前記第1箇所の表示が、汚染箇所の周りを縁取るパターンである
請求項1から3のいずれか1項に記載の表示方法。 - 前記入力表示部におけるコンテンツの表示を、前記第1箇所に重ならない位置に変更するステップをさらに含む
請求項1から4いずれか1項に記載の表示方法。 - 前記汚損のレベルである汚損レベルが複数段階に設定されており、
タッチセンサ及びカメラの各々を用いた汚損の検出結果により、前記汚損レベルを判別するステップをさらに含む
請求項1から5いずれか1項に記載の表示方法。 - 前記入力表示部に対する入力操作を検知するステップをさらに含み、
前記入力操作が前記第1箇所以外の第2箇所で検知されたときに、前記入力操作に応じた処理を行う
請求項1から6いずれか1項に記載の表示方法。 - 前記入力操作が前記第1箇所を拭き取る操作である場合に、前記所定の表示を変更する汚損箇所表示変更ステップをさらに含む
請求項1から7いずれか1項に記載の表示方法。 - 前記所定の表示を変更した後に、再び、前記汚損検出ステップと前記汚損箇所表示ステップとを実行する
請求項8に記載の表示方法。 - 前記入力操作が行われているか否かを判定するステップをさらに含み、
前記入力操作が行われていないと判定された場合に、前記汚損検出ステップと前記汚損箇所表示ステップとを実行する
請求項7から9のいずれか1項に記載の表示方法。 - 前記汚損検出ステップにおいて、前記無操作時における前記入力表示部に対する入力によって前記汚損を検出する
請求項1から10のいずれか1項に記載の表示方法。 - 前記汚損検出ステップは、所定の時刻になった若しくは所定の時間を経過したとき又は所定の動作を行ったときに実行される
請求項1から11のいずれか1項に記載の表示方法。 - 前記所定の表示は、前記第1箇所を可視化する表示である
請求項1から12のいずれか1項に記載の表示方法。 - 前記汚損箇所表示変更ステップにおいて、前記所定の表示の少なくとも一部の明るさ若しくは色又はそれらの両方を変更する
請求項8または9に記載の表示方法。 - 入力表示部に対する入力を検知し、
ユーザが前記入力表示部に対する入力操作をしていない無操作時の入力を検知することにより、前記入力表示部の汚損を検出し、
前記検出した汚損の位置に対応する前記入力表示部の第1箇所に所定の表示をし、
前記無操作時に検知される、前記第1箇所に対する前記入力に応じた処理をしない処理部
を備える表示装置。 - 前記処理部は、
前記入力表示部に対する入力操作を検知し、
前記入力操作が前記第1箇所以外の第2箇所で検知されたときに、前記入力操作に応じた処理を行う
請求項15に記載の表示装置。 - 前記処理部は、
前記入力操作が前記第1箇所で検知されたときに、前記入力操作に応じた処理をしない 請求項16に記載の表示装置。 - 前記処理部は、さらに、
前記入力操作が前記第1箇所を拭き取る操作である場合に、前記所定の表示を変更する 請求項16または17に記載の表示装置。 - 前記処理部は、
前記所定の表示を変更した後に、再び、
前記入力表示部の汚損を検出し、
前記検出した汚損の位置に対応する前記入力表示部の第1箇所に所定の表示をする
請求項18に記載の表示装置。 - 入力表示部に対する入力を検知し、
ユーザが前記入力表示部に対する入力操作をしていない無操作時の入力を検知することにより、前記入力表示部の汚損を検出し、
前記検出した汚損の位置に対応する前記入力表示部の第1箇所に所定の表示をし、
前記無操作時に検知される、前記第1箇所に対する前記入力に応じた処理をしない 処理部によって
制御される表示装置。 - 前記処理部は、さらに、
前記入力表示部に対する入力操作を検知し、
前記入力操作が前記第1箇所以外の第2箇所で検知されたときに、前記入力操作に応じた処理を行う
請求項20に記載の表示装置。 - 前記処理部は、
前記入力操作が前記第1箇所で検知されたときに、前記入力操作に応じた処理をしない 請求項21に記載の表示装置。 - 前記処理部は、さらに、
前記入力操作が前記第1箇所を拭き取る操作である場合に、前記所定の表示を変更する 請求項21または22に記載の表示装置。 - 入力表示部に対する入力を検知する検知ステップと、
ユーザが前記入力表示部に対する入力操作をしていない無操作時の前記検知ステップにより、前記入力表示部の汚損を検出する汚損検出ステップと、
前記検出した汚損の位置に対応する前記入力表示部の第1箇所に所定の表示をする汚損箇所表示ステップと、
前記無操作時に前記検知ステップにより検知される、前記第1箇所に対する前記入力に応じた処理をしないステップと
をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/082878 WO2017090081A1 (ja) | 2015-11-24 | 2015-11-24 | 表示方法、表示装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017090081A1 JPWO2017090081A1 (ja) | 2018-06-28 |
JP6598316B2 true JP6598316B2 (ja) | 2019-10-30 |
Family
ID=58763120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552555A Active JP6598316B2 (ja) | 2015-11-24 | 2015-11-24 | 表示方法、表示装置およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10606473B2 (ja) |
JP (1) | JP6598316B2 (ja) |
WO (1) | WO2017090081A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019175971A1 (ja) * | 2018-03-13 | 2019-09-19 | Necディスプレイソリューションズ株式会社 | 映像制御装置及び映像制御方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010129026A (ja) * | 2008-12-01 | 2010-06-10 | Panasonic Corp | 入力装置 |
JP2010205012A (ja) | 2009-03-04 | 2010-09-16 | Brother Ind Ltd | 制御装置、制御方法及び制御処理プログラム |
JP2010237599A (ja) * | 2009-03-31 | 2010-10-21 | Brother Ind Ltd | 表示装置、表示態様決定方法、及び表示処理プログラム |
JP2011044094A (ja) * | 2009-08-24 | 2011-03-03 | Sharp Corp | 表示装置 |
JP2011065362A (ja) * | 2009-09-16 | 2011-03-31 | Canon Inc | 電子機器 |
JP5024397B2 (ja) * | 2010-01-29 | 2012-09-12 | ブラザー工業株式会社 | 入力装置及び入力制御プログラム |
JP5830935B2 (ja) * | 2011-05-27 | 2015-12-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP2013019932A (ja) | 2011-07-07 | 2013-01-31 | Konica Minolta Business Technologies Inc | 画像処理装置、表示制御方法および表示制御プログラム |
JP2013132042A (ja) * | 2011-11-25 | 2013-07-04 | Ricoh Co Ltd | 画像検査装置、画像形成装置、画像検査方法及びプログラム |
WO2015012128A1 (ja) * | 2013-07-26 | 2015-01-29 | シャープ株式会社 | タッチパネルシステム及び電子情報機器 |
-
2015
- 2015-11-24 US US15/753,936 patent/US10606473B2/en active Active
- 2015-11-24 WO PCT/JP2015/082878 patent/WO2017090081A1/ja active Application Filing
- 2015-11-24 JP JP2017552555A patent/JP6598316B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20180239528A1 (en) | 2018-08-23 |
US10606473B2 (en) | 2020-03-31 |
JPWO2017090081A1 (ja) | 2018-06-28 |
WO2017090081A1 (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8553000B2 (en) | Input apparatus that accurately determines input operation, control method for input apparatus, and storage medium | |
US7489307B2 (en) | Handwritten information input apparatus | |
JP5589909B2 (ja) | 表示装置、表示装置のイベント切替え制御方法及びプログラム | |
JP5754376B2 (ja) | 携帯情報端末 | |
KR20150012300A (ko) | 터치 스크린의 오조작 방지방법, 터치 스크린, 이동단말장치, 프로그램 및 기록매체 | |
JP2010055510A (ja) | 情報処理装置及び情報処理方法 | |
JP2010530578A5 (ja) | ||
JP2009151718A (ja) | 情報処理装置および表示制御方法 | |
TWI540491B (zh) | 觸控面板之虛擬按鍵的設定與偵測方法 | |
JP6399834B2 (ja) | 情報処理装置、情報処理装置の制御方法、及びプログラム | |
JP2015043135A (ja) | 情報処理装置 | |
JP2007172303A (ja) | 情報入力システム | |
JP2009283013A (ja) | 情報処理装置および表示制御方法 | |
JP2015088180A (ja) | 電子機器、その制御方法、及び制御プログラム | |
WO2012144235A1 (ja) | タッチパネル装置 | |
JP6598316B2 (ja) | 表示方法、表示装置およびプログラム | |
JP5516128B2 (ja) | 入力装置および入力制御プログラム | |
JP2010165174A (ja) | 表示装置 | |
JP2017076222A5 (ja) | ||
JP2010272036A (ja) | 画像処理装置 | |
JP2016103214A (ja) | タッチパネル装置及び画像表示方法 | |
CN112558844B (zh) | 一种基于平板电脑的医疗影像阅片方法及系统 | |
JP2015090648A (ja) | 電子機器 | |
JP6264423B2 (ja) | タッチ処理装置及びプログラム | |
JP2008242881A (ja) | 入力装置及び入力プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6598316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |