JP2017041106A - 画像処理装置、表示装置および電子機器 - Google Patents

画像処理装置、表示装置および電子機器 Download PDF

Info

Publication number
JP2017041106A
JP2017041106A JP2015162425A JP2015162425A JP2017041106A JP 2017041106 A JP2017041106 A JP 2017041106A JP 2015162425 A JP2015162425 A JP 2015162425A JP 2015162425 A JP2015162425 A JP 2015162425A JP 2017041106 A JP2017041106 A JP 2017041106A
Authority
JP
Japan
Prior art keywords
image processing
unit
stress
image
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015162425A
Other languages
English (en)
Other versions
JP2017041106A5 (ja
JP6500180B2 (ja
Inventor
陽平 船津
Yohei Funatsu
陽平 船津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Joled Inc
Original Assignee
Joled Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Joled Inc filed Critical Joled Inc
Priority to JP2015162425A priority Critical patent/JP6500180B2/ja
Priority to US15/236,965 priority patent/US9971445B2/en
Publication of JP2017041106A publication Critical patent/JP2017041106A/ja
Publication of JP2017041106A5 publication Critical patent/JP2017041106A5/ja
Application granted granted Critical
Publication of JP6500180B2 publication Critical patent/JP6500180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Hardware Design (AREA)

Abstract

【課題】画像表示の際の臨場感を向上させることが可能な画像処理装置、表示装置および電子機器を提供する。
【解決手段】画像処理装置12は、ユーザによる表示部10への接触における接触位置や応力値の分布、応力勾配などの接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部121を備えている。この画像処理部121では、立体感強調処理部121Aが幾何変換処理により立体感を強調し、コントラスト強調処理部121Cがコントラストおよび彩度を強調する処理を行う。
【選択図】図1

Description

本開示は、画像信号に対して画像処理を行う画像処理装置、ならびに、そのような画像処理装置を備えた表示装置および電子機器に関する。
従来、各種の表示装置、および、そのような表示装置に適用される画像処理装置が提案されている(例えば、特許文献1)。
米国特許出願公開第2003/0207946号明細書
ところで、表示装置では一般に、画像表示の際の臨場感を向上させることが求められている。したがって、そのような画像表示の際の臨場感を向上させる手法の提案が望まれる。
本開示はかかる問題点に鑑みてなされたもので、その目的は、画像表示の際の臨場感を向上させることが可能な画像処理装置、表示装置および電子機器を提供することにある。
本開示の画像処理装置は、ユーザによる表示部への接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部を備えたものである。この画像処理部は、上記画像処理として、上記接触態様に連動した画像信号の強調処理を行う。
本開示の表示装置は、表示部と、ユーザによる表示部への接触態様を検知する検知部と、この検知部による接触態様の検知結果に基づいて画像信号に対する画像処理を行う上記本開示の画像処理部とを備えたものである。
本開示の電子機器は、上記本開示の表示装置を備えたものである。
本開示の画像処理装置、表示装置および電子機器では、ユーザによる表示部への接触態様に連動した画像信号の強調処理がなされることにより、画像強調が直感的に把握できるようになる。
本開示の画像処理装置、表示装置および電子機器によれば、ユーザによる表示部への接触態様に連動した画像信号の強調処理を行うようにしたので、画像強調が直感的に把握できるようになる。よって、画像表示の際の臨場感を向上させることが可能となる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。
本開示の一実施の形態に係る表示装置の概略構成例を表すブロック図である。 図1に示した解析部の詳細構成例を表すブロック図である。 図2における応力分布の一例を表す模式図である。 図2における極大値分布の一例を表す模式図である。 図2における低周波成分分布の一例を表す模式図である。 図2における接触強度の一例を表す模式図である。 図2における応力勾配の算出手法の一例を表す模式図である。 図2における応力勾配の算出手法の他の例を表す模式図である。 図2における応力勾配の算出手法の更に他の例を表す模式図である。 図2における接触態様の種別の判定手法の一例を表す模式図である。 図1における立体感の強調処理の一例を表す模式図である。 図1における輝度コントラストの強調処理の一例を表す模式図である。 図1における彩度コントラストの強調処理の一例を表す模式図である。 変形例1に係る画像処理部の概略構成例を表すブロック図である。 変形例2に係る画像処理部の概略構成例を表すブロック図である。 変形例3に係る画像処理部の概略構成例を表すブロック図である。 適用例に係る電子機器の概略構成例を表すブロック図である。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.実施の形態(立体感,コントラストの強調処理および精細度補正を行う場合の例)
2.変形例
変形例1(立体感,コントラストの強調処理を行う場合の例)
変形例2(立体感の強調処理および精細度補正を行う場合の例)
変形例3(立体感の強調処理を行う場合の例)
3.適用例(実施の形態,変形例1〜3に係る表示装置等の電子機器への適用例)
4.その他の変形例
<1.実施の形態>
[全体構成例]
図1は、本開示の一実施の形態に係る表示装置(表示装置1)の概略構成例(全体構成例)を、ブロック図で表したものである。この表示装置1は、図1に示したように、表示部(可撓性表示部)10、応力センサ11および画像処理装置12を備えている。なお、画像処理装置12は、本開示における「画像処理装置」の一具体例に対応している。
(表示部10)
表示部10は、後述する画像処理装置12内の画像処理部121から供給される画像信号Sgout(Sg3)に基づいて画像を表示する部分である。また、この例では表示部10は、可撓性を有する可撓性表示部(フレキシブルディスプレイ)となっている。このような表示部10は、例えば、有機EL(Electro Luminescence)素子(有機電界発光素子)等の自発光素子や液晶素子などの表示素子を用いた複数の画素を有している。なお、この表示部10は、本開示における「表示部」の一具体例に対応している。
(応力センサ11)
応力センサ11は、表示部10において発生する応力を検知するセンサであり、各種方式のものを用いることが可能である。このようにして応力センサ11により検知された応力Dsは、後述する画像処理装置12内の解析部122へ供給されるようになっている。なお、この応力センサ11は、本開示における「応力センサ」の一具体例に対応している。
(画像処理装置12)
画像処理装置12は、図1に示したように、外部から入力される画像信号(入力画像信号)Sginに基づいて所定の画像処理を行うことにより、前述した画像信号(出力画像信号)Sgoutを生成する装置である。画像処理装置12は、この例では、画像信号Sginに基づいて実際に画像処理を行う部分である画像処理部121と、応力センサ11において検知された応力Dsに基づいて所定の解析処理を行う部分である解析部122とを有している。
ここで、画像処理部121は、本開示における「画像処理部」の一具体例に対応している。また、解析部122は、本開示における「解析部」の一具体例に対応し、この解析部122および前述した応力センサ11が、本開示における「検知部(ユーザによる表示部への接触態様を検知する部分)」の一具体例に対応している。
画像処理部121は、図1に示したように、この例では、立体感強調処理部121A、精細度補正部121Bおよびコントラスト強調処理部121Cを有している。この画像処理部121は、詳細は後述するが、表示装置1のユーザによる表示部10への接触態様の検知結果に基づいて、画像信号Sginに対する画像処理を行うものである。具体的には、画像処理部121は、そのような画像処理として、ユーザによる表示部10への接触態様に連動した、画像信号Sginの強調処理を行う。そして、画像処理部121は、ユーザによる接触に起因して表示部10で発生する応力の検知結果(この例では、応力センサ11により検知された応力Ds)を利用して、そのような強調処理を行うようになっている。
立体感強調処理部121Aは、入力された画像信号Sginに対して所定の立体感強調処理を行うことにより、そのような立体感強調処理後の画像信号Sg1を生成して出力するものである。この立体感強調処理とは、詳細は後述するが、画像信号Sginにより表現される画像(映像)における立体感を、ユーザによる表示部10への接触態様に連動して強調する処理である。
精細度補正部121Bは、入力された画像信号Sg1に対して所定の精細度補正処理を行うことにより、そのような精細度補正処理後の画像信号Sg2を生成して出力するものである。この精細度補正処理とは、詳細は後述するが、上記した立体感強調処理に伴う画像の解像度低下(画像信号Sg1により表現される画像において生じる解像度低下)を補正する処理である。
コントラスト強調処理部121Cは、入力された画像信号Sg2に対して所定のコントラスト強調処理を行うことにより、そのようなコントラスト強調処理後の画像信号Sg3(Sgout)を生成して出力するものである。このコントラスト強調処理とは、詳細は後述するが、輝度コントラストおよび彩度コントラストのうちの少なくとも一方(この例では、輝度コントラストおよび彩度コントラストの双方)を、ユーザによる表示部10への接触態様に連動して強調する処理である。
なお、画像処理部121におけるこれらの各画像処理の詳細については、後述する(図9〜図11)。
解析部122は、応力センサ11により検知された応力Dsに基づき、ユーザによる表示部10への接触態様の検知結果Dcを解析する部分である。そのような接触態様の検知結果Dc(解析結果)は、画像処理部121(立体感強調処理部121A、精細度補正部121Bおよびコントラスト強調処理部121Cの各々)へ出力されるようになっている。
[解析部122の詳細構成例]
図2は、この解析部122の詳細構成例を、ブロック図で表したものである。図2に示したように、この例では解析部122は、応力分布生成部122A、極大値算出部122B、低周波成分分布生成部122C、接触位置検出部122D、接触強度判定部122E、応力勾配算出部122Fおよび種別判定部122Gを有している。
応力分布生成部122Aは、応力センサ11により検知された応力Dsに基づいて、表示部10における応力分布D0(表示面内における2次元的な応力値の分布)を生成するものである。なお、図2中に示したように、このときの応力センサ11により検知された応力Dsは、例えば、表示面内における複数ライン(この例ではn(2以上の整数)ライン)ごとの1次元的な応力検知結果のデータ(Ds1,Ds2,…,Dsn)により構成されている。
極大値算出部122Bは、応力分布生成部122Aにより生成された応力分布D0に基づいて、その応力分布D0における極大値の座標Mpおよび極大値の大きさMsをそれぞれ求める(算出する)ものである。
低周波成分分布生成部122Cは、応力分布生成部122Aにより生成された応力分布D0に基づいて、表示部10(表示面内)における応力の低周波成分分布DLを求める(生成する)ものである。
接触位置検出部122Dは、極大値算出部122Bにより求められた極大値の座標Mpに基づいて、表示部10(表示面内)におけるユーザの接触位置Pcを求める(検出する)ものである。
接触強度判定部122Eは、極大値算出部122Bにより求められた極大値の大きさMsに基づいて、表示部10(表示面)に対するユーザの接触強度Dc2を求める(判定する)ものである。なお、図2中に示したように、この例では接触強度Dc2は、前述した接触態様の検知結果Dcの1つとなっている。
応力勾配算出部122Fは、極大値算出部122Bにより求められた極大値の座標Mpと、低周波成分分布生成部122Cにより生成された応力の低周波成分分布DLとに基づいて、表示部10(表示面内)における応力勾配Gsを求める(算出する)ものである。
種別判定部122Gは、接触位置検出部122Dにより検出されたユーザの接触位置Pcと、応力勾配算出部122Fにより求められた応力勾配Gsとに基づいて、ユーザによる表示部10(表示面)に対する接触態様の種別Dc1を求める(判定する)ものである。なお、図2中に示したように、この例では接触態様の種別Dc1は、前述した接触態様の検知結果Dcの1つとなっている。
このようにして解析部122では、応力センサ11により検知された応力Dsに基づいて応力分布D0を生成すると共に、生成された応力分布D0に基づき、前述した接触態様の検知結果Dcとしての接触態様の種別Dc1および接触強度Dc2をそれぞれ解析して取得し、画像処理部121へ出力するようになっている。なお、解析部122内における上記した各処理の詳細については、後述する(図3〜図8)。
[動作]
(A.基本動作)
この表示装置1では、図1に示したように、画像処理装置12において、外部から入力された画像信号Sginに基づいて所定の画像処理が行われることで、画像信号Sgoutが生成される。この際に画像処理装置12では、応力センサ11により検知された応力Dsを利用して、そのような画像処理を行う。具体的には、画像処理装置12内の解析部122では、応力センサ11において検知された応力Dsに基づいて所定の解析処理を行うと共に、画像処理装置12内の画像処理部121では、その解析処理の結果(解析結果)を利用して、画像信号Sginに基づく画像処理を行う。そして表示部10では、画像処理装置12から供給される画像信号Sgoutに基づいて、画像表示が行われる。
(B.詳細動作)
続いて、図1,図2に加えて図3〜図11を参照して、表示装置1における詳細動作例について説明する。
(B−1.解析処理動作)
最初に、図1,図2に加えて図3〜図8を参照して、上記した解析部122における解析処理動作について、詳細に説明する。
この解析部122では、まず、例えば図3に模式的に示したように、応力分布生成部122Aが、応力センサ11により検知された応力Dsに基づいて、表示部10における応力分布D0(表示面内における2次元的な応力値の分布)を生成する。具体的には、この例では、応力センサ11により検知された応力Dsが、表示面内における複数ラインごとの1次元的な応力検知結果のデータ(Ds1,Ds2,…,Dsn)により構成されているため、これらのデータに対して画像補間処理を行うことで、2次元的な応力分布D0を生成する。なお、このときの画像補間処理としては、線形補間および非線形補間のいずれの処理であってもよい。
次いで、例えば図4に模式的に示したように、極大値算出部122Bが、この応力分布D0における極大値の座標Mpおよび極大値の大きさMsをそれぞれ求める。なお、この図4の例では、応力分布D0における極大値が、異なる2つの位置で生じている。このとき、極大値算出部122Bは、例えば、入力された応力分布D0のデータ(画像)と、この応力分布D0に対するLPF(Low Pass Filter:ローパスフィルタ)処理後のデータとの差分処理を行うと共に、その後、所定の閾値判定処理および最大値フィルタ処理を行うことで、極大値の座標Mpおよび極大値の大きさMsをそれぞれ求める。
一方、例えば図5に模式的に示したように、低周波成分分布生成部122Cは、応力分布D0に基づいて、表示部10(表示面内)における応力の低周波成分分布DLを求める。具体的には、低周波成分分布生成部122Cは、例えば、応力分布D0に対するLPF処理後のデータを用いて、低周波成分分布DLを生成する。このとき、上記したように、極大値算出部122Bにおいて使用されるLPF処理後のデータを用いるようにしてもよい。なお、ここで言う「低周波成分」は、例えば、応力センサ11の配置間隔と、その応力センサ11によって検出された波形(検出波形)における波長の大きさとを考慮すると、一例として、以下のように設定される。すなわち、例えば、応力センサ11の配置間隔が5mmである場合、上記検出波形において、その配置間隔の数倍程度(例えば5倍)以下である波長成分(例えば25mm以下の波長成分)が、「低周波成分」として設定される。なお、このような設定は、例えば、上記した極大値を示す場合のユーザの指の接触長と、応力センサ11の配置間隔とに基づいて決定される。すなわち、指の接触長を十分カバーするような応力センサ11の本数分の長さによって、決定するようにすればよい。
続いて、接触位置検出部122Dは、極大値算出部122Bにより求められた極大値の座標Mpに基づいて、表示部10(表示面内)におけるユーザの接触位置Pcを求める。具体的には、接触位置検出部122Dは、例えば、極大値の座標Mpを、ユーザの手における親指位置と推定することで、そのような接触位置Pcを検出する。
一方、例えば図6に模式的に示したように、接触強度判定部122Eは、極大値算出部122Bにより求められた極大値の大きさMsに基づいて、表示部10(表示面)に対するユーザの接触強度Dc2を求める。このとき、接触強度判定部122Eは、例えば、所定のルックアップテーブル(LUT)または換算式などを用いて、そのような接触強度Dc2を判定する。なお、この図6に示した例では、後述する凹変形状態および凸変形状態の各々について(接触態様の種別Dc1ごとに)、接触強度Dc2の強度レベルが「0」〜「3」の4段階で規定されている。
他方、例えば図7Aに模式的に示したように、応力勾配算出部122Fは、極大値算出部122Bにより求められた極大値の座標Mpと、低周波成分分布生成部122Cにより生成された応力の低周波成分分布DLとに基づいて、表示部10(表示面内)における応力勾配Gsを求める。具体的には、この図7Aの例では、応力勾配算出部122Fは、2つの極大値の座標Mp同士を結ぶ水平方向の直線(一点鎖線で図示)を基準として、水平方向に延在する2つの勾配算出ラインLh1,Lh2と、垂直方向に延在する1つの勾配算出ラインLvとの各々に沿って、応力勾配Gsを算出している。
なお、このとき、例えば図7Bまたは図7Cに模式的に示した手法を用いて、応力勾配Gsが算出されるようにしてもよい。具体的には、図7Bの例では、応力勾配算出部122Fは、2つの極大値の座標Mp同士を結ぶ垂直方向の直線(一点鎖線で図示)を基準として、垂直方向に延在する2つの勾配算出ラインLv1,Lv2と、水平方向に延在する1つの勾配算出ラインLhとの各々に沿って、応力勾配Gsを算出している。また、図7Cの例では、応力勾配算出部122Fは、2つの極大値の座標Mp同士を結ぶ斜め方向の直線(一点鎖線で図示)を基準として、斜め方向に延在する3つの勾配算出ラインLd1,Ld2,Ld3の各々に沿って、応力勾配Gsを算出している。
そして、例えば図8(A)〜図8(D)に模式的に示したように、種別判定部122Gは、接触位置検出部122Dにより検出されたユーザの接触位置Pcと、応力勾配算出部122Fにより求められた応力勾配Gsとに基づいて、ユーザによる表示部10(表示面)に対する接触態様の種別Dc1を求める。なお、この例では、そのような接触態様の種別Dc1として、右変形状態(右接触状態:図8(A)参照)と、左変形状態(左接触状態:図8(B)参照)と、凹変形状態(左右接触状態1:図8(C)参照)と、凸変形状態(左右接触状態2:図8(D)参照)との4種類が規定されている。このようにして接触態様の種別Dc1が判定できるのは、例えば図8(A)〜図8(B)中の矢印で示したように、接触位置Pcおよび応力勾配Gsの各情報を利用すれば、ユーザによる接触態様(接触状態,変形状態)の種別が類推可能であるからである。
(B−2.画像処理動作)
続いて、図1に加えて図9〜図11を参照して、前述した画像処理部121における画像処理動作について、詳細に説明する。
この画像処理部121では、まず、例えば図9に模式的に示したように、立体感強調処理部121Aは、入力された画像信号Sginに対して立体感強調処理を行うことにより、立体感強調処理後の画像信号Sg1を生成する。この立体感強調処理とは、前述したように、画像信号Sginにより表現される画像(映像)における立体感を、ユーザによる表示部10への接触態様に連動して強調する処理のことである。具体的には、例えば画像信号Sginが2次元(2D)信号である場合、例えば、幾何変換処理(射影変換処理,円筒変換処理等)や、運動視差を付加する処理(接触態様に連動して運動視差を制御する処理)などを行うことで、そのような立体感強調処理を行う。また、例えば画像信号Sginが3次元(3D)信号である場合、例えば、各視点間の視差量を変換する処理(視差量変換処理)を行うことで、上記した立体感強調処理を行う。
ここで、図9に示した例では、上記した各処理例のうち、円筒変換処理を利用した立体感強調処理を行っている。具体的には、接触態様の種別Dc1が前述した凹変形状態あるいは凸変形状態であると判定された場合、図9(A)に示した画像信号Sgin(全面の単色画像)に対し、接触態様の種別Dc1に応じて実際の曲率よりも大きくなるように円筒変換処理を行うことで、立体感強調処理を行う。これにより、例えば図9(B),図9(D)に示したように、凹変形状態および凸変形状態のいずれの場合とも、そのようは立体感強調処理後の画像信号Sg1が生成される。なお、この例では、図9(B),図9(D)のいずれの場合とも、元の画像の周囲には、黒色領域が挿入配置されている。そして、このようにして生成された画像信号Sg1に基づく画像表示が表示部10においてなされると、例えば図9(C),図9(E)に示したように、凹変形状態および凸変形状態のいずれの場合とも、それらに連動して立体感(奥行感)が強調されることになる。
次いで、精細度補正部121Bが、そのようにして生成された画像信号Sg1に対して精細度補正処理を行うことにより、精細度補正処理後の画像信号Sg2を生成する。この精細度補正処理とは、前述したように、上記した立体感強調処理に伴う画像の解像度低下(画像信号Sg1により表現される画像において生じる解像度低下)を補正する処理のことである。具体的には、精細度補正部121Bは、例えば、上記した幾何変換処理や、運動視差を付加する処理、視差量変換処理等によって、画像が拡大・縮小された(引き延ばされた)ことに伴う、周辺領域等の解像度(精細度)の低下が抑制されるように、画像処理を行う。つまり、この精細度補正処理は、立体感強調処理に付随した画像処理であると言える。なお、このような精細度補正処理は、例えば、線形補間または非線形補間を用いた画像補間処理によって行われる。
続いて、コントラスト強調処理部121Cは、そのようにして生成された画像信号Sg2に対してコントラスト強調処理を行うことにより、コントラスト強調処理後の画像信号Sg3(Sgout)を生成する。ここで、この例ではコントラスト強調処理として、前述したように、輝度コントラストおよび彩度コントラストをそれぞれ、ユーザによる表示部10への接触態様に連動して強調するようにしている。
すなわち、例えば図10に模式的に示したように、コントラスト強調処理部121Cは、いわゆる輝度の突き上げ処理(輝度を増加させる処理)を行うことで、輝度コントラストの強調処理を行う。具体的には、例えば、画像信号Sg2,Sg3同士の階調レベルの関係を示す特性線G0(直線)を、突き上げ処理後の特性線(曲線)に変換することで、そのような輝度コントラストの強調処理を行う(図10中の実線の矢印参照)。あるいは、表示部10において輝度のダイナミックレンジの最大値を上げることができる場合(有機EL素子等の自発光素子が表示素子として用いられている場合等)には、以下のようにしてもよい。すなわち、例えば、特性線G0よりも傾斜比率が大きい特性線G2(直線)に変換することで、輝度コントラストの強調処理を行うようにしてもよい(図10中の一点鎖線の矢印参照)。なお、このような輝度コントラストの強調処理は、例えば、表示画面内の注目画素領域(画面中央部等)などの部分的な画素領域に対して適用されたり、あるいは、表示画面内の全領域に対して適用される。
また、例えば図11に模式的に示したように、コントラスト強調処理部121Cは、いわゆる彩度の突き上げ処理(彩度を増加させる処理)を行うことで、彩度コントラストの強調処理を行う。具体的には、例えば図11に示したように、表示部10における物理的な色域G4内において、画像信号Sg2により表現される画像の彩度を増加させ、画像の見かけの色域を広げることで、そのような彩度コントラストの強調処理を行う(図11中の矢印参照)。なお、このような彩度コントラストの強調処理も、例えば、表示画面内の注目画素領域(画面中央部等)などの部分的な画素領域に対して適用されたり、あるいは、表示画面内の全領域に対して適用される。
[作用・効果]
このようにして本実施の形態では、ユーザによる表示部10への接触態様に連動した画像信号の強調処理がなされることで、ユーザにとって、画像強調が直感的に把握できるようになる。つまり、ユーザの動作(接触態様)に合致した、迫力および臨場感(没入感)のある映像を提供できるようになる。
具体的には、検知された接触態様(応力の方向)に対し、従来とは逆方向の画像処理である強調処理がなされることで、そのような接触態様に合致させて臨場感等の向上が図られる。なお、これに対して従来の手法では、例えば、検知された変形による画像がユーザにとって見易くなるように補正する(変形による影響を低減する)画像処理であることから、本実施の形態とは逆に、臨場感等は低下してしまうことになる。
以上のように本実施の形態では、ユーザによる表示部10への接触態様に連動した画像信号の強調処理を行うようにしたので、ユーザにとって、画像強調が直感的に把握できるようになる。よって、画像表示の際の臨場感(没入感)を向上させることが可能となる。
また、応力センサ11により検知された応力Dsを利用してそのような画像処理(強調処理)を行うようにしたので、例えば表示部10の変形状態を検知して利用する場合とは異なり、以下の効果を得ることも可能となる。すなわち、例えば、表示部10の変形を伴わなかったり、表示部10の変形量が微小であるような(例えば表示部10の変形が制限されている場合など)接触態様の場合であっても、上記した画像処理を実行することが可能となる。
更に、上記したように、検知された応力Dsを利用してユーザの接触態様を強調する画像処理を行うことで、ユーザへの視覚フィードバックを生じさせることができ、例えば、接触による表示部10への過度の変形(曲げ過ぎ状態の発生)を抑制することも可能となる。
<2.変形例>
続いて、上記実施の形態の変形例(変形例1〜3)について説明する。なお、実施の形態における構成要素と同一のものには同一の符号を付し、適宜説明を省略する。
実施の形態における表示装置1(画像処理装置12)では、画像処理部121内に、立体感強調処理部121A、精細度補正部121Bおよびコントラスト強調処理部121Cの3つがいずれも設けられている場合について説明した。換言すると、画像処理部121では、前述した立体感強調処理、解像度低下の補正処理およびコントラスト強調処理がそれぞれ行われるようになっている。しかしながら、この実施の形態の例には限られず、表示装置1(画像処理装置12)において画像処理部121の代わりに、例えば以下の変形例1〜3に係る画像処理部(画像処理部121−1〜121−3)を設けるようにしてもよい。
(変形例1)
具体的には、例えば図12Aに示した変形例1に係る画像処理部(画像処理部121−1)では、画像処理部121−1内に、立体感強調処理部121Aおよびコントラスト強調処理部121Cの2つが設けられている。つまり、この画像処理部121−1内には、画像処理部121とは異なり、精細度補正部121Bが設けられていない。したがって、画像処理部121−1では、まず、立体感強調処理部121Aにおいて、画像信号Sginに対して前述した立体感強調処理を行うことで、画像信号Sg1を生成して出力する。そして、コントラスト強調処理部121Cにおいて、この画像信号Sg1に対して前述したコントラスト強調処理を行うことで、画像信号Sgoutとしての画像信号Sg3を生成して出力するようになっている。
(変形例2)
また、例えば図12Bに示した変形例2に係る画像処理部(画像処理部121−2)では、画像処理部121−2内に、立体感強調処理部121Aおよび精細度補正部121Bの2つが設けられている。つまり、この画像処理部121−2内には、画像処理部121とは異なり、コントラスト強調処理部121Cが設けられていない。したがって、画像処理部121−2では、まず、立体感強調処理部121Aにおいて、画像信号Sginに対して前述した立体感強調処理を行うことで、画像信号Sg1を生成して出力する。そして、精細度補正部121Bにおいて、この画像信号Sg1に対して前述した解像度低下の補正処理を行うことで、画像信号Sgoutとしての画像信号Sg2を生成して出力するようになっている。
(変形例3)
更に、例えば図12Cに示した変形例3に係る画像処理部(画像処理部121−3)では、画像処理部121−3内に、立体感強調処理部121Aの1つのみが設けられている。つまり、この画像処理部121−3内には、画像処理部121とは異なり、精細度補正部121Bおよびコントラスト強調処理部121Cが設けられていない。したがって、画像処理部121−3では、立体感強調処理部121Aにおいて、画像信号Sginに対して前述した立体感強調処理を行うことで、画像信号Sgoutとしての画像信号Sg1を生成して出力するようになっている。
これらの変形例1〜3においても、実施の形態と同様に、ユーザによる表示部10への接触態様に連動した画像信号の強調処理(少なくとも上記した立体感強調処理)を行うようにしたので、画像表示の際の臨場感(没入感)を向上させることが可能となる。
<3.適用例>
続いて、上記した実施の形態および変形例1〜3に係る画像処理部121,121−1〜121−3を有する画像処理装置(表示装置)の、電子機器への適用例について説明する。
図13は、本適用例に係る電子機器(電子機器9)の概略構成例を、ブロック図で表したものである。この電子機器9は、画像処理部121,121−1〜121−3のいずれか1つを有する表示装置1と、電子機器9本体における各種機能を発揮させる機能部90とを備えている。
このような電子機器9としては、例えば、各種モバイル機器(例えば、電子ブック,ノート型PC(Personal computer),ダブレット,携帯型ゲーム機器,携帯型オーディオプレーヤ,携帯型動画プレーヤ,携帯電話,ウェアラブル端末など)等が挙げられる。また、電子機器9としては、そのようなモバイル機器だけでなく、例えば、TV装置(テレビ受像機),照明機器,電子看板(Digital Signage),カーナビゲーションシステム等も挙げられる。
<4.その他の変形例>
以上、実施の形態、変形例および適用例を挙げて本開示の技術を説明したが、本技術はこれらの実施の形態等に限定されず、種々の変形が可能である。
例えば、上記実施の形態等では、表示装置および電子機器の構成例を具体的に挙げて説明したが、それらの構成例には限られない。具体的には、例えば、それらの一部分の構成を他の構成に代えたり、あるいは他の構成を更に加えたりするようにしてもよい。また、各構成の形状や配置、個数等についても、上記実施の形態等で挙げたものには限られず、他の形状や配置、個数等としてもよい。
具体的には、例えば、上記実施の形態等では、表示部が可撓性表示部である(可撓性を有している)場合を例に挙げて説明したが、これには限られず、表示部が非可撓性表示部である(可撓性を有していない)ようにしてもよい。
また、ユーザによる表示部への接触態様としては、上記実施の形態等で説明したような複数点での接触態様(例えば両手を用いた場合等)だけでなく、例えば、1点のみでの接触態様(例えば片手のみを用いた場合等)の場合でも、本技術を適用することが可能である。ここで、そのような1点のみでの接触態様の場合でも、例えば、電子機器9として上記したノート型PCに適用した場合のように、表示部10が筺体に保持されている場合等には、実施の形態等で説明した応力勾配が生じることから、前述した解析処理を適用することが可能である。一方、表示部10が筺体に保持されていない場合等には、上記した1点のみでの接触態様の場合に、実施の形態等で説明した応力勾配は生じないことから、応力勾配を利用せずに前述した解析処理を行うことになる。また、この接触態様としては、実施の形態等で説明したような応力検知以外の、他の検知態様(例えば、表示部の変形状態の検知など)を利用するようにしてもよい。
更に、上記実施の形態等では、画像処理装置(画像処理部)内で実行される強調処理として、前述した立体感強調処理が少なくとも含まれている場合を例に挙げて説明したが、これには限られず、例えば、そのような強調処理として立体感強調処理が含まれていないようにしてもよい。すなわち、そのような強調処理として、例えば、前述した立体感強調処理およびコントラスト強調処理(前述した輝度コントラストおよび彩度コントラストのうちの少なくとも一方の強調処理)のうちの少なくとも一方が含まれているようにしてもよい。また、更には、これらの強調処理には限られず、他の強調処理を画像処理装置(画像処理部)内で実行するようにしてもよい。
加えて、解析部における解析処理としても、上記実施の形態等で説明した手法には限られず、他の手法を用いて解析処理を行うようにしてもよい。また、実施の形態等では、この解析部が画像処理装置内に設けられている場合を例に挙げて説明したが、これには限られず、例えば、解析部が画像処理装置の外部(他の装置内)に設けられているようにしてもよい。
更に、これまでに説明した各種の例を、任意の組み合わせで適用させるようにしてもよい。
なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
また、本技術は以下のような構成を取ることも可能である。
(1)
ユーザによる表示部への接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部を備え、
前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
画像処理装置。
(2)
前記強調処理が、前記画像信号により表現される画像における立体感、輝度コントラストおよび彩度コントラストのうちの少なくとも1つを、前記接触態様に連動して強調する処理である
上記(1)に記載の画像処理装置。
(3)
前記強調処理として、前記立体感を強調する処理を少なくとも含んでおり、
前記画像処理部は、前記立体感を強調する処理に伴う前記画像の解像度低下を補正する処理を、更に実行する
上記(2)に記載の画像処理装置。
(4)
前記画像処理部は、前記表示部への接触に起因して前記表示部で発生する応力の検知結果を利用して、前記強調処理を行う
上記(1)ないし(3)のいずれかに記載の画像処理装置。
(5)
応力センサにより検知された応力に基づき、前記接触態様の検知結果を解析して前記画像処理部へ出力する解析部を更に備えた
上記(4)に記載の画像処理装置。
(6)
前記解析部は、
前記応力センサにより検知された応力に基づいて、前記表示部での応力分布を生成すると共に、
生成された前記応力分布に基づき、前記接触態様の検知結果としての、前記接触態様の種別および接触強度をそれぞれ解析して、前記画像処理部へ出力する
上記(5)に記載の画像処理装置。
(7)
前記解析部は、
前記応力分布に基づいて、前記表示部における前記ユーザの接触位置と、前記接触強度と、前記表示部における応力勾配とをそれぞれ求めると共に、
前記接触位置および前記応力勾配に基づいて、前記接触態様の種別を求める
上記(6)に記載の画像処理装置。
(8)
前記解析部は、
前記応力分布に基づいて、前記応力分布における極大値の座標および極大値の大きさと、前記表示部における応力の低周波成分分布とをそれぞれ求めると共に、
前記極大値の座標に基づいて前記接触位置を求め、
前記極大値の大きさに基づいて前記接触強度を求め、
前記極大値の座標と前記応力の低周波成分分布とに基づいて、前記応力勾配を求める
上記(7)に記載の画像処理装置。
(9)
表示部と、
ユーザによる前記表示部への接触態様を検知する検知部と、
前記検知部による前記接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部と
を備え、
前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
表示装置。
(10)
前記画像処理部は、前記表示部への接触に起因して前記表示部で発生する応力の検知結果を利用して、前記強調処理を行う
上記(9)に記載の表示装置。
(11)
前記検知部は、
前記表示部で発生する応力を検知する応力センサと、
前記応力センサにより検知された応力に基づき、前記接触態様の検知結果を解析して前記画像処理部へ出力する解析部と
を有する
上記(10)に記載の表示装置。
(12)
前記表示部は、可撓性を有する
上記(9)ないし(11)のいずれかに記載の表示装置。
(13)
表示装置を備え、
前記表示装置は、
表示部と、
ユーザによる前記表示部への接触態様を検知する検知部と、
前記検知部による前記接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部と
を有し、
前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
電子機器。
1…表示装置、10…表示部(可撓性表示部)、11…応力センサ、12…画像処理装置、121,121−1,121−2,121−3…画像処理部、121A…立体感強調処理部、121B…精細度補正部、121C…コントラスト強調処理部、122…解析部、122A…応力分布生成部、122B…極大値算出部、122C…低周波成分分布生成部、122D…接触位置検出部、122E…接触強度判定部、122F…応力勾配算出部、122G…種別判定部、9…電子機器、90…機能部、Sgin,Sg1,Sg2,Sg3(Sgout)…画像信号、Ds…応力、Dc…接触態様の検知結果、Dc1…接触態様の種別、Dc2…接触強度、D0…応力分布、D1…極大値分布、Ms…極大値の大きさ、Mp…極大値の座標、DL…低周波成分分布、Pc…接触位置、Gs…応力勾配、Lv,Lv1,Lv2,Lh,Lh1,Lh2,Ld1,Ld2,Ld3…勾配算出ライン。

Claims (13)

  1. ユーザによる表示部への接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部を備え、
    前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
    画像処理装置。
  2. 前記強調処理が、前記画像信号により表現される画像における立体感、輝度コントラストおよび彩度コントラストのうちの少なくとも1つを、前記接触態様に連動して強調する処理である
    請求項1に記載の画像処理装置。
  3. 前記強調処理として、前記立体感を強調する処理を少なくとも含んでおり、
    前記画像処理部は、前記立体感を強調する処理に伴う前記画像の解像度低下を補正する処理を、更に実行する
    請求項2に記載の画像処理装置。
  4. 前記画像処理部は、前記表示部への接触に起因して前記表示部で発生する応力の検知結果を利用して、前記強調処理を行う
    請求項1に記載の画像処理装置。
  5. 応力センサにより検知された応力に基づき、前記接触態様の検知結果を解析して前記画像処理部へ出力する解析部を更に備えた
    請求項4に記載の画像処理装置。
  6. 前記解析部は、
    前記応力センサにより検知された応力に基づいて、前記表示部での応力分布を生成すると共に、
    生成された前記応力分布に基づき、前記接触態様の検知結果としての、前記接触態様の種別および接触強度をそれぞれ解析して、前記画像処理部へ出力する
    請求項5に記載の画像処理装置。
  7. 前記解析部は、
    前記応力分布に基づいて、前記表示部における前記ユーザの接触位置と、前記接触強度と、前記表示部における応力勾配とをそれぞれ求めると共に、
    前記接触位置および前記応力勾配に基づいて、前記接触態様の種別を求める
    請求項6に記載の画像処理装置。
  8. 前記解析部は、
    前記応力分布に基づいて、前記応力分布における極大値の座標および極大値の大きさと、前記表示部における応力の低周波成分分布とをそれぞれ求めると共に、
    前記極大値の座標に基づいて前記接触位置を求め、
    前記極大値の大きさに基づいて前記接触強度を求め、
    前記極大値の座標と前記応力の低周波成分分布とに基づいて、前記応力勾配を求める
    請求項7に記載の画像処理装置。
  9. 表示部と、
    ユーザによる前記表示部への接触態様を検知する検知部と、
    前記検知部による前記接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部と
    を備え、
    前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
    表示装置。
  10. 前記画像処理部は、前記表示部への接触に起因して前記表示部で発生する応力の検知結果を利用して、前記強調処理を行う
    請求項9に記載の表示装置。
  11. 前記検知部は、
    前記表示部で発生する応力を検知する応力センサと、
    前記応力センサにより検知された応力に基づき、前記接触態様の検知結果を解析して前記画像処理部へ出力する解析部と
    を有する
    請求項10に記載の表示装置。
  12. 前記表示部は、可撓性を有する
    請求項9に記載の表示装置。
  13. 表示装置を備え、
    前記表示装置は、
    表示部と、
    ユーザによる前記表示部への接触態様を検知する検知部と、
    前記検知部による前記接触態様の検知結果に基づいて、画像信号に対する画像処理を行う画像処理部と
    を有し、
    前記画像処理部は、前記画像処理として、前記接触態様に連動した前記画像信号の強調処理を行う
    電子機器。
JP2015162425A 2015-08-20 2015-08-20 画像処理装置、表示装置および電子機器 Active JP6500180B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015162425A JP6500180B2 (ja) 2015-08-20 2015-08-20 画像処理装置、表示装置および電子機器
US15/236,965 US9971445B2 (en) 2015-08-20 2016-08-15 Image processing device, display unit, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162425A JP6500180B2 (ja) 2015-08-20 2015-08-20 画像処理装置、表示装置および電子機器

Publications (3)

Publication Number Publication Date
JP2017041106A true JP2017041106A (ja) 2017-02-23
JP2017041106A5 JP2017041106A5 (ja) 2018-04-26
JP6500180B2 JP6500180B2 (ja) 2019-04-17

Family

ID=58157794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162425A Active JP6500180B2 (ja) 2015-08-20 2015-08-20 画像処理装置、表示装置および電子機器

Country Status (2)

Country Link
US (1) US9971445B2 (ja)
JP (1) JP6500180B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020012944A (ja) * 2018-07-17 2020-01-23 株式会社デンソー 表示装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2006185443A (ja) * 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2008257513A (ja) * 2007-04-05 2008-10-23 Hitachi Ltd 異常状態監視装置およびエレベータシステム
JP2009251839A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd 画像信号処理回路、画像表示装置、および画像信号処理方法
US20100011291A1 (en) * 2008-07-10 2010-01-14 Nokia Corporation User interface, device and method for a physically flexible device
JP2010102474A (ja) * 2008-10-23 2010-05-06 Sony Ericsson Mobile Communications Ab 情報表示装置、携帯情報端末、表示制御方法及び表示制御プログラム
US20130141435A1 (en) * 2011-12-05 2013-06-06 Lg Electronics Inc. Mobile terminal and 3d image control method thereof
JP2014016519A (ja) * 2012-07-10 2014-01-30 Nikon Corp 表示装置
WO2014069917A1 (en) * 2012-10-31 2014-05-08 Samsung Electronics Co., Ltd. Display apparatus and method thereof
JP2014202618A (ja) * 2013-04-05 2014-10-27 日本写真印刷株式会社 圧力検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459025B1 (ko) 2002-05-02 2004-12-03 (주) 에프디엘 프로포폴을 함유하는 신규한 주사제용 조성물
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2006185443A (ja) * 2004-12-21 2006-07-13 Microsoft Corp 圧力応動コントロール
JP2008257513A (ja) * 2007-04-05 2008-10-23 Hitachi Ltd 異常状態監視装置およびエレベータシステム
JP2009251839A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd 画像信号処理回路、画像表示装置、および画像信号処理方法
US20100011291A1 (en) * 2008-07-10 2010-01-14 Nokia Corporation User interface, device and method for a physically flexible device
JP2010102474A (ja) * 2008-10-23 2010-05-06 Sony Ericsson Mobile Communications Ab 情報表示装置、携帯情報端末、表示制御方法及び表示制御プログラム
US20130141435A1 (en) * 2011-12-05 2013-06-06 Lg Electronics Inc. Mobile terminal and 3d image control method thereof
JP2014016519A (ja) * 2012-07-10 2014-01-30 Nikon Corp 表示装置
WO2014069917A1 (en) * 2012-10-31 2014-05-08 Samsung Electronics Co., Ltd. Display apparatus and method thereof
JP2014202618A (ja) * 2013-04-05 2014-10-27 日本写真印刷株式会社 圧力検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020012944A (ja) * 2018-07-17 2020-01-23 株式会社デンソー 表示装置

Also Published As

Publication number Publication date
US9971445B2 (en) 2018-05-15
US20170053618A1 (en) 2017-02-23
JP6500180B2 (ja) 2019-04-17

Similar Documents

Publication Publication Date Title
CN106663308B (zh) 用于在计算设备之间传输信息的不可见光学标签
US20220026984A1 (en) Porting physical object into virtual reality
CN110892359B (zh) 包括无效区域的电子设备
US9355452B2 (en) Camera and sensor augmented reality techniques
WO2016129156A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5575364B2 (ja) 広視野角具現方法、記録媒体および装置
WO2016088418A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5496032B2 (ja) 触感呈示装置及び触感呈示装置の制御方法
US8537143B2 (en) Touch-controlled system and method
JP6911834B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10402939B2 (en) Information processing device, information processing method, and program
JPWO2018150722A1 (ja) ヘッドマウントディスプレイ
JP6500180B2 (ja) 画像処理装置、表示装置および電子機器
JP6447521B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023546797A (ja) ピクセル強度のデジタル制御およびアナログ制御を含む人工現実システム
JP2014044476A (ja) 画像処理装置、画像処理方法
KR20140124031A (ko) 센싱 데이터 처리 방법 및 이를 수행하는 표시 장치
TW201543079A (zh) 三維物件顯示方法、顯示器及顯示胞
US20090189916A1 (en) Image warping method
JP2015142142A (ja) 表示装置及びプログラム
JP2014207519A (ja) 画像処理装置、画像処理方法、プログラム、および電子機器
Celozzi et al. Enabling Human–Machine Interaction in Projected Virtual Environments Through Camera Tracking of Imperceptible Markers
CN110415264A (zh) 动作检测电路与方法
JP2017161857A (ja) 画像表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R150 Certificate of patent or registration of utility model

Ref document number: 6500180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350