JP2017524474A - 感覚置換デバイスのパラメータ値の決定 - Google Patents
感覚置換デバイスのパラメータ値の決定 Download PDFInfo
- Publication number
- JP2017524474A JP2017524474A JP2017505107A JP2017505107A JP2017524474A JP 2017524474 A JP2017524474 A JP 2017524474A JP 2017505107 A JP2017505107 A JP 2017505107A JP 2017505107 A JP2017505107 A JP 2017505107A JP 2017524474 A JP2017524474 A JP 2017524474A
- Authority
- JP
- Japan
- Prior art keywords
- sensation
- type
- parameter value
- intensity level
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001953 sensory effect Effects 0.000 title claims description 43
- 230000035807 sensation Effects 0.000 claims abstract description 124
- 238000000034 method Methods 0.000 claims abstract description 41
- 235000019615 sensations Nutrition 0.000 claims description 117
- 230000000007 visual effect Effects 0.000 claims description 21
- 230000008447 perception Effects 0.000 claims description 15
- 230000006978 adaptation Effects 0.000 claims description 5
- 230000001720 vestibular Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 description 10
- 230000000638 stimulation Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005857 detection of stimulus Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000013101 initial test Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H23/00—Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms
- A61H23/02—Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Physical Education & Sports Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本願は、National ICT Australiaが出願人である2014年7月28日に出願されたオーストラリア仮特許出願第2014902915号明細書からの優先権を主張するものであり、その内容は参照により本明細書に援用される。
前記第1のタイプの感覚を示す第1の強度レベルを表す、前記第2のタイプの感覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して前記第1のタイプの感覚を示す第2の強度レベルを表す、前記第2のタイプの感覚の第2のパラメータ値を決定することと、
を含み、前記第1のパラメータ値は、前記対象者の前記第2のタイプの感覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる。
前記第2のタイプの感覚のJNDに基づいて前記対象者が区別可能な前記対象者の前記第2のタイプの感覚の複数のパラメータ値を決定することと、
前記第1のパラメータ値である、前記第2のタイプの感覚の前記複数のパラメータ値のうちの1つを選択することと、
を含み得る。
前記第1のタイプの感覚を示す前記強度レベルの値範囲を決定することと、
前記対象者の前記第1のタイプの感覚のJNDに基づいて、前記値範囲を複数の間隔に分割することであって、前記複数の間隔の数が、前記第2のタイプの感覚の前記複数のパラメータ値の数に等しいように分割することと、
前記複数の間隔に基づいて、前記第1のパラメータ値である、前記第2のタイプの感覚の前記複数のパラメータ値のうちの前記1つを選択することと、
を含み得る。
ラメータ値は感覚出力デバイスに入力として提供される。
命令を記憶するメモリと、
前記命令を前記メモリから通信するバスと、
前記バスを介して通信される前記メモリから前記命令を実行して、
前記第1のタイプの感覚を示す第1の強度レベルを表す、前記第2のタイプの感覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して前記第1のタイプの感覚を示す第2の強度レベルを表す、前記第2のタイプの感覚の第2のパラメータ値を決定することと、
を行うプロセッサと、
を備え、前記第1のパラメータ値は、前記対象者の前記第2のタイプの感覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる。
視覚情報を示す前記強度レベルを捕捉する感覚情報捕捉デバイスと、
刺激生成部材のアレイと、
プロセッサであって、
視覚情報を示す第1の強度レベルを表す、触覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して視覚情報を示す第2の強度レベルを表す、触覚の第2のパラメータ値を決定することと、
を行うプロセッサと、
を備え、前記第1のパラメータ値は、前記対象者の触覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる。
もよい。他の例では、カラー入力画像を使用し得る。
から少なくとも1つの丁度可知差異(JND)だけ異なり、JNDとは、対象者150が知覚することができる最小差である。
であることが示されている。
により決定され、式中、#JND=利用可能なJND数であり、MCL=%デューティサイクル(dc)での10log(最大快適刺激レベル)であり、I=%dcでの10log(参照刺激レベル)である。
図3eは、上述したJND最適化マッピングが、図5bに示されるスケールに従って画像330全体に適用されるシナリオを示す。図3eから、出力チャネルの電圧値が少なくとも1つのJNDだけ離れることを見て取ることができる。その結果、対象者150は、触覚を介して画像330のグレーレベルへの空間変化を知覚し得る。
画像330中で特定される1つ又は複数の入力チャネルのグレーレベルがフレーム毎に変化する(フレームは、画像又は入力ピクセルの集まりである)場合、これらのチャネルを関心チャネル(COI)と呼び得る。COIは、関心領域(ROI)を形成する他のCOIに隣接するか、又は少なくとも近傍にあり得る。この場合、コントラスト強化は、ROI入力チャネルのグレーレベル及び非ROI入力チャネルのグレーレベルが図5bに示される同じグレーレベル間隔に空間的に入る場合であっても、周囲の時間的に変化しないか、又は変化がより少ない出力チャネルと比較して少なくとも1つ多いか、又は少なくとも1つ少ないJNDを割り当てることにより、ROIで優先付けされる。その結果、対象者150は、変化する出力チャネルと、変化しないか又は変化がより小さい出力チャネルとを区別可能であり得る。
入力画像中の移動物体は、静的な物体よりも優先され得る。更に、入力画像中のエッジ(高コントラストのエリア)は、コントラストがより低いエリアよりも優先され得る。
その結果、対象者150は、背景部分610のコントラスト情報を知覚し、同時に、エッジ620であるROIのよりよい知覚を有し得る。
図8a〜図8dは、シーン物体検出器を使用して、シーンを解析し、シーン内のシーン物体を識別するシナリオを示す。説明を容易にするために、32×32出力チャネルのアレイの触覚刺激レベルは、この例では、グレーレベルで表される。
フェーディングとは、長時間及び一定の刺激中に知覚される刺激強度が低減する現象であり、適応の特定の形態である。触覚刺激への適応は、知覚閾値、JND、JND数と共に、対象者150に関して感覚置換システム100を初期化する際、特徴付けることができる。知覚閾値は、時間の経過に伴い動的に更新され得る。その結果、触覚刺激のダイナミックレンジ、JND、JND数、及びモータに適用される電圧値は、それに従って長時間一定の触覚刺激の生成を回避して、触覚刺激への適応に対抗するように、時間の経過に伴って更新され得る。
第1のタイプの感覚を示す第1の強度レベルを表す、第2のタイプの感覚の第1のパラメータ値を決定することと、
第1のパラメータ値を参照して第1のタイプの感覚を示す第2の強度レベルを表す、第2のタイプの感覚の第2のパラメータ値を決定することと
を行い得、第1のパラメータ値は、対象者の第2のタイプの感覚の少なくとも1つの丁度可知差異(JND)だけ第2のパラメータ値から異なる。
Claims (21)
- 対象者の第1のタイプの感覚を示す強度レベルを前記対象者の異なる第2のタイプの感覚のパラメータ値で表すコンピュータ実施方法であって、
前記第1のタイプの感覚を示す第1の強度レベルを表す、前記第2のタイプの感覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して前記第1のタイプの感覚を示す第2の強度レベルを表す、前記第2のタイプの感覚の第2のパラメータ値を決定することと、
を含み、前記第1のパラメータ値は、前記対象者の前記第2のタイプの感覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる、方法。 - 前記第2のタイプの感覚の前記第1のパラメータ値を決定することは、
前記第2のタイプの感覚のJNDに基づいて前記対象者が区別可能な前記対象者の前記第2のタイプの感覚の複数のパラメータ値を決定することと、
前記第1のパラメータ値である、前記第2のタイプの感覚の前記複数のパラメータ値のうちの1つを選択することと、
を更に含む、請求項1に記載の方法。 - 前記複数のパラメータ値のうちの1つを選択することは、
前記第1のタイプの感覚を示す前記強度レベルの値範囲を決定することと、
前記対象者の前記第1のタイプの感覚のJNDに基づいて、前記値範囲を複数の間隔に分割することであって、前記複数の間隔の数が、前記第2のタイプの感覚の前記複数のパラメータ値の数に等しいように分割することと、
前記複数の間隔に基づいて、前記第1のパラメータ値である、前記第2のタイプの感覚の前記複数のパラメータ値のうちの前記1つを選択することと、
を含む、請求項2に記載の方法。 - 前記第2のタイプの感覚の前記複数のパラメータ値は、前記対象者が区別可能な前記第2のタイプの感覚の全てのパラメータ値を含む、請求項2又は3に記載の方法。
- 前記第2のタイプの感覚の前記第2のパラメータ値を決定することは、前記第2のパラメータ値である、前記第2のタイプの感覚の前記複数のパラメータ値のうちの別の1つを選択することを更に含む、請求項2〜4のいずれか一項に記載の方法。
- 前記第1のタイプの感覚は、視覚、聴覚、距離感覚、味覚、嗅覚、前庭知覚を含む、請求項1〜5のいずれか一項に記載の方法。
- 前記第2のタイプの感覚は触覚を含み、且つ前記第2のタイプの感覚の前記パラメータ値は電圧及び電流を含む、請求項1〜6のいずれか一項に記載の方法。
- 前記第1のタイプの感覚を示す前記第1の強度レベルは、画像の第1の部分を示す第1の視覚強度レベルを含み、且つ前記第1のタイプの感覚を示す前記第2の強度レベルは、その同じ画像の第2の部分を示す第2の視覚強度レベルを含む、請求項1〜7のいずれか一項に記載の方法。
- 前記画像の前記第2の部分は、前記画像の関心領域(ROI)の少なくとも一部を含む、請求項8に記載の方法。
- 前記ROIは、前記強度レベルが経時変化する領域を含む、請求項9に記載の方法。
- 前記ROIは、前記画像中の移動物体を含む、請求項9に記載の方法。
- 前記ROIは、前記画像中のエッジを含む、請求項9に記載の方法。
- 前記ROIは、前記画像中のシーン物体を含む、請求項9に記載の方法。
- 前記第2のタイプの感覚への適応に対抗するように、前記第2のタイプの感覚の前記パラメータ値を経時調整することを更に含む、請求項1〜13のいずれか一項に記載の方法。
- 感覚置換システムにより実行され、且つ前記第2のパラメータ値は感覚出力デバイスに入力として提供される、請求項1〜14のいずれか一項に記載の方法。
- 前記第1の強度レベルは、前記対象者の前記第1のタイプの感覚の1つ未満のJNDだけ前記第2の強度レベルから異なる、請求項1〜15のいずれか一項に記載の方法。
- プロセッサにより実行される機械可読命令を含むコンピュータソフトウェアプログラムであって、前記プロセッサに請求項1〜16のいずれか一項に記載の方法を実行させる、コンピュータソフトウェアプログラム。
- 対象者の第1のタイプの感覚を示す強度レベルを前記対象者の異なる第2のタイプの感覚のパラメータ値で表すコンピュータシステムであって、
命令を記憶するメモリと、
前記命令を前記メモリから通信するバスと、
前記バスを介して通信される前記メモリから前記命令を実行して、
前記第1のタイプの感覚を示す第1の強度レベルを表す、前記第2のタイプの感覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して前記第1のタイプの感覚を示す第2の強度レベルを表す、前記第2のタイプの感覚の第2のパラメータ値を決定することと、
を行うプロセッサと、
を備え、前記第1のパラメータ値は、前記対象者の前記第2のタイプの感覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる、コンピュータシステム。 - 対象者の視覚情報を示す強度レベルを、触覚を示す強度レベルに変換する感覚置換システムであって、
前記対象者の視覚情報を示す前記強度レベルを捕捉する感覚情報捕捉デバイスと、
刺激生成部材のアレイと、
プロセッサであって、
視覚情報を示す第1の強度レベルを表す、触覚の第1のパラメータ値を決定することと、
前記第1のパラメータ値を参照して視覚情報を示す第2の強度レベルを表す、触覚の第2のパラメータ値を決定することと、
を行うプロセッサと、
を備え、前記第1のパラメータ値は、前記対象者の触覚の少なくとも1つの丁度可知差異(JND)だけ前記第2のパラメータ値から異なる、感覚置換システム。 - 前記情報捕捉デバイスはカメラを含む、請求項19に記載の感覚置換システム。
- 前記感覚刺激生成デバイスはコインモータ又は電極を含む、請求項19又は20に記載
の感覚置換システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2014902915 | 2014-07-28 | ||
AU2014902915A AU2014902915A0 (en) | 2014-07-28 | Determination of parameter values for sensory substitution devices | |
PCT/AU2015/050425 WO2016015099A1 (en) | 2014-07-28 | 2015-07-28 | Determination of parameter values for sensory substitution devices |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017524474A true JP2017524474A (ja) | 2017-08-31 |
JP2017524474A5 JP2017524474A5 (ja) | 2018-08-16 |
JP6725133B2 JP6725133B2 (ja) | 2020-07-15 |
Family
ID=55216490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017505107A Active JP6725133B2 (ja) | 2014-07-28 | 2015-07-28 | 感覚置換デバイスのパラメータ値の決定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10441500B2 (ja) |
EP (1) | EP3195164B1 (ja) |
JP (1) | JP6725133B2 (ja) |
AU (1) | AU2015296895B2 (ja) |
WO (1) | WO2016015099A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180271209A1 (en) * | 2015-06-12 | 2018-09-27 | Sanad Zahrieh | Vibrating massager garment |
FR3060297B1 (fr) | 2016-12-20 | 2019-05-10 | Universite Pierre Et Marie Curie (Paris 6) | Systeme de substitution sensorielle par stimulation tactile asynchrone |
US11510590B1 (en) * | 2018-05-07 | 2022-11-29 | Vibrant Ltd. | Methods and systems for treating gastrointestinal disorders |
WO2024156035A1 (en) * | 2023-01-25 | 2024-08-02 | Bionic Vision Technologies | Method of operating visual sensory device |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE297707T1 (de) * | 1998-02-06 | 2005-07-15 | Wisconsin Alumni Res Found | Auf der zunge gelegt tastausgabevorrichtung |
US7783130B2 (en) * | 2005-01-24 | 2010-08-24 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Spatial standard observer |
US9802225B2 (en) * | 2005-06-27 | 2017-10-31 | General Vibration Corporation | Differential haptic guidance for personal navigation |
US8037414B2 (en) * | 2006-09-14 | 2011-10-11 | Avaya Inc. | Audible computer user interface method and apparatus |
DE102008039153A1 (de) * | 2008-08-21 | 2010-02-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Sehhilfe, Wahrnehmungshilfe und Sehhilfeverfahren |
WO2010092566A1 (en) * | 2009-02-02 | 2010-08-19 | Carmel - Haifa University Economic Corp Ltd. | Auditory diagnosis and training system apparatus and method |
CA2762888C (en) * | 2009-06-19 | 2013-09-17 | Andrew Mahoney | System and method for alerting visually impaired users of nearby objects |
US20110043537A1 (en) * | 2009-08-20 | 2011-02-24 | University Of Washington | Visual distortion in a virtual environment to alter or guide path movement |
US9501145B2 (en) * | 2010-05-21 | 2016-11-22 | Disney Enterprises, Inc. | Electrovibration for touch surfaces |
US20120327006A1 (en) * | 2010-05-21 | 2012-12-27 | Disney Enterprises, Inc. | Using tactile feedback to provide spatial awareness |
GB201101618D0 (en) * | 2011-01-31 | 2011-03-16 | Univ Sheffield | Active sensory augmentation device |
WO2013018090A1 (en) * | 2011-08-01 | 2013-02-07 | Abir Eliahu | System and method for non-visual sensory enhancement |
WO2014106085A1 (en) * | 2012-12-27 | 2014-07-03 | Research Foundation Of The City University Of New York | Wearable navigation assistance for the vision-impaired |
WO2016037238A1 (en) * | 2014-09-10 | 2016-03-17 | National Ict Australia Limited | Enhancing vision for a vision impaired user |
-
2015
- 2015-07-28 JP JP2017505107A patent/JP6725133B2/ja active Active
- 2015-07-28 EP EP15828148.5A patent/EP3195164B1/en active Active
- 2015-07-28 AU AU2015296895A patent/AU2015296895B2/en active Active
- 2015-07-28 WO PCT/AU2015/050425 patent/WO2016015099A1/en active Application Filing
- 2015-07-28 US US15/329,908 patent/US10441500B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
AU2015296895A1 (en) | 2017-03-02 |
EP3195164A1 (en) | 2017-07-26 |
EP3195164B1 (en) | 2022-11-16 |
WO2016015099A1 (en) | 2016-02-04 |
JP6725133B2 (ja) | 2020-07-15 |
AU2015296895B2 (en) | 2021-02-04 |
EP3195164A4 (en) | 2018-04-11 |
US10441500B2 (en) | 2019-10-15 |
US20170231865A1 (en) | 2017-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5470415B2 (ja) | イプシロンフィルタの閾値決定方法およびローパスフィルタの係数決定方法 | |
JP6725133B2 (ja) | 感覚置換デバイスのパラメータ値の決定 | |
US9661296B2 (en) | Image processing apparatus and method | |
EP3111635B1 (en) | Systems and methods to control judder visibility | |
JP5522404B2 (ja) | 画像処理方法、画像処理装置及びプログラム | |
JP2008520268A (ja) | 局所エンハンスメントのための画像の非接触操作 | |
CN104272346A (zh) | 用于细节增强和降噪的图像处理方法 | |
JP2015156607A (ja) | 画像処理装置、画像処理装置、及び電子機器 | |
EP2590418A1 (en) | Dynamic depth image adjusting device and method thereof | |
JP6587317B2 (ja) | ガイデットフィルタベースのディテール強調 | |
KR20150003582A (ko) | 디스플레이의 곡률을 참조하는 영상 처리장치 및 방법 | |
Majumdar et al. | Modified CLAHE: An adaptive algorithm for contrast enhancement of aerial, medical and underwater images | |
WO2012015020A1 (en) | Method and device for image enhancement | |
JP2010197597A (ja) | 表示制御装置、及び表示制御方法 | |
WO2008102296A2 (en) | Method for enhancing the depth sensation of an image | |
EP4078506B1 (en) | A system for performing ambient light image correction | |
JP6558365B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2017524474A5 (ja) | ||
EP2590417A1 (en) | Stereoscopic image display apparatus | |
JP5623156B2 (ja) | 画像処理装置及びその制御方法 | |
WO2020227759A1 (en) | Single image contrast | |
JP7014151B2 (ja) | 液晶表示装置、および液晶表示制御方法、並びにプログラム | |
US10977340B2 (en) | Dynamic grayscale adjustment method and related device | |
KR20180092416A (ko) | 영상의 대조비 개선 장치 및 방법 | |
WO2018142110A1 (en) | Image processing method, apparatus and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6725133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |