CN103366157B - 一种人眼视线距离的判断方法- Google Patents

文章推薦指數: 80 %
投票人數:10人

其特征在于:其根据在环境光线一致的情况下人眼观察距离的远近与人眼瞳孔变化大小 ... 对司机行驶速度提出建议,避免交通事故;在城市环境中,通过在三维空间中判断人眼 ... CN103366157B-一种人眼视线距离的判断方法 -GooglePatents 一种人眼视线距离的判断方法 DownloadPDF Info Publicationnumber CN103366157B CN103366157B CN201310160124.1A CN201310160124A CN103366157B CN103366157B CN103366157B CN103366157B CN201310160124A CN201310160124A CN201310160124A CN103366157B CN103366157B CN103366157B Authority CN China Priorartkeywords pupil humaneye rainbow image ratio Priorartdate 2013-05-03 Legalstatus(Thelegalstatusisanassumptionandisnotalegalconclusion.Googlehasnotperformedalegalanalysisandmakesnorepresentationastotheaccuracyofthestatuslisted.) Active Applicationnumber CN201310160124.1A Otherlanguages English(en) Otherversions CN103366157A (zh Inventor 吴健 马建 宋峥 OriginalAssignee 马建 Prioritydate(Theprioritydateisanassumptionandisnotalegalconclusion.Googlehasnotperformedalegalanalysisandmakesnorepresentationastotheaccuracyofthedatelisted.) 2013-05-03 Filingdate 2013-05-03 Publicationdate 2016-12-28 2013-05-03 Applicationfiledby马建 filed Critical 马建 2013-05-03 PrioritytoCN201310160124.1A priority Critical patent/CN103366157B/zh 2013-10-23 PublicationofCN103366157A publication Critical patent/CN103366157A/zh 2016-12-28 Applicationgranted granted Critical 2016-12-28 PublicationofCN103366157B publication Critical patent/CN103366157B/zh Status Active legal-status Critical Current 2033-05-03 Anticipatedexpiration legal-status Critical Links Espacenet GlobalDossier Discuss 230000004438 eyesight Effects 0.000 title claims abstract description 17 210000001747 Pupil Anatomy 0.000 claims abstract description 146 210000001508 Eye Anatomy 0.000 claims abstract description 72 210000000554 Iris Anatomy 0.000 claims abstract description 38 238000000034 method Methods 0.000 claims abstract description 18 230000000875 corresponding Effects 0.000 claims abstract description 10 238000003331 infraredimaging Methods 0.000 claims description 9 238000010606 normalization Methods 0.000 claims description 7 230000000694 effects Effects 0.000 claims description 5 238000001914 filtration Methods 0.000 claims description 5 230000003287 optical Effects 0.000 claims description 3 238000007619 statisticalmethod Methods 0.000 claims description 3 230000000007 visualeffect Effects 0.000 claims description 2 210000000695 CrystallineLens Anatomy 0.000 description 7 238000010586 diagram Methods 0.000 description 4 210000001525 Retina Anatomy 0.000 description 3 230000003993 interaction Effects 0.000 description 3 230000018109 developmentalprocess Effects 0.000 description 2 239000011521 glass Substances 0.000 description 2 238000003384 imagingmethod Methods 0.000 description 2 238000004064 recycling Methods 0.000 description 2 241000208340 Araliaceae Species 0.000 description 1 210000004087 Cornea Anatomy 0.000 description 1 210000000744 Eyelids Anatomy 0.000 description 1 235000003140 Panaxquinquefolius Nutrition 0.000 description 1 206010037515 Pupilfixed Diseases 0.000 description 1 238000004458 analyticalmethod Methods 0.000 description 1 230000003190 augmentative Effects 0.000 description 1 238000005315 distributionfunction Methods 0.000 description 1 238000000605 extraction Methods 0.000 description 1 239000012467 finalproduct Substances 0.000 description 1 235000005035 ginseng Nutrition 0.000 description 1 235000008434 ginseng Nutrition 0.000 description 1 238000009499 grossing Methods 0.000 description 1 230000004807 localization Effects 0.000 description 1 238000003330 mid-infraredimaging Methods 0.000 description 1 239000000047 product Substances 0.000 description 1 230000001179 pupillary Effects 0.000 description 1 HCWPIIXVSYCSAN-UHFFFAOYSA-N radium Chemicalcompound data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nMzAwcHgnIGhlaWdodD0nMzAwcHgnIHZpZXdCb3g9JzAgMCAzMDAgMzAwJz4KPCEtLSBFTkQgT0YgSEVBREVSIC0tPgo8cmVjdCBzdHlsZT0nb3BhY2l0eToxLjA7ZmlsbDojRkZGRkZGO3N0cm9rZTpub25lJyB3aWR0aD0nMzAwJyBoZWlnaHQ9JzMwMCcgeD0nMCcgeT0nMCc+IDwvcmVjdD4KPHRleHQgeD0nMTM4JyB5PScxNzAnIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6NDBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiMzQjQxNDMnID5SPC90ZXh0Pgo8dGV4dCB4PScxNjUuNicgeT0nMTcwJyBjbGFzcz0nYXRvbS0wJyBzdHlsZT0nZm9udC1zaXplOjQwcHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7dGV4dC1hbmNob3I6c3RhcnQ7ZmlsbDojM0I0MTQzJyA+YTwvdGV4dD4KPHBhdGggZD0nTSAxODguNDM4LDE0NiBMIDE4OC40MzEsMTQ1LjgyOCBMIDE4OC40MDksMTQ1LjY1NyBMIDE4OC4zNzIsMTQ1LjQ4OSBMIDE4OC4zMjEsMTQ1LjMyNSBMIDE4OC4yNTYsMTQ1LjE2NiBMIDE4OC4xNzcsMTQ1LjAxMiBMIDE4OC4wODYsMTQ0Ljg2NyBMIDE4Ny45ODIsMTQ0LjcyOSBMIDE4Ny44NjgsMTQ0LjYwMSBMIDE4Ny43NDIsMTQ0LjQ4MyBMIDE4Ny42MDcsMTQ0LjM3NyBMIDE4Ny40NjMsMTQ0LjI4MiBMIDE4Ny4zMTEsMTQ0LjIwMSBMIDE4Ny4xNTQsMTQ0LjEzMiBMIDE4Ni45OSwxNDQuMDc4IEwgMTg2LjgyMywxNDQuMDM3IEwgMTg2LjY1MywxNDQuMDEyIEwgMTg2LjQ4MSwxNDQgTCAxODYuMzA5LDE0NC4wMDQgTCAxODYuMTM4LDE0NC4wMjMgTCAxODUuOTY5LDE0NC4wNTYgTCAxODUuODA0LDE0NC4xMDMgTCAxODUuNjQzLDE0NC4xNjUgTCAxODUuNDg4LDE0NC4yNCBMIDE4NS4zNCwxNDQuMzI4IEwgMTg1LjIwMSwxNDQuNDI5IEwgMTg1LjA3LDE0NC41NDEgTCAxODQuOTUsMTQ0LjY2NCBMIDE4NC44NDEsMTQ0Ljc5NyBMIDE4NC43NDMsMTQ0LjkzOSBMIDE4NC42NTgsMTQ1LjA4OCBMIDE4NC41ODYsMTQ1LjI0NSBMIDE4NC41MjgsMTQ1LjQwNyBMIDE4NC40ODQsMTQ1LjU3MyBMIDE4NC40NTUsMTQ1Ljc0MyBMIDE4NC40NCwxNDUuOTE0IEwgMTg0LjQ0LDE0Ni4wODYgTCAxODQuNDU1LDE0Ni4yNTcgTCAxODQuNDg0LDE0Ni40MjcgTCAxODQuNTI4LDE0Ni41OTMgTCAxODQuNTg2LDE0Ni43NTUgTCAxODQuNjU4LDE0Ni45MTIgTCAxODQuNzQzLDE0Ny4wNjEgTCAxODQuODQxLDE0Ny4yMDMgTCAxODQuOTUsMTQ3LjMzNiBMIDE4NS4wNywxNDcuNDU5IEwgMTg1LjIwMSwxNDcuNTcxIEwgMTg1LjM0LDE0Ny42NzIgTCAxODUuNDg4LDE0Ny43NiBMIDE4NS42NDMsMTQ3LjgzNSBMIDE4NS44MDQsMTQ3Ljg5NyBMIDE4NS45NjksMTQ3Ljk0NCBMIDE4Ni4xMzgsMTQ3Ljk3NyBMIDE4Ni4zMDksMTQ3Ljk5NiBMIDE4Ni40ODEsMTQ4IEwgMTg2LjY1MywxNDcuOTg4IEwgMTg2LjgyMywxNDcuOTYzIEwgMTg2Ljk5LDE0Ny45MjIgTCAxODcuMTU0LDE0Ny44NjggTCAxODcuMzExLDE0Ny43OTkgTCAxODcuNDYzLDE0Ny43MTggTCAxODcuNjA3LDE0Ny42MjMgTCAxODcuNzQyLDE0Ny41MTcgTCAxODcuODY4LDE0Ny4zOTkgTCAxODcuOTgyLDE0Ny4yNzEgTCAxODguMDg2LDE0Ny4xMzMgTCAxODguMTc3LDE0Ni45ODggTCAxODguMjU2LDE0Ni44MzQgTCAxODguMzIxLDE0Ni42NzUgTCAxODguMzcyLDE0Ni41MTEgTCAxODguNDA5LDE0Ni4zNDMgTCAxODguNDMxLDE0Ni4xNzIgTCAxODguNDM4LDE0NiBMIDE4Ni40MzgsMTQ2IFonIHN0eWxlPSdmaWxsOiMwMDAwMDA7ZmlsbC1ydWxlOmV2ZW5vZGQ7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOiMwMDAwMDA7c3Ryb2tlLXdpZHRoOjBweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxOycgLz4KPHBhdGggZD0nTSAxODguNDM4LDE1NCBMIDE4OC40MzEsMTUzLjgyOCBMIDE4OC40MDksMTUzLjY1NyBMIDE4OC4zNzIsMTUzLjQ4OSBMIDE4OC4zMjEsMTUzLjMyNSBMIDE4OC4yNTYsMTUzLjE2NiBMIDE4OC4xNzcsMTUzLjAxMiBMIDE4OC4wODYsMTUyLjg2NyBMIDE4Ny45ODIsMTUyLjcyOSBMIDE4Ny44NjgsMTUyLjYwMSBMIDE4Ny43NDIsMTUyLjQ4MyBMIDE4Ny42MDcsMTUyLjM3NyBMIDE4Ny40NjMsMTUyLjI4MiBMIDE4Ny4zMTEsMTUyLjIwMSBMIDE4Ny4xNTQsMTUyLjEzMiBMIDE4Ni45OSwxNTIuMDc4IEwgMTg2LjgyMywxNTIuMDM3IEwgMTg2LjY1MywxNTIuMDEyIEwgMTg2LjQ4MSwxNTIgTCAxODYuMzA5LDE1Mi4wMDQgTCAxODYuMTM4LDE1Mi4wMjMgTCAxODUuOTY5LDE1Mi4wNTYgTCAxODUuODA0LDE1Mi4xMDMgTCAxODUuNjQzLDE1Mi4xNjUgTCAxODUuNDg4LDE1Mi4yNCBMIDE4NS4zNCwxNTIuMzI4IEwgMTg1LjIwMSwxNTIuNDI5IEwgMTg1LjA3LDE1Mi41NDEgTCAxODQuOTUsMTUyLjY2NCBMIDE4NC44NDEsMTUyLjc5NyBMIDE4NC43NDMsMTUyLjkzOSBMIDE4NC42NTgsMTUzLjA4OCBMIDE4NC41ODYsMTUzLjI0NSBMIDE4NC41MjgsMTUzLjQwNyBMIDE4NC40ODQsMTUzLjU3MyBMIDE4NC40NTUsMTUzLjc0MyBMIDE4NC40NCwxNTMuOTE0IEwgMTg0LjQ0LDE1NC4wODYgTCAxODQuNDU1LDE1NC4yNTcgTCAxODQuNDg0LDE1NC40MjcgTCAxODQuNTI4LDE1NC41OTMgTCAxODQuNTg2LDE1NC43NTUgTCAxODQuNjU4LDE1NC45MTIgTCAxODQuNzQzLDE1NS4wNjEgTCAxODQuODQxLDE1NS4yMDMgTCAxODQuOTUsMTU1LjMzNiBMIDE4NS4wNywxNTUuNDU5IEwgMTg1LjIwMSwxNTUuNTcxIEwgMTg1LjM0LDE1NS42NzIgTCAxODUuNDg4LDE1NS43NiBMIDE4NS42NDMsMTU1LjgzNSBMIDE4NS44MDQsMTU1Ljg5NyBMIDE4NS45NjksMTU1Ljk0NCBMIDE4Ni4xMzgsMTU1Ljk3NyBMIDE4Ni4zMDksMTU1Ljk5NiBMIDE4Ni40ODEsMTU2IEwgMTg2LjY1MywxNTUuOTg4IEwgMTg2LjgyMywxNTUuOTYzIEwgMTg2Ljk5LDE1NS45MjIgTCAxODcuMTU0LDE1NS44NjggTCAxODcuMzExLDE1NS43OTkgTCAxODcuNDYzLDE1NS43MTggTCAxODcuNjA3LDE1NS42MjMgTCAxODcuNzQyLDE1NS41MTcgTCAxODcuODY4LDE1NS4zOTkgTCAxODcuOTgyLDE1NS4yNzEgTCAxODguMDg2LDE1NS4xMzMgTCAxODguMTc3LDE1NC45ODggTCAxODguMjU2LDE1NC44MzQgTCAxODguMzIxLDE1NC42NzUgTCAxODguMzcyLDE1NC41MTEgTCAxODguNDA5LDE1NC4zNDMgTCAxODguNDMxLDE1NC4xNzIgTCAxODguNDM4LDE1NCBMIDE4Ni40MzgsMTU0IFonIHN0eWxlPSdmaWxsOiMwMDAwMDA7ZmlsbC1ydWxlOmV2ZW5vZGQ7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOiMwMDAwMDA7c3Ryb2tlLXdpZHRoOjBweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxOycgLz4KPC9zdmc+Cg== data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nODVweCcgaGVpZ2h0PSc4NXB4JyB2aWV3Qm94PScwIDAgODUgODUnPgo8IS0tIEVORCBPRiBIRUFERVIgLS0+CjxyZWN0IHN0eWxlPSdvcGFjaXR5OjEuMDtmaWxsOiNGRkZGRkY7c3Ryb2tlOm5vbmUnIHdpZHRoPSc4NScgaGVpZ2h0PSc4NScgeD0nMCcgeT0nMCc+IDwvcmVjdD4KPHRleHQgeD0nMzUuMDQ1NScgeT0nNTMuNTkwOScgY2xhc3M9J2F0b20tMCcgc3R5bGU9J2ZvbnQtc2l6ZToyM3B4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO3RleHQtYW5jaG9yOnN0YXJ0O2ZpbGw6IzNCNDE0MycgPlI8L3RleHQ+Cjx0ZXh0IHg9JzUxLjA0MDknIHk9JzUzLjU5MDknIGNsYXNzPSdhdG9tLTAnIHN0eWxlPSdmb250LXNpemU6MjNweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjt0ZXh0LWFuY2hvcjpzdGFydDtmaWxsOiMzQjQxNDMnID5hPC90ZXh0Pgo8cGF0aCBkPSdNIDY2LjM4ODQsMzkuNjgxOCBMIDY2LjM4NDEsMzkuNTgyMiBMIDY2LjM3MTMsMzkuNDgzMyBMIDY2LjM1LDM5LjM4NTggTCA2Ni4zMjA0LDM5LjI5MDYgTCA2Ni4yODI3LDM5LjE5ODMgTCA2Ni4yMzczLDM5LjEwOTUgTCA2Ni4xODQzLDM5LjAyNSBMIDY2LjEyNDMsMzguOTQ1MyBMIDY2LjA1NzcsMzguODcxMSBMIDY1Ljk4NDksMzguODAyOSBMIDY1LjkwNjYsMzguNzQxMiBMIDY1LjgyMzIsMzguNjg2NCBMIDY1LjczNTUsMzguNjM5MSBMIDY1LjY0MzksMzguNTk5NCBMIDY1LjU0OTQsMzguNTY3OCBMIDY1LjQ1MjQsMzguNTQ0NCBMIDY1LjM1MzgsMzguNTI5NCBMIDY1LjI1NDMsMzguNTIzIEwgNjUuMTU0NiwzOC41MjUxIEwgNjUuMDU1NCwzOC41MzU5IEwgNjQuOTU3NSwzOC41NTUgTCA2NC44NjE3LDM4LjU4MjYgTCA2NC43Njg1LDM4LjYxODMgTCA2NC42Nzg4LDM4LjY2MTggTCA2NC41OTMyLDM4LjcxMjkgTCA2NC41MTIyLDM4Ljc3MTIgTCA2NC40MzY2LDM4LjgzNjIgTCA2NC4zNjY5LDM4LjkwNzUgTCA2NC4zMDM1LDM4Ljk4NDUgTCA2NC4yNDcsMzkuMDY2NyBMIDY0LjE5NzcsMzkuMTUzNCBMIDY0LjE1NjEsMzkuMjQ0IEwgNjQuMTIyNCwzOS4zMzc5IEwgNjQuMDk3LDM5LjQzNDMgTCA2NC4wNzk5LDM5LjUzMjYgTCA2NC4wNzEzLDM5LjYzMiBMIDY0LjA3MTMsMzkuNzMxNyBMIDY0LjA3OTksMzkuODMxIEwgNjQuMDk3LDM5LjkyOTMgTCA2NC4xMjI0LDQwLjAyNTcgTCA2NC4xNTYxLDQwLjExOTYgTCA2NC4xOTc3LDQwLjIxMDMgTCA2NC4yNDcsNDAuMjk3IEwgNjQuMzAzNSw0MC4zNzkyIEwgNjQuMzY2OSw0MC40NTYyIEwgNjQuNDM2Niw0MC41Mjc0IEwgNjQuNTEyMiw0MC41OTI1IEwgNjQuNTkzMiw0MC42NTA3IEwgNjQuNjc4OCw0MC43MDE4IEwgNjQuNzY4NSw0MC43NDU0IEwgNjQuODYxNyw0MC43ODExIEwgNjQuOTU3NSw0MC44MDg2IEwgNjUuMDU1NCw0MC44Mjc4IEwgNjUuMTU0Niw0MC44Mzg1IEwgNjUuMjU0Myw0MC44NDA2IEwgNjUuMzUzOCw0MC44MzQyIEwgNjUuNDUyNCw0MC44MTkyIEwgNjUuNTQ5NCw0MC43OTU5IEwgNjUuNjQzOSw0MC43NjQyIEwgNjUuNzM1NSw0MC43MjQ2IEwgNjUuODIzMiw0MC42NzcyIEwgNjUuOTA2Niw0MC42MjI1IEwgNjUuOTg0OSw0MC41NjA4IEwgNjYuMDU3Nyw0MC40OTI2IEwgNjYuMTI0Myw0MC40MTgzIEwgNjYuMTg0Myw0MC4zMzg3IEwgNjYuMjM3Myw0MC4yNTQxIEwgNjYuMjgyNyw0MC4xNjU0IEwgNjYuMzIwNCw0MC4wNzMgTCA2Ni4zNSwzOS45Nzc4IEwgNjYuMzcxMywzOS44ODA0IEwgNjYuMzg0MSwzOS43ODE1IEwgNjYuMzg4NCwzOS42ODE4IEwgNjUuMjI5MywzOS42ODE4IFonIHN0eWxlPSdmaWxsOiMwMDAwMDA7ZmlsbC1ydWxlOmV2ZW5vZGQ7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOiMwMDAwMDA7c3Ryb2tlLXdpZHRoOjBweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxOycgLz4KPHBhdGggZD0nTSA2Ni4zODg0LDQ0LjMxODIgTCA2Ni4zODQxLDQ0LjIxODUgTCA2Ni4zNzEzLDQ0LjExOTYgTCA2Ni4zNSw0NC4wMjIyIEwgNjYuMzIwNCw0My45MjcgTCA2Ni4yODI3LDQzLjgzNDYgTCA2Ni4yMzczLDQzLjc0NTkgTCA2Ni4xODQzLDQzLjY2MTMgTCA2Ni4xMjQzLDQzLjU4MTcgTCA2Ni4wNTc3LDQzLjUwNzQgTCA2NS45ODQ5LDQzLjQzOTIgTCA2NS45MDY2LDQzLjM3NzUgTCA2NS44MjMyLDQzLjMyMjggTCA2NS43MzU1LDQzLjI3NTQgTCA2NS42NDM5LDQzLjIzNTggTCA2NS41NDk0LDQzLjIwNDEgTCA2NS40NTI0LDQzLjE4MDggTCA2NS4zNTM4LDQzLjE2NTggTCA2NS4yNTQzLDQzLjE1OTQgTCA2NS4xNTQ2LDQzLjE2MTUgTCA2NS4wNTU0LDQzLjE3MjIgTCA2NC45NTc1LDQzLjE5MTQgTCA2NC44NjE3LDQzLjIxODkgTCA2NC43Njg1LDQzLjI1NDYgTCA2NC42Nzg4LDQzLjI5ODIgTCA2NC41OTMyLDQzLjM0OTMgTCA2NC41MTIyLDQzLjQwNzUgTCA2NC40MzY2LDQzLjQ3MjYgTCA2NC4zNjY5LDQzLjU0MzggTCA2NC4zMDM1LDQzLjYyMDggTCA2NC4yNDcsNDMuNzAzIEwgNjQuMTk3Nyw0My43ODk3IEwgNjQuMTU2MSw0My44ODA0IEwgNjQuMTIyNCw0My45NzQzIEwgNjQuMDk3LDQ0LjA3MDcgTCA2NC4wNzk5LDQ0LjE2OSBMIDY0LjA3MTMsNDQuMjY4MyBMIDY0LjA3MTMsNDQuMzY4IEwgNjQuMDc5OSw0NC40Njc0IEwgNjQuMDk3LDQ0LjU2NTcgTCA2NC4xMjI0LDQ0LjY2MjEgTCA2NC4xNTYxLDQ0Ljc1NiBMIDY0LjE5NzcsNDQuODQ2NiBMIDY0LjI0Nyw0NC45MzMzIEwgNjQuMzAzNSw0NS4wMTU1IEwgNjQuMzY2OSw0NS4wOTI1IEwgNjQuNDM2Niw0NS4xNjM4IEwgNjQuNTEyMiw0NS4yMjg4IEwgNjQuNTkzMiw0NS4yODcxIEwgNjQuNjc4OCw0NS4zMzgyIEwgNjQuNzY4NSw0NS4zODE3IEwgNjQuODYxNyw0NS40MTc0IEwgNjQuOTU3NSw0NS40NDUgTCA2NS4wNTU0LDQ1LjQ2NDEgTCA2NS4xNTQ2LDQ1LjQ3NDkgTCA2NS4yNTQzLDQ1LjQ3NyBMIDY1LjM1MzgsNDUuNDcwNiBMIDY1LjQ1MjQsNDUuNDU1NiBMIDY1LjU0OTQsNDUuNDMyMiBMIDY1LjY0MzksNDUuNDAwNiBMIDY1LjczNTUsNDUuMzYwOSBMIDY1LjgyMzIsNDUuMzEzNiBMIDY1LjkwNjYsNDUuMjU4OCBMIDY1Ljk4NDksNDUuMTk3MSBMIDY2LjA1NzcsNDUuMTI4OSBMIDY2LjEyNDMsNDUuMDU0NyBMIDY2LjE4NDMsNDQuOTc1IEwgNjYuMjM3Myw0NC44OTA1IEwgNjYuMjgyNyw0NC44MDE3IEwgNjYuMzIwNCw0NC43MDk0IEwgNjYuMzUsNDQuNjE0MiBMIDY2LjM3MTMsNDQuNTE2NyBMIDY2LjM4NDEsNDQuNDE3OCBMIDY2LjM4ODQsNDQuMzE4MiBMIDY1LjIyOTMsNDQuMzE4MiBaJyBzdHlsZT0nZmlsbDojMDAwMDAwO2ZpbGwtcnVsZTpldmVub2RkO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTojMDAwMDAwO3N0cm9rZS13aWR0aDowcHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MTsnIC8+Cjwvc3ZnPgo= [Ra] HCWPIIXVSYCSAN-UHFFFAOYSA-N 0.000 description 1 229910052705 radium Inorganicmaterials 0.000 description 1 230000011514 reflex Effects 0.000 description 1 230000011218 segmentation Effects 0.000 description 1 Abstract 本发明提供了一种人眼视线距离的判断方法,解决目前的二维平面视线追踪技术只能追踪人的视线角度而无法对人眼视线距离进行追踪判定的问题。

其特征在于:其根据在环境光线一致的情况下人眼观察距离的远近与人眼瞳孔变化大小的之间的对应关系来建立瞳虹比与目标距离的关系模型,再采集当前人眼的瞳虹比、并通过瞳虹比与目标距离的关系模型来判断当前人眼的视线纵深距离,瞳虹比为人眼瞳孔面积与人眼虹膜面积的比值。

Description 一种人眼视线距离的判断方法 技术领域 [0001]本发明涉及移动情景感知和人机交互技术领域,具体为一种人眼视线距离的判断方法。

背景技术 [0002]二维平面视线追踪技术最早在20世纪70年代提出,其基本工作原理是利用图象处理技术,使用能锁定眼睛的特殊摄像机。

通过摄入从人的眼角膜和瞳孔反射的红外线连续地记录视线变化,从而实现在目标二维平面上记录分析视线追踪过程。

视线追踪技术的出现是为了解决残疾人与机器交互的需要,然而其取代鼠标键盘成为新一代通用人机交互方式的潜力正逐步被认可。

[0003]经过30余年的发展,二维平面视线追踪技术正逐渐由理论转向工业级产品:TobbiTechnology于2010年和2012年分别和日本法人拓比电子技术与联想合作,推出具有视线追踪技术的眼镜和笔记本电脑;最大的社交网站,Facebook公司也于2012年3月9日收购视线追踪公司GazeHawk。

同时,随着新一代智能随身终端(如Google眼镜)的出现和情景感知技术的发展,与周围环境三维图像的交互需求正逐渐替代和显示器二维屏幕的交互。

[0004]在室内环境中,通过在三维空间中准确测量视线所注视物体,可以实现便捷准确的远程家居控制;在驾驶时,通过在三维空间中捕获所注视的物体和与本车的距离,可以有效的对司机行驶速度提出建议,避免交通事故;在城市环境中,通过在三维空间中判断人眼所观察的物体,可以满足增强现实应用、户外广告精准营销等多种需求,因此三维视线追踪技术在很多领域都有广泛的应用前景,然而目前的二维平面视线追踪技术只能追踪人的视线角度,其无法对人的视线距离进行追踪判定,故制约了三维视线追踪的实际应用。

发明内容 [0005]针对上述问题,本发明提供了一种人眼视线距离的判断方法,解决目前的二维平面视线追踪技术只能追踪人的视线角度而无法对人眼视线距离进行追踪判定的问题。

[0006]其技术方案是这样的,其特征在于:其根据在环境光线一致的情况下人眼观察距离的远近与人眼瞳孔变化大小的之间的对应关系来建立瞳虹比与目标距离的关系模型,再采集当前人眼的所述瞳虹比、并通过所述瞳虹比与目标距离的关系模型来判断当前人眼的视线纵深距离,所述瞳虹比为人眼瞳孔面积与人眼虹膜面积的比值。

[0007]其进一步特征在于: [0008]所述瞳虹比与目标距离的关系模型的建立包括以下步骤:人眼观察不同定距的定物体,记录并计算每次观察时的所述瞳虹比,将上述不同定距下观察定物体得到的各瞳虹比数值进行统计分析,得到该用户的瞳虹比与观察目标距离之间的对应比例关系,最后通过参数校准模块校准个体参数; [0009]所述瞳虹比的采集,其包括以下步骤:所述用户观察所述定距定物体时, [0010]首先,采用红外成像系统采集人眼瞳孔图像; [0011]然后,对所述人眼瞳孔图像进行去噪、图像归一化处理,再对已经进行去噪、图像归一化处理后的人眼瞳孔图像中虹膜与瞳孔进行边界定位,得到眼图; [0012]接着,对所述眼图中所述已边界定位的虹模与瞳孔采用最小二乘法进行椭圆拟合,得到完整的虹膜、瞳孔位置关系图; [0013]最后,根据所述完整的虹膜、瞳孔位置关系图计算瞳虹比。

[0014]其更进一步特征在于: [0015]所述红外成像系统包括红外发射和接收器、微型摄像机以及半反半透镜片,所述红外发射和接收器发出的红外光的波长为700nm~1050nm,所述微型摄像机对准眼球的反射光路;所述半反半透镜片设置于人眼的前方,其起到反射红外光、透视可见光的作用; [0016]所述对人眼瞳孔图像进行去噪、图像归一化处理,采用中值滤波法对所述人眼瞳孔图像进行去噪处理,再利用灰度直方图对已去噪处理的所述人眼瞳孔图像进行归一化处理,再采用基于瞳孔灰度特征的快速定位方法、或者轮廓跟踪方法、或者模板匹配算法中的任一种方法在所述归一化处理后的人眼瞳孔图像中对人眼虹膜、瞳孔进行边界定位; [0017]所述计算瞳虹比,通过图像遍历计算所述完整的虹膜、瞳孔位置关系图内虹膜像素点个数与瞳孔像素点个数,将计算得到的所述瞳孔像素点个数比所述虹膜像素点个数即得到所述瞳虹比。

[0018]其更进一步特征还在于: [0019]所述红外成像系统的微型摄像机还包括一个面向视场的场景摄像机,其用于当前三维立体场景的建立。

[0020]本发明的有益效果在于:其根据在环境光线一致的情况下人眼观察距离的远近与人眼瞳孔变化大小的之间的对应关系,来建立瞳虹比与目标距离的关系模型,再采集当前人眼的所述瞳虹比、并通过瞳虹比与目标距离的关系模型来判断当前人眼的视线纵深距离,其中瞳虹比为人眼瞳孔面积与人眼虹膜面积的比值,且其瞳虹比的采集、瞳虹比与目标距离的关系模型的建立方法简单,人眼视线距离判断准确,能够有效应用于三维视线追踪应用中。

附图说明 [0021]图1为人眼成像示意图; [0022]图2为本发明方法中瞳虹比与目标距离的关系模型的建立流程示意图; [0023]图3为本发明中红外成像系统示意图; [0024]图4为本发明实施例中人眼瞳孔图像的灰度直方图; [0025]图5为本发明实施例中人眼瞳孔图像的虹膜、瞳孔特征点提取示意图; [0026]图6为本发明实施例中人眼瞳孔图像的虹膜、瞳孔特征点选取区域示意图; [0027]图7为本发明实施例中人眼虹膜、瞳孔的椭圆拟合图; [0028]图8为本发明实施例中瞳虹比与距离远近的坐标关系图。

具体实施方式 [0029]本发明是一种新的人眼视线距离的判断方法,其根据在环境光线一致的情况下,利用人眼观察距离的远近与人眼瞳孔变化大小的之间的对应关系来建立瞳虹比与目标距离的关系模型,再采集当前人眼的瞳虹比、并通过瞳虹比与目标距离的关系模型来判断当前人眼的视线纵深距离,瞳虹比为人眼瞳孔面积与人眼虹膜面积的比值。

[0030]人的眼睛是十分完美的光学系统,如果将人眼比做照相机,晶状体相当于镜头,视网膜相当于感光底片,瞳孔近似于光圈。

相机通过镜头和光圈的调节,来拍摄远处与近处物体。

而人的眼睛,主要是通过晶状体与瞳孔的变化来看清远近,见图1,当人眼观察远处物体时,睫状体放松,晶状体变薄,瞳孔扩大,让更多光线进入眼球,远处光线恰好会聚在视网膜上,此时看到远处物体。

当人眼观察近处,睫状体收缩,晶状体变厚,瞳孔缩小,进入眼球的光线减少,近处来的光线恰好会聚在视网膜上,就能看清近处物体,瞳孔大小可以反映出人观察距离的远近,因此可以用来推断人的视觉深度。

图1中,1为人眼眼球,2为晶状体,3为人眼观察的物体,4为视网膜上的物体3的成像。

[0031]本发明中瞳虹比与目标距离的关系模型的建立,见图2,其包括以下步骤:人眼观察不同定距的定物体,记录并计算每次观察时的瞳虹比,将上述不同定距下观察定物体得到的各瞳虹比数值进行统计分析,得到该用户的瞳虹比与观察目标距离之间的对应比例关系,见图8,从图中我们可以看出,当目标距离较近时,瞳虹比稍稍有所增加,但是增加幅度不是很明显,但是当距离扩大到5m时,瞳孔有较大增加,在10m-200m之间,随着距离的增加,瞳虹比的变化较为明显,当距离到达200m以上时,由于人眼视力的限制已经看不清目标,瞳孔的变化不大。

[0032]从多次试验后,统计发现:在白天日照情况下,以观察Im的距离为基准点,当瞳虹比增加4%以内的,观察距离在5m以内。

当瞳虹比增加30%以上,观察距离已经超过看清距离,一般在200m以上。

由于人眼形状、大小、直径、结构存在个体差异,因此需要对系统模型进行校正,在用户使用之前,先让用户观察固定点,测出用户瞳虹比与距离之间的关系,将参数上传到云端,与系统里面已有的用户资料进行比对,判断出用户视力,年龄,人种对模型的影响,再将数据传回本地,与获得数据结合,判断当前的视线深度,提高准确度。

[0033]其中瞳虹比的采集,包括以下步骤:用户观察定距定物体时,(1)采用红外成像系统采集人眼瞳孔图像,红外成像系统包括红外发射和接收器5、微型摄像机6以及半反半透镜片7,见图3,红外发射和接收器5发出的红外光的波长为700nm~1050nm,微型摄像机6对准眼球的反射光路;半反半透镜片7设置于人眼的前方,其起到反射红外光、透视可见光的作用;(2)对所采集的人眼瞳孔图像进行去噪、图像归一化处理,其中去噪处理采用中值滤波法,中值滤波的基本原理是使一个MXN窗口在图像上滑动,窗口中心位置的灰度值用窗口内各点灰度值的中值代替,所以只有中值灰度点对最后的处理结果有贡献,其他点贡献为零,从而消除孤立的噪声点。

二维中值滤波输出为: [0034] [0035]其中,f(x,y),g(x,y)分别为原始图像和处理后图像。

W为二维模板,通常为2*2,3*3区域,也可以是不同的形状,如线状,圆形,十字形,圆环形等;再利用灰度直方图对已去噪处理的人眼瞳孔图像进行归一化处理,灰度直方图是图像灰度值的函数,它统计一幅图像中各个灰度级出现的次数,其横坐标表示图像中各个像素点的灰度级,纵坐标为各个灰度级上图像各个像素点出现的次数;再对已经进行去噪、图像归一化处理后的人眼瞳孔图像中的虹膜与瞳孔进行边界定位,本实施例中采用基于瞳孔灰度特征的快速定位方法进行虹膜与瞳孔的边界定位,其从灰度直方图中找到瞳孔阀值,本发明中图像经过低通滤波后得到的图像灰度直方图(Histogram)如图4所示,在直方图中左边的波峰对应瞳孔,右边的波峰代表虹膜,两个波峰间的波谷处的灰度值为要提取的瞳孔阀值;获取阀值后,对图像进行分割,即可定位到虹膜和瞳孔的图像位置,见图5。

(3)对已边界定位的虹模与瞳孔采用最小二乘法进行椭圆拟合,瞳孔与虹膜的轮廓实际上是一个椭圆,用椭圆一般方程来表示瞳孔轮廓曲线Ax2+Bxy+cy2+Dx+Ey+F=0及约束条件B2_4AC<0, [0036]依据最小二乘原理: [0037] [0038] [0039] [0040]求出所需参数。

在本发明实施例中,首先从不同区域内的特征点中随机抽取6点,区域的分布应该在虹膜和瞳孔的特征点上,避免眼睑上的特征点,区域划分见图6,图6中9为眼睑,10为虹膜,利用最小二乘法求解椭圆参数,得到虹膜和瞳孔较为完整的拟合图像,得到完整的虹膜、瞳孔位置关系图见图7;(4)计算瞳虹比,通过图像遍历计算所述完整的虹膜、瞳孔位置关系图内虹膜像素点个数与瞳孔像素点个数,将计算得到的所述瞳孔像素点个数比所述虹膜像素点个数即得到瞳虹比;红外成像系统的微型摄像机还包括一个面向视场的场景摄像机8,其用于当前三维立体场景的建立。

[0041]下面具体对本实施例中基于瞳孔灰度特征的快速定位方法进行描述: [0042]1.瞳孔圆心粗定位 [0043]利用瞳孔区域和其他区域之间有灰度值突变的特性,采用分块统计灰度均值的方法可以快速粗定位瞳孔区域,设人眼图像灰度函数为,选取行列均不相交的A^V小块作为统计分块单元,计算出每个分块的灰度均值 [0044] [0045]按行(列)扫描整幅图像,得到一组均值数列#=/奶人其中i=l,2,…,K(K与图像大小和分块大小有关); [0046]遍历数列M,找到满足式(1)的第一个iQ值和最后一个it值,iQ和it作为返回原始图像坐标的参数依据。

由io和it反算出分块所在的图像坐标,即可粗定位瞳孔区域,内边界的定位过程即可在粗定位的瞳孔区域里进行,大大减小了运算数据量, [0047] (1) [0048]由iQ和it所对应的分块粗定位瞳孔区域仅有瞳孔圆边界,选取适当阀值即可得到边界非常明显的瞳孔外圆二值化图,但由于是点操作,得到的边缘点参差不齐,还需要进行平滑处理, [0049]对粗定位瞳孔区域进行多次开运算,消除噪音杂点的影响,得到光滑的瞳孔外圆边界的二值化图。

设二值图分布函数为A(x,y),其X方向和y方向二值投影可定义如下: (2) [0050]由式(2)可分别得到X方向和y方向最大投影值的坐标值:(max/Yfy^max/Y/j」),令XQ=max/Yiiy),7〃=max/Yjo」,即瞳孔粗定位圆心坐标为(x〇,y〇); [0051]2.瞳孔圆心精确定位 [0052]由于瞳孔区域几乎没有噪音和杂点的影响,故选取合适的阀值所得到的Canny边缘非常接近实际瞳孔圆边界。

以(XQ,yQ)为起点,按照一定的搜索路径即可得到边界上的N个点,则这N个点都在瞳孔真实边界附近,如图7所示。

由平面几何学知识可知,求解方程(x,y,r)参数仅需要A,B,C三点即可。

所以任取_,可得到妒组圆方程解(Xl,yi,n),由误差分析理论可知,(XlJ1^1)总是在真实圆参数附近浮动,为了使求得的圆参数更好的接近真实值,采用算术平均值方法可以很好的满足要求。

算术平均值的误差随测量次数的增加而减小,即N值越大,平均值越趋近于真值; [0053]3.虹膜外边界定位 [0054]医学研究证明,瞳孔中心与虹膜中心存在一定偏差,但通过大量的验证试验发现,二者偏差较小。

许多研究者在假设虹膜中心坐标就是瞳孔中心坐标的情况下,计算虹膜外边界所得的误差也较小,即可认为两圆圆心坐标非常接近,因此虹膜外边界定位方法如下:以已确定的瞳孔边缘的圆心和半径(Xp,yp,rp)作为基准,约束虹膜外边界圆心坐标的搜索范围,即外边界圆心坐标可看作为已知条件,则微分积分算法复杂的三参数搜索问题可转变为简单的一维参数空间搜索过程,且外圆半径的取值也在一定的范围内。

本实施例限定搜索范围后的微分积分算子为 [0055] [0056]其中:¾¾¾是尺度为3的高斯平滑滤波器,*表示卷积,其实质是求在可能半径周围上下点的灰度平均值,并对相邻圆的灰度差进行平滑滤波,相应灰度差值最大的参数就被确定为虹膜外圆的圆心和半径, , _、_是以瞳孔坐标为基准的取值范围,是以瞳孔半径为基准的半径范围。

[0057]本发明中对已经进行去噪、图像归一化处理后的人眼瞳孔图像中的虹膜与瞳孔进行边界定位,除了采用本实施例中的基于瞳孔灰度特征的快速定位方法以外,还可以采用轮廓跟踪方法、或者模板匹配算法进行。

Claims(6) 1.一种人眼视线距离的判断方法,其特征在于:其根据在环境光线一致的情况下人眼观察距离的远近与人眼瞳孔变化大小的之间的对应关系来建立瞳虹比与目标距离的关系模型,再采集当前人眼的所述瞳虹比、并通过所述瞳虹比与目标距离的关系模型来判断当前人眼的视线距离,所述瞳虹比为人眼瞳孔面积与人眼虹膜面积的比值;所述瞳虹比与目标距离的关系模型的建立包括以下步骤:人眼观察不同定距的定物体,记录并计算每次观察时的所述瞳虹比,将上述不同定距下观察定物体得到的各瞳虹比数值进行统计分析,得到用户的瞳虹比与观察目标距离之间的对应比例关系,最后通过参数校准模块校准个体参数。

2.根据权利要求1所述的一种人眼视线距离的判断方法,其特征在于:所述瞳虹比的采集,其包括以下步骤:所述用户观察所述定距定物体时,首先,采用红外成像系统采集人眼瞳孔图像;然后,对所述人眼瞳孔图像进行去噪、图像归一化处理,再对已经进行去噪、图像归一化处理后的人眼瞳孔图像中虹膜与瞳孔进行边界定位,得到眼图;接着,对已边界定位的虹模与瞳孔采用最小二乘法进行椭圆拟合,得到完整的虹膜、瞳孔位置关系图;最后,计算瞳虹比。

3.根据权利要求2所述的一种人眼视线距离的判断方法,其特征在于:所述红外成像系统包括红外发射和接收器、微型摄像机以及半反半透镜片,所述红外发射和接收器发出的红外光的波长为700nm~1050nm,所述微型摄像机对准眼球的反射光路;所述半反半透镜片设置于人眼的前方,其起到反射红外光、透视可见光的作用。

4.根据权利要求2所述的一种人眼视线距离的判断方法,其特征在于:所述对人眼瞳孔图像进行去噪、图像归一化处理中,采用中值滤波法对所述人眼瞳孔图像进行去噪处理,再利用灰度直方图对已去噪处理的所述人眼瞳孔图像进行归一化处理,所述灰度直方图是图像灰度值的函数,它统计一幅图像中各个灰度级出现的次数,其横坐标表示图像中各个像素点的灰度级,纵坐标为各个灰度级上图像各个像素点出现的次数。

5.根据权利要求2所述的一种人眼视线距离的判断方法,其特征在于:所述瞳虹比的采集,其包括以下步骤:所述瞳虹比的计算,通过图像遍历计算所述完整的虹膜、瞳孔位置关系图内虹膜像素点个数与瞳孔像素点个数,将计算得到的所述瞳孔像素点个数比所述虹膜像素点个数即得到所述瞳虹比。

6.根据权利要求3所述的一种人眼视线距离的判断方法,其特征在于:所述红外成像系统的微型摄像机还包括一个面向视场的场景摄像机,其用于当前三维立体场景的建立。

CN201310160124.1A 2013-05-03 2013-05-03 一种人眼视线距离的判断方法 Active CN103366157B (zh) PriorityApplications(1) ApplicationNumber PriorityDate FilingDate Title CN201310160124.1A CN103366157B (zh) 2013-05-03 2013-05-03 一种人眼视线距离的判断方法 ApplicationsClaimingPriority(1) ApplicationNumber PriorityDate FilingDate Title CN201310160124.1A CN103366157B (zh) 2013-05-03 2013-05-03 一种人眼视线距离的判断方法 Publications(2) PublicationNumber PublicationDate CN103366157A CN103366157A (zh) 2013-10-23 CN103366157B true CN103366157B (zh) 2016-12-28 Family ID=49367463 FamilyApplications(1) ApplicationNumber Title PriorityDate FilingDate CN201310160124.1A Active CN103366157B (zh) 2013-05-03 2013-05-03 一种人眼视线距离的判断方法 CountryStatus(1) Country Link CN (1) CN103366157B (zh) CitedBy(1) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title TWI644260B (zh) * 2017-11-07 2018-12-11 佳世達科技股份有限公司 顯示裝置 FamiliesCitingthisfamily(14) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title CN104921697B (zh) * 2015-05-18 2017-04-26 华南师范大学 一种人眼视线纵向距离的快速测量方法 CN105574481B (zh) * 2015-07-31 2019-08-02 宇龙计算机通信科技(深圳)有限公司 一种虹膜图像识别方法及用户设备 DE102015014324A1 (de) * 2015-11-05 2017-05-11 NovartisAg Augenmodell CN106529423A (zh) * 2016-10-20 2017-03-22 鹄誉医疗科技(上海)有限公司 一种基于安卓系统的能量条人眼测距方法 CN106686365A (zh) * 2016-12-16 2017-05-17 歌尔科技有限公司 用于头戴显示设备的镜头调节方法、装置及头戴显示设备 CN107145224B (zh) * 2017-04-07 2019-10-29 清华大学 基于三维球面泰勒展开的人眼视线跟踪方法和装置 CN110393504A (zh) * 2018-04-24 2019-11-01 高金铎 一种瞳孔检测的方法及装置 CN108595008A (zh) * 2018-04-27 2018-09-28 北京计算机技术及应用研究所 基于眼动控制的人机交互方法 CN109284002B (zh) * 2018-08-29 2020-12-29 北京七鑫易维信息技术有限公司 一种用户距离估算方法、装置、设备及存储介质 CN109272557B (zh) * 2018-11-05 2019-10-22 北京科技大学 一种单相机单光源视线追踪系统眼球参数标定方法 CN109965843A (zh) * 2019-03-14 2019-07-05 华南师范大学 一种基于滤波传像的眼动系统 CN110096978A (zh) * 2019-04-18 2019-08-06 温州医科大学 基于机器视觉的偏心摄影验光图像处理的方法 CN110148275A (zh) * 2019-04-20 2019-08-20 上海科信建筑智能化工程有限公司 一种视频监控方法及其系统 CN110276324B (zh) * 2019-06-27 2021-06-22 北京万里红科技股份有限公司 一种虹膜图像中确定瞳孔椭圆的方法 Citations(2) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title CN101893858A (zh) * 2010-07-15 2010-11-24 华中科技大学 一种用于控制用户眼睛与电子设备屏幕之间距离的方法 CN102800302A (zh) * 2011-05-25 2012-11-28 联想移动通信科技有限公司 一种终端设备调整显示屏分辨率的方法和终端设备 FamilyCitesFamilies(1) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title US6200342B1 (en) * 1999-05-11 2001-03-13 Marie-JoseB.Tassignon Intraocularlenswithaccommodativeproperties 2013 2013-05-03 CN CN201310160124.1A patent/CN103366157B/zh active Active PatentCitations(2) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title CN101893858A (zh) * 2010-07-15 2010-11-24 华中科技大学 一种用于控制用户眼睛与电子设备屏幕之间距离的方法 CN102800302A (zh) * 2011-05-25 2012-11-28 联想移动通信科技有限公司 一种终端设备调整显示屏分辨率的方法和终端设备 CitedBy(1) *Citedbyexaminer,†Citedbythirdparty Publicationnumber Prioritydate Publicationdate Assignee Title TWI644260B (zh) * 2017-11-07 2018-12-11 佳世達科技股份有限公司 顯示裝置 AlsoPublishedAs Publicationnumber Publicationdate CN103366157A (zh) 2013-10-23 SimilarDocuments Publication PublicationDate Title CN103366157B (zh) 2016-12-28 一种人眼视线距离的判断方法 US10353465B2 (en) 2019-07-16 Irisandpupil-basedgazeestimationmethodforhead-mounteddevice CN103106401B (zh) 2017-02-22 一种具有人机交互机制的移动终端虹膜识别装置 US8366273B2 (en) 2013-02-05 Irisimagedefinitionestimationsystemusingtheastigmatismofthecornealreflectionofanon-coaxiallightsource CN106774863B (zh) 2020-07-07 一种基于瞳孔特征实现视线追踪的方法 CN105138965B (zh) 2018-06-19 一种近眼式视线跟踪方法及其系统 CN101901485B (zh) 2014-12-03 3d自由头动式视线跟踪系统 CN103424891B (zh) 2014-12-17 成像装置及方法 CN105812778B (zh) 2018-02-02 双目ar头戴显示设备及其信息显示方法 CN108427503B (zh) 2021-03-16 人眼追踪方法及人眼追踪装置 CN105094337A (zh) 2015-11-25 一种基于虹膜和瞳孔的三维视线估计方法 CN104915656B (zh) 2018-12-28 一种基于双目视觉测量技术的快速人脸识别方法 CN102930252A (zh) 2013-02-13 一种基于神经网络头部运动补偿的视线跟踪方法 EP3542211B1 (de) 2020-04-08 Verfahrenundvorrichtungsowiecomputerprogrammzumermittelneinerrepräsentationeinesbrillenglasrands DE102016106121A1 (de) 2017-10-05 VerfahrenundVorrichtungzumBestimmenvonParameternzurBrillenanpassung CN103558910A (zh) 2014-02-05 一种自动跟踪头部姿态的智能显示器系统 US11030455B2 (en) 2021-06-08 Poserecognitionmethod,deviceandsystemforanobjectofinteresttohumaneyes CN104809424A (zh) 2015-07-29 一种基于虹膜特征实现视线追踪的方法 CN104921697B (zh) 2017-04-26 一种人眼视线纵向距离的快速测量方法 CN107861625A (zh) 2018-03-30 基于3d空间模型的视线跟踪系统及方法 CN106683072A (zh) 2017-05-17 一种基于pup图的3d图像舒适度质量评价方法及系统 CN106842496B (zh) 2019-03-19 基于频域比较法的自动调节焦点的方法 WO2020157746A1 (en) 2020-08-06 Eyetrackingdeviceandamethodthereof CN111160136A (zh) 2020-05-15 一种标准化3d信息采集测量方法及系统 CN110446967A (zh) 2019-11-12 用于确定眼镜架边缘的表示或眼镜镜片边缘的表示的计算机实现方法 LegalEvents Date Code Title Description 2013-10-23 PB01 Publication 2013-10-23 C06 Publication 2013-11-20 SE01 Entryintoforceofrequestforsubstantiveexamination 2013-11-20 C10 Entryintosubstantiveexamination 2016-12-28 GR01 Patentgrant 2016-12-28 C14 Grantofpatentorutilitymodel



請為這篇文章評分?