Isara ang ad

Ang ikatlong developer beta na bersyon ng system Ang iOS 13 ay nagtatago ng maraming bagong gadget. Ang isa sa mga ito ay awtomatikong pagwawasto ng eye contact. Ang kabilang partido ay may impresyon na direkta kang nakatingin sa kanilang mga mata.

Ngayon, kapag nakikipag-usap ka sa FaceTime kasama ang isang tao, kadalasang nakikita ng kabilang partido na nakapikit ang iyong mga mata. Ito ay dahil sa ang katunayan na ang mga camera ay hindi direkta sa display, ngunit sa tuktok na gilid sa itaas nito. Gayunpaman, sa iOS 13, ang Apple ay gumagawa ng isang hindi kinaugalian na solusyon, kung saan ang bagong ARKit 3 ay gumaganap ng isang nangungunang papel.

Inaayos na ngayon ng system ang data ng imahe sa real time. Kaya kahit mahina ang iyong mga mata, ipinapakita sa iyo ng iOS 13 na para kang direktang nakatingin sa mga mata ng kausap. Ilang developer na sumubok sa bagong feature ay lumitaw na sa mga social network.

Ang isa sa kanila ay, halimbawa, si Will Sigmon, na nagbigay ng malilinaw na larawan. Ang kaliwang larawan ay nagpapakita ng karaniwang sitwasyon sa panahon ng FaceTime sa iOS 12, ang kanang larawan ay nagpapakita ng awtomatikong pagwawasto sa pamamagitan ng ARKit sa iOS 13.

Maaaring ayusin ng iOS 13 ang eye contact sa FaceTime

Gumagamit ang feature ng ARKit 3, hindi ito magiging available para sa iPhone X

Si Mike Rundle, na tumatawag, ay nalulugod sa resulta. Bukod dito, ito ay isa sa mga tampok na hinulaang niya noong 2017. Siya nga pala, ang kanyang buong listahan ng mga hula ay kawili-wili:

  • Magagawa ng iPhone na makakita ng mga 3D na bagay sa paligid nito gamit ang tuluy-tuloy na pag-scan sa espasyo
  • Pagsubaybay sa mata, na ginagawang mahulaan ng software ang paggalaw at ginagawang posible na kontrolin ang user interface ng system gamit ang mga paggalaw ng mata (Binili ng Apple ang SensoMotoric Instruments noong 2017, na itinuturing na pinuno sa larangang ito)
  • Biometric at data ng kalusugan na nakuha sa pamamagitan ng pag-scan sa mukha (ano ang pulso ng tao, atbp.)
  • Advanced na pag-edit ng imahe upang matiyak ang direktang pakikipag-ugnay sa mata sa panahon ng FaceTime, halimbawa (na nangyari na ngayon)
  • Ang machine learning ay unti-unting magbibigay-daan sa iPhone na magbilang ng mga bagay (ang bilang ng mga tao sa silid, ang bilang ng mga lapis sa mesa, kung gaano karaming T-shirt ang mayroon ako sa aking wardrobe...)
  • Instant na pagsukat ng mga bagay, nang hindi kailangang gumamit ng AR ruler (gaano kataas ang pader, ...)

Samantala, kinumpirma ni Dave Schukin na ang iOS 13 ay gumagamit ng ARKit para iwasto ang eye contact. Sa mas mabagal na pag-playback, maaari mong mahuli kung paano biglang nadistort ang mga salamin bago ito ilagay sa mga mata.

Pagkatapos ay idinagdag ng developer na si Aaron Brager na ang system ay gumagamit ng isang espesyal na API na available lang sa ARKit 3 at limitado sa mga pinakabagong modelo ng iPhone XS / XS Max at iPhone XR. Hindi sinusuportahan ng mas lumang iPhone X ang mga interface na ito at hindi magiging available ang function dito.

Pinagmulan: 9to5Mac

.