iPhone X 를 구매하여 사용한지 일주일...

사용하면서 느낀점+개인적인 다양한 생각들을 적어보려 한다.


우선 iPhone X의 가장 두드러지는 특징은 아래 두 가지이다.

FaceID 와 M자탈모 Display


FaceID

FaceID는 TouchID를 대체하여 미래를 이끌어나가기 충분하다고 생각이 든다.

TouchID 도 충분히 편리하고 충분히 빠르다고 생각했지만,

FaceID는 그를 훨씬 더 뛰어넘는다.


보안은 잘 모르겠다.

FaceID 와 TouchID 중에 어느 것이 보안에 더 좋은지 정확히 알 수 있는 사람은 많지 않다고 생각한다.

세상에 완벽한 기술은 없다고 생각하고, 스마트폰의 활용도가 계속해서 커지는 만틈

스마트폰의 보안 역시 점점 더 중요하다고 생각한다만은,

현재로써 볼 때, TouchID로 안 뚤리던 내 iPhone 이 FaceID를 사용함으로 써 뚤릴 것 같진 않다.


FaceID는 TouchID로 지문을 '인식'하는 과정이 없어졌고(사용자는 아무런 추가 동작을 하지 않아도 스마트폰을 사용할 때는 스마트 폰을 바라보고 있기에),

자세나 옷 입은 상태(턱을 일부 덮는 다는가)가 바뀜에 따라

인식이 잘 안되는 것은 머신러닝을 통해 점차 좋아질 것이라 기대한다.

아침에 일어나자마자의 내 얼굴은 언제쯤 학습이 될 것인가........ 그렇게 다르지 않다 생각하는데...

2017년 12월 3일 현재, 우리은행이나 Toss, 카카오뱅크/카카오머니 등 내가 주로 사용하는 은행?에서는 FaceID 를 받아주고,

일부 국민은행 등에서는 FaceID를 인증 수단으로 인정을 해주지 않아 아쉽지만, 이 또한 시간이 해결해 주리라 생각한다.


정확히 기술을 들여다 보지는 않았지만, 내가 생각하는 FaceID 기술은 아래와 같다.

FaceID는 3만여개의 dot(점)을 얼굴에 printing 하는 것으로 시작한다.

정확히 어떻게 printing이 되어 input으로 어떻게 받아들여 지는 지 모르겠지만,

3만여개의 dot는 30cm 정도의 거리에서 반사가 되는 지/안되는 지, 

반사가 되는 지점이 다른 지점들에 비해 얼마나 더 가까운지,

반사가 안쪽으로 되는지 바깥쪽으로 되는지 정도의 정보를 줄 수 있을 것이다.

따라서 얼굴을 3만개 정도의 resolution 으로 3D scan 한듯한 data 를 input으로

iPhoneX의 processor 내부에 Neural Engine 으로 inferencing 한다.

(아마도 처음 얼굴을 등록할 때 꽤 큰 Learning rate 를 가지고 학습을 시킬 것이다.)

매 인식 시마다 작은 Learning rate 를 가지고 계속해서 학습을 해

사용을 많이 할 수록 점차 인식률이 높아지게 될 것이다.


3만개 정도의 dot를 이용해 3D 스캔의 효과를 내는 기술,

어느덧 현실의 많은 부분을 차지하게 된 머신러닝을 서버없이 스마트폰에서도 단독으로 가능하게끔 한 기술

애플의 혁신은 끝나지 않았다.


개인적인 아쉬운점은 얼굴인식을 보통 사람들이 스마트폰을 사용하는 자세에서 가장 잘 작동하도록 설계하여

현대인의 거북목 증후군을 부추기는 역할을 하는 것은 아닐까 싶다..

(스마트폰은 눈 높이보다 약 10~15도 아래에서 사용하게 된다.)

또, 3만개의 적외선 점을 자꾸 얼굴에 쏘면 안 좋지는 않을까...?



M자 탈모 Display

말도 많고 탈도 많은 M자 탈모 Display

아이폰의 새로운 얼굴로써 Identity는 M자 탈모라는 별명이 붙는걸로 보아 충분한 것으로 보인다.


아이폰은 M자 탈모 Display를 왜 추구했을까?

아이폰이 내세우는 이유는 휴대폰의 전면부 면적 대비 화면 비율을 높이기 위해

즉, 전면부가 전부 화면인 휴대폰을 위해 라고 내세운다.

이는 삼성이나, LG 등에서도 내세우고 있는데, 사실 현재로써는 그 효용성이 의문이다.


대부분의 미디어 컨텐츠들은 16:9의 비율로 만들어 지기 때문에

그보다 더 긴 화면은 결국 까만 화면으로 채워진다.(즉, 낭비된다.)

또한 스마트폰의 모든 모서리를 화면이 즉, 터치센서가 차지하기 때문에 한 손으로 사용하게 하려면 더 정교한 팜리젝션(Palm Rejection) 기술을 필요로 할 것이다.

(모서리는 폰을 손에 들고 사용할 때 의도치 않게 충분히 닿을 수 있다.)

가장 예상치 못했던 문제는 전면 하단부까지 쭉쭉 뻗은 화면은 스마트폰의 무게중심을 아래쪽으로 이동시켜주지는 않아, 키보드는 기존 위치 그대로 사용하게 끔 한다는 것이다.(즉, 이 경우에도 낭비된다. 사진 참조)



세로로 보는 웹 브라우징의  경우 16:9 이상의 비율은 한두줄 더 볼 수 있게 한다는 장점이 있지만

차라리 그만큼 폰이 작아졌으면 더 효율적이지 않을까 생각이 든다.(어쩌면 아이폰SE2는 전면부가 가득가득 화면인 Small Edition 이 아닐까?)


그렇다면, M자 탈모 Display를 통해 Apple 이 추구하는 것은 무엇일까?

과거 스마트폰이 아닌 시절 

각 휴대폰 제조사들은 자신들의 Identity를 다양한 디자인으로 표현했다.

사람들은 휴대폰의 생김새를 보고 다른 사람들이 휴대폰을 새로 샀다는 것을 알 수 있었고,

그 휴대폰이 어느 제조사의 제품인지 쓱 보고 알 수 있었다.


그러나 스마트폰은 다들 네모네모 하면서 적당히 18:9정도의 가로세로 비율을 가지며 똑같이 생겼다.

(이로 인해 과거 삼성-애플 간 디자인 분쟁을 벌이기도 했다.)

그나마 아이폰의 경우 시리즈에 따라 네모네모한 정도와 크기 정도가 바뀌긴 하지만

아래의 그림과 같이 가운데를 차지하는 화면과 화면아래 동그란 버튼으로 표현될 수 있었다.


전면부의 화면비율이 커지는 트렌드에 따라 홈버튼이 앞면에서 사라지게 되면 제조사의 Identity를 나타낼 장소는 없었고,

뒷면에 아무리 사과그림 넣고 카툭튀로 스마트폰을 뒤집어서 놓는게 안정적이게 만들더라도, 사람심리가 앞으로 놓게 되니

그 결과 M자 탈모 디자인이 나오게 되지 않았을까?

직접 하드웨어를 생산하지는 않아도, 디자인부터 OS, SW 개발 플랫폼을 직접 가지고 있는 Apple은

안드로이드(구글꺼, OS) 기반의 삼성이나 LG 등의 회사에서는 따라가기 어려운 M자 탈모 Display를 채택할 수 있다.


디자인을 통해 Identity를 확보하는것은 마케팅적인 측면에서 얼마나 중요한지 모르겠지만

자동차 시장에서도 분명히 존재한다.

결론적으로, Apple은 아이폰만의 버튼을 없애면서 없어지는 아이폰만의 Identity를 확보하기 위해

M자탈모 Display를 채택하게 됐고,

M자탈모를 만들기 위해 LCD에서 OLED로 갈아탈 수 밖에 없었다.

(LCD가 더 선명하냐 OLED가 선명하냐는 솔직히 체감하기는 어려운 문제인 것 같고, 

LCD는 M자 모양으로 만들 수가 없다.)


그 결과 앙숙 삼성의 Flexible OLED display를 어쩔수 없게 사용하게 되었다.

(차기작이라도, 차차기작이라도 삼성꺼 안 쓸 수 있게 LG 한테 Flexible OLED 만들어 달라고 Push하는 것으로 알고 있다... 힘내요 LG 디스플레이)


좀 더 오래 사용을 해봐야 알 수 있겠지만,

OLED의 치명적인 단점인 번인 현상을 얼마나 Apple이 SW 적으로 방어 했을지...(OLED는 R,G,B 색을 혼합해 색을 만드는데, B가 상대적으로 내구성이 약해 쓰다보면 색이 변질 된다고 한다.)

그동안 Nightshift로 쌓은 노하우가 있지 않을까... 기대해본다...




+ Recent posts