Google I/O 2015 Keynote의 주요 내용



2015년 5월 29일 한국시간으로 새벽 1시 30분에 열린 Google I/O 2015의 Keynote에서 등장한 주요 내용을 다루도록 한다.


이번 구글 I/O 2015에서 다루는 것은 크게 두가지이다.

첫 번째는 어떻게 구글이 컴퓨팅 플랫폼과 모바일을 혁신하는지에 대한 것과

어떻게 구글이 모바일 사용자 경험(UX)를 혁신 하는지에 대한 것이다.




Android M Preview



안드로이드 M은 다시 기본으로 돌아가서, Policy와 safety 그리고 Quality에 그 초점을 맞춘다.

작년에 출시된 안드로이드 L의 경우 많은 변화를 가져왔지만, 안드로이드 M은 그러한 큰 변화는 없다.


안드로이드 M의 발표자는 아래와 같다.

(Android) Engineering 

Vice president

Dave Burker 

 


안드로이드 M의 변화는 아래와 같다.




App Permissions


기존의 permission들을 몇개의 중요한 케테고리로 통합함으로써 사용자들의 이해를 높였다.

설치할 때 permission을 물어 보는것이 아닌 실행 할 때 permission을 물어보게 만들었다.

또한 App permission을 App별로 다시 재조정할 수 있게 되었다.



한층더 보안을 신경 썻다고 할 수 있다. 



Web Experience


웹 앱을 개발자가 개발하려고 할 때 선택할 수 있는 옵션은 크게 두가지였다.


첫 번째는 Browser를 이용해서 앱을 실행 하는 것이고 두 번째는 Web View 를 이용하는 것이다,

두 번째는 Web View를 이용하는 것이다.


하지만 이제 새롭게 나온 방법인 Chrome custom taps을 이용하면 된다.

이것을 이용해서 ahead of time에 prefetch하는 작업을 할 수 있다.

통합 디자인을 설계할 수 있게 된다.



App Links 


앱을 실행해서 다른 앱과 연결을 하려고 할때 이제 선택을 하지 않고도 자동으로 연결 되어지게 할 수 있다.

개발자가 특별히 설정을 해주면 사용자의 선택 없이도 자동으로 연결 되어 진다.







Mobile Payments


To pay in store, users can do using NFC.

No need to lunch certain app.

Can use debit card or credit card.

700 hundred stores.



Fingerprint Support


결제를 인증하기 위해서 사용자의 지문이 사용 될 수 있다.

온라인 구매에서도 사용자의 지문이 사용 될 수 있다.

이것으 매우 편리하며 간단하게 결제를 진행 할 수 있게 해준다.


단순히 스마트폰의 잠금화면을 푸는것을 이용해서 결제를 진행 할 수 있게 되기 때문이다.



  



Power & Charging 


안드로이드는 Doze라고 불리우는 새로운 파워 메니지먼트 시스템을 도입 했다.


해당 기능은 사용자의 패턴을 사용해서 최적화를 진행 하게 된다. 

예를 들면, 사용자는 항상 테블릿을 영화나 책을 읽이 위해서 저녁에만 사용 했다고 하자.

이럴경우 사용패턴을 인지해서 네트웍 전력소비를 강하게 제한 할 수 있다.


아래는 데이터 동기화 화면이다.


사용이 발생 되어지지않는 저녁 시간에는 주기적으로 발생하는 동기화를 극히 제한하게 된다.

이를통해서 전력소비를 그렇기 않을때 보다 실험결과 2배까지 절약했다고 한다.






충전 기술의 경우 구글은 USB type C charger를 도입 했다.

이를 통해서 좀 더 빠른 충전을 달성 할 수 있다.



 




약간의 사용자 편의성 향상


Easy word selection and Floating clipboard toolbar

Direct share 기능

Simplified volume controls






Android Wear


Android Wear의 발표자는 아래와 같다.

Director, Android Wear

David Singleton


최근 일년간 안드로이드 웨어는 아래와 같이

4개의 OS와 7개의 웨어 제품군을 출시해 왔다.





상호작용 기능의 향상


Android Wear의 기능향상의 초점은 Phone과의 상호작용 기능 향상이다.


이중 가장 흥미로웠던 것은 Emoji recognizer로써 그림을 그려서 메시지를 응답하는 기능이었다.








다양한 센서들의 활용


안드로이드 웨어기기에 작창된 센서의 종류는 계속해서 늘어나고 있다.

아래의 그림과 같이 많은 센서들이 현재 장착된 상황이다.




이러한 센서 데이터를 이용해서 사용자들의 행동을 인지하게 된다.

즉 걷기, 달리기, 자전거 타기, 팔굽혀펴기, 골프 스윙 등을 인지 하게 된다.


Google Fit 앱의 운동정보 인지 내용


팔의 가속도를 인지해서 골프 스윙을 알아냄.



그 밖에도 스마트홈의 집 온도 인지

노래 재생

노래 가사 인식을 통한 음악 이름 알아내기

자동차 주행거리 파악 등이 있다.





현재 마켓에 등록된 웨어러블 앱은 4,000개 이상







Google의 Internet of Things


구글에서도 IoT를 장학하기위한 전략을 발표 했다.


그들이 생각하는 중점은 User Experience, Communications, Operating System 이렇게 3가지 이다.






Operating System


구글은 이를 위해서 Brillo라는 새로운 OS project를 발표 했다.




Communication


Google은 Cross Platform에서 개발자들이 편하게 앱을 개발할 수 있는 API를 제공한다.

이 프로젝트의 이름은 WEAVE 이다.





User Experience


사용자들은 여러개의 장치에서 하나의 UX를 경험 할 수 있다.

이를 위해서 Brillo와 WEAVE가 사용된다. 이 둘을 이용해서 마치 하나의 장치를 쓰는것과 같은 경험을 할 수 있게 된다.




Brillo와 Weave는 각각 아래와 같이 공개 된다고 한다.





User Experience의 통합 




구글은 Deep Machine 러닝을 통해서 사용자 경험의 향상을 모색 한다.

구글의 이미지 검색 능력이 세계 최고인것은 이미 잘알려진 사실이다.

Deep Neural Network을 간략히 설명하면 개구리 이미지를 찾기 위해서 여러 계층으로 나눠서 학습을 해서 찾아가는 방법이다.


기본적으로 계층적인 학습 모델을 가지는 것을 의미한다.


우선 첫 번째 계층에서는 edge, shade, shape등을 판별하게 된다.

두 번째 계층에서는 ear , leg, hand 등을 판별하게 된다.

마지막에서는 전체 이미지를 이해하게 된다.


간략하게 설명하면 deep neural network은 위와 같이 동작 한다.


이러한 Deep Learning을 통해서 구글은 음성인식 기술을 향상 아래와 같이 많이 개선 시켰다고 한다.






Google Now


발표자

Director

Google Now

Aparna Chennapargada



모바일이 사용자를 지원하기 위해서는 크게 아래 세가지가 필수 적이다.



위 세가지를 적절히 인지해서

사용자가 요청한 상황에 맞게 자동으로 원하는 정보를 표시해 준다.


기존의 Google Now 기능이 대폭 개선됬음을 의미한다.


예를들면, 아래와 같이 친구로부터 Tomorrowland라는 공연을 보자는 이메일을 받았을 때

홈버튼을 눌러서 Google Now를 실행하는 것만으로도 Tomorrowland라는 공연 정보를 바로 알 수 있게 된다.


이렇게 현재 상황에 맞춰서 내가 원하는 정보를 즉각적으로 표시해 주는 서비스 이다.






Google Photo



발표자

Photos

Director

Anil Sabharwal



구글에서는 사진을 관리하기 위한 새로운 앱을 출시 했다.


현재 사진관리는 하나의 포토를 찾기 위해서 끈임 없이 스크롤링을 해야하는 것을 지적 했다.


그들이 Google Photo에서 추구하는 전략은 크게 3가지 이며 아래와 같다.





그들은 기계학습을 이용해서 삶에서 중요한 이미지가 무엇인지를 자동으로 인지 하게 된다.


이러한 서비스를 무료로 무제한으로 구글은 제공한다고 한다. 

지금 부터 당장 사용 할 수 있다.






Google Translator


발표자

Engineering

Vice President

Jen Fitzpatrick






Developing



발표자

Developer group

Director

Jason Titus



발표전 나온 동영상에서 개발자들이 가지는 힘에 대한 영상이 있는데 감동적이었다.

마지막 문구는

Keep Building 이었다.


끈임없는 이슈는 아무래도 개발자들을 지원 하는 것일 것이다.



Developing life cycle은 아래와 같다. 이 각각에 대해서 언급 했다.





이미 안드로이드 앱 개발을 위해서 Eclipse 서비스를 중단하고 Android Studio를 출시 했었다.


이러한 Android Studio의 새로운 1.3 버전을 이야기 했다.

또한 NDK 개발자들을 위핸 C/C++ 지원도 이야기 했다.





Cloud Test Lab

개발자들의 테스트의 어려움을 해결해 주기 위해서 

22개의 스마트폰에서 자동으로 테스팅을 수행하며

그 결과를 받아 볼 수 있는 시스템을 제공할 것이라고 한다.


제공받을 수 있는 결과는 Crash report와 테스팅 과정이 기록된 Video 이다.


곧 출시된다고 한다. 






Google Play


Google Play

Product Manager

Ellie Powers


Personality와 연령을 고려한 검색 등을 강화 했다고 한다.


그리고 개발자들이 자신의 앱이 설치된 상황등을 기존 보다 더 자세히 볼 수 있다고 한다.






Udacity의 새로운 강의



3대 MOOC중 하나인 Udacity이다.

대학들이 중심이된 Coursera와 Edx와 다르게 Udacity는 기업들이 중심이 되서 만들어진 온라인 교육 사이트이다.


이곳에 Android Nanodegree라는 코스가 개설 되었다고 한다.





Google Cardboard


마지막으로 구굴은 Virtual Reality (VR)을 지원하기 위해서 

지난해 발표 했던 cardboard의 향샹과

새로운 SDK를 발표 했다.







그리고 Gopro와 결합 되어 360도 촬영을 가능하게 해주는 JUMP도 출시 했다.





+ Recent posts