[I/O 19] 모두를 위한 구글 : 1일차 키노트 후기

Gogole I/O 2019 후기 시리즈 2편 (스크롤 압박 주의)

드디어! I/O!

Google I/O의 세션들을 본격적으로 보기 시작했던 것은 작년부터였는데, 아무래도 주변에 I/O에 가셨던 분들이 꽤 많아서 꼭 가보고 싶었다는 생각을 했다. 학부 중에는 빡빡한 강의 일정들과 수많은 과제들 때문에 시간을 내기 어려웠고, 심지어 작년에는 Campus Seoul1 에서 I/O Keynote Viewing Party를 기획하면서 간접적으로만 참가했기에 그 열망이 더 커졌던 것 같다.

그러다가 올해는 운좋게 기회가 찾아와 GDG Campus Korea 커뮤니티의 오거나이저로서, Google I/O의 Community Partner 자격으로 참가할 수 있게 되었다.2 이번 글에서는 전반적인 행사장 분위기는 어땠는지, 그리고 키노트에서는 어떤 내용들이 나왔고, 여기서 얻은 나만의 통찰들을 정리해보고자 한다.3

(여담: 원래는 제목을 “온 몸으로 느껴본 I/O” 로 하려고 했지만, 쓰다보니 글의 의도와 맞지 않아서 제목을 바꿨다고 합니다…)

Day 1… 괜찮겠지…?? (긴장)

사실 가기 전까지만 해도 기대 반 걱장 반이었다. 이번 생에 I/O는 처음이라 가는데 헤매는 건 아닐지, I/O에서 주는 밥은 괜찮은지, 세션들 듣는데 자리는 잘 잡을 수 있는지 등등… I/O 행사 자체에 적응하는데 많은 걱정을 했다. 특히나 첫날은 키노트를 앞두고 있어서 한편으론 마음이 엄청 들뜨면서도, 한편으론 걱정을 많이했다.

일단 밥부터 먹고 보자

그 중에서 제일 걱정했던 것은 밥. 작년에 갔다오신 분들의 이야기를 들으면 밥이 정말 맛이 없었다고 하는데, 대부분의 분들은 참다참다 못해 밖에 나갔다 와서 드시고 오셨고 하실 정도였다. 그래서 1일차 아침의 상태를 보고, 앞으로 어떻게 할지를 정하기로 했다.

근데 의외로 너무 잘 먹었다. 사진에 나온 음식들을 모두 다 먹었다는 것은 안 비밀

근데 의외로 너무 잘 먹었다. 사진에 나온 음식들을 모두 다 먹었다는 것은 안 비밀

결론은 합격4 커피는 기본적으로 곳곳에 담아서 마실 수 있게 했고5, 메뉴판에 나온 것처럼 머핀, 샐러드, 빵 뿐만 아니라(?)6, 따끈하게 뎁힌 부리또까지 나와서 점심을 안 먹어도 되겠다 싶을 정도로 든든하게 먹었다.

이후 아침 메뉴는 3일차까지 거의 동일하게 나왔는데, 모두 만족스러워서 한시름 놓을 수 있었다. 덕분에 2일차에 오전 8시 30분부터 예약한 세션이 있어도, EATS 코너에서 간단한 메뉴들 챙기서 세션을 들으면서 먹을 수도 있었다.

공장에서 나왔을 베이글과 따땃한 아메리카노. 이것이 어메리카 갬성.

공장에서 나왔을 베이글과 따땃한 아메리카노. 이것이 어메리카 갬성.

대망의 키노트

배도 든든하게 채웠으니 이제 본격적으로 키노트 자리를 잡으러 이동했다. 근데 아니나 다를까…

아침줄과 키노트 대기 줄의 콜라보

아침줄과 키노트 대기 줄의 콜라보

키노트 버프 덕분에 앰피씨어터 입구는 인산인해를 이뤘다. 특히 아침주는 곳이 키노트 입구 직전에 있던지라 아침을 먹는 사람들과 키노트 입장을 기다리는 줄이 섞여서 더 했다. 다행히 사진에서 보이는 것처럼, 안내요원분들이 각 입장줄의 맨 끝에서 줄 서는 지점을 안내해주어 헤매지 않고 대기줄에 합류할 수 있었다.7 그리고 얼마 안 되어 줄이 움직이기 시작했고, 화면으로만 보던 앰피씨어터(Amphitheatre)에 들어섰다.

앞자리에서 참석증과 함께 찰칵

앞자리에서 참석증과 함께 찰칵

I/O 키노트를 몇 년 째 보고 계신 분들(혹은 직접 참석하시는 분들) 중에선, 무대 앞에서 미친듯이 열광하는 사람들은 도대체 누군지 궁금하신 분들이 계셨을텐데, 그 사람들은 바로 나와 같은 사람들(…)이 모여 앉았다고 보면 된다. 하지만 시작할 때까지만 해도 키노트 중 카메라에 잡힐 줄 몰랐지 전세계의 GDG 오거나이저들, GDE, 그리고 구글에서 지원하는 각종 커뮤니티의 관계자들이 한데모여 축제의 시작을 즐기고 있었다.

이러한 분위기에 맞게 키노트 프리쇼가 시작을 했는데, 인간 DJ8와 AI DJ의 합동공연이었다. 처음에는 템포 업/다운 등 기본 스킬 보여주더니, 인간 DJ가 먼저 선곡을 하기 시작하자, 현재 음악과 현장 분위기를 분석해서 믹싱할 곡을 찾아 틀어주는 형식이었다. 처음에는 짤막하게 보여주더니, 두번째는 꽤 길게 공연해서 좀 놀라웠다. 돌아보니, 이번 I/O에서는 음악과 AI의 결합을 보여주는 면모들이 여럿 보였는데, 이 프리쇼도 그 노력 중 하나였던 것 아닐까 생각했다. (프리쇼가 어땠는지 보여주고 싶은데, 공식 다시보기에는 안 올라온 것 같아 아쉽다. 좀 찍어둘걸)

본격 시작 전 몸풀기 스킬 보여주는 AI DJ씨

본격 시작 전 몸풀기 스킬 보여주는 AI DJ씨

프리쇼가 끝나고 10시 살짝 넘어서, 인트로 영상이 나오더니 본격적인 키노트가 시작되었다. 앞쪽에 앉았던 사람들 모두 엄청난 환호를 하면서 순다 피차이를 맞이하는데, 나도 덩달아 텐션을 끌어올리게 되었다.

Building a more helpful Google for Everyone

사실 이번 키노트에선 놀라움을 자아내는 새로운 것들은 없었다. 예를 들어, 작년에 구글이 선보였던 Google Duplex와 같이 신선한 충격을 자아내는 것들은 없었지만, 올해는 기존에 있던 것들을 잘 다듬어서 모든 사람들에게 도움이 될 수 있는 구글 제품 을 만드는 것에 초점을 두었다고 생각한다. 여거시 중요한 것은 모든 사람들에게 도움이 되는 부분인데, 나는 이 문구를 3가지 관점에서 바라봤다.

For Everyone : 누구나 기술로 편해질 수 있는

기술은 점점 발전하고 있고, 더 많은 컨텐츠들이 나오고 있지만, 적지 않은 경우가 이들 컨텐츠를 제대로 이용하기 어려운 현실이다. 렌터카 예약을 들자면, 렌트할 날짜를 선택하는 것부터 시작해, 내 인적사항들을 일일히 다 적어가고, 카드번호를 적는 것까지 직접 확인하며 입력해야할 것들이 한두개가 아니다.

Duplex for Web은 이러한 점을 해결하기 위한 아이디어였다. 내 캘린더에 저장해둔 정보들, 메일에서 주고 받은 대화 내용이나 영수증 등을 참고해 복잡한 입력들을 대신 해준다는 것이다. 가령, 어시스턴트를 통해서 특정 여행에 대한 비행기 표를 예약 해달라고 한다면, 출발/도착일자를 알아서 찾아내서, 비행기 예매 사이트에 접속해 자동으로 예매를 해준다는 것이다. 작년에 발표한 듀플렉스가 O2O(Online to Offline)에 한정되었다고 하면, 이제는 (거의) 완벽한 개인 비서의 역할을 하도록 만들겠다는 것을 보면, 앞으로 날잡고 여행 계획 짜는 것과 같이 소모적인 작업들에서 해방될 수 있어보였다.

렌즈(Google Lens)에 대한 이야기도 언급되었다. 본래 렌즈는 검색은 하고 싶은데 말로 표현하기 힘든 것들을 확인하고 싶은 것들을 검색하기 위한 용도로 만들어졌다고 하며, 주로 시각 데이터들을 이용한 작업들을 하는데 요긴하다고 했다. 해외 여행 중 마주친 외국어 메뉴판을 찍으면 해석뿐만 아니라 음식에 대한 설명도 볼 수 있고, 영수증만 찍으면 더치페이 계산을 알아서 해주고, 심지어 미디어 파트너들과의 협력을 통해, 렌즈로 인터랙티브 컨텐츠를 누릴 수 있다고 소개했다. (렌즈만 갖다대면 더 이상의 검색은 필요없다는 것!)

동영상으로 확인하고 싶은 레시피가 있다면, 렌즈로 갖다대기만 하면 된다. (Source: Google I/O 19' Keynote)

동영상으로 확인하고 싶은 레시피가 있다면, 렌즈로 갖다대기만 하면 된다. (Source: Google I/O 19' Keynote)

무엇보다 눈에 띄는 사례는 불편했던 일상생활이 렌즈를 통해 훨씬 나아지는 것이었다. 한 예로, 인도의 우밀라는 글자를 못 읽어 자녀들의 도움을 받아 글로 쓰여진 모든 것들을 이해할 수 있었다고 한다. 그러나 이제는 렌즈에서 제공하는 TTS 기능을 통해 자녀들의 도움없이 제품 상자의 설명서를 읽고, ATM 기기에서 은행 업무를 볼 수 있는 등 이전보다 더 많은 일들을 혼자할 수 있게 되었다고 한다.

렌즈가 읽어주는 레시피를 우밀라 (Source: Google I/O 19' Keynote)

렌즈가 읽어주는 레시피를 우밀라 (Source: Google I/O 19' Keynote)

For Everyone : 누구나 기술을 누릴 수 있는

겉으로 봤을 땐 새로운 것은 없었다고 했지만, 그 중에서 가장 큰 놀라움을 자아내는 것은 구글이 On-Device ML을 실현해냈다는 것이다. 구글에 의하면, 기존의 100GB 모델을 0.5GB로 줄여서, 이 모델들을 스마트폰에 탑재해 구글의 AI/ML 관련 제품들에 탑재했다고 한다. 대표적인 예로, 어시스턴트(Google Asisstant)의 경우, 발화어9를 말하지 않아도 됐고, 심지어 처리속도도 빨라진 것을 확인할 수 있었다.10 이는 결국, 네트워크의 상태나 품질에 상관없이 각종 AI/ML 제품들을 사용할 수 있게 된 것이다.

사실 On-Device ML에 대한 이야기가 나오기 시작했을 때는 나는 반신반의했다. 아무리 스마트폰을 비롯한 소형 가전기기들의 성능이 좋아진다고 하더라도, End Device들 자체에서 머신러닝을 수행하는 것은 불가능하다고 생각했다. 심지어 이미 대부분의 AI/ML 제품들이 클라우드 서버를 거쳐 사용자의 명령을 처리하고 있고, 내 입장에서는 그러한 과정을 거쳐 응답을 받는 것이 불편하지 않아 개선의 필요성을 느끼지 못했다. 그러나 네트워크는 상황에 따라 안 될 수 있고, 우리나라는 인터넷 쓰기 아주 좋은 나라여서 그렇지, 아직도 네트워크 시설이 열악해 비디오 컨텐츠를 편하게 누리기 어려운 나라들도 꽤 많이 있다는 것11 을 깨달았고, 이러한 사실들이 On-Device ML에 대한 당위성을 이해하는데 도움이 되었다.

이런 현실에 힘입어, 키노트에서는 On-Device ML 기반의 음성인식을 이용한 새로운 기술들인 Live Transcribe, Live Caption, Live Relay를 보여줬다. Live Caption은 유튜브를 사용해봤으면 다들 알겠지만, 현재 재생되는 동영상의 음성을 기계학습을 통해 자막으로 변환해주는 기능인데, 이것을 안드로이드 OS 자체에서 활용할 수 있게 되었다. Live Transcribe는 실시간으로 대화를 나누는 환경에서 안드로이드 폰에서 앱만 열어두고 대화를 하면, 대화 중 음성을 인식하여 실시간으로 화면에 문자로 표현해주는 것이다. 이 두 기능 모두 키노트에서 청각 장애인들이 보다 편리한 의사소통을 하도록 도움을 주는 사례들을 소개하였다.

무엇보다 감명깊었던 것은 Live Relay였다. Live Relay는 말 그대로 전달 을 해주는 도구로, Live Transcribe의 연장선이라고 보면 된다. 정확히 말하자면 청각 장애인들에게 상대방의 전화를 글로 전달해주고, 청각장애인의 문자를 음성으로 전달해주는 것이다. 언젠가 어떤 분이 페이스톡을 통해서 한 손엔 스마트폰을 들고 한 손으로 힘들게 수화를 하는 것을 보면서, 청각 장애인분들이 겪는 고충을 알게 되었다.12 통화 중에 Live Relay를 사용하면 상대방이 하는 말을 휴대폰에서 문자로 확인할 수 있고, 받는 사람은 키보드, 혹은 추천어들을 조합해 빠르게 응답을 조합할 수 있는 형식이다. 물론 그 응답은 TTS를 통해서 상대방에게 전달할 수 있는 것이다. 이를 통해 청각 장애인들과 그렇지 않은 사람들 사이의 소통 장벽을 크게 허물 수 있는 기회를 만들어주는 것이다.

구글은 여기서 멈추지 않고 Project Euphonia를 통해 소통 장벽을 더 낮게 만드려는 노력을 소개했다. 뇌졸증, 루게릭 병, 다발성 경화증 등 신경질환을 앓고 있는 사람들 중 말을 할 수 없는 사람은 미세한 눈동자의 움직임이나 기타 동작 등을 통해 자신의 의견을 한글자씩 입력해 표현해야했다. 일부는 말은 할 수 있어도, 어눌하게 말을 하거나, 알아듣기 어려운 경우가 대부분이다. 결국 이러한 환자들에게는 휘황찬란한 음성인식 기술들은 그림의 떡일 것이다.

구글의 연구팀은 이러한 문제점을 발견하고 이러한 환자들의 제어/표현 능력을 한 단계 끌어올릴 수 있도록 도와주는 연구를 시작했다고 한다. 어렸을 때 청력을 잃었던 구글의 언어 연구자인 디미트리(Dimitri Kanevsky)는 자신의 어눌한 말투를 인식할 수 있는 특수한 모델을 만들어 Live Transcribe를 사용하여 자신의 의견을 좀 더 뚜렷하게 표현할 수 있고, 루게릭 병을 앓고 있는 스티브(Steve Saling)는 자신이 만들어낼 수 있는 제한적인 음성과 얼굴 동작을 통해서 집안 기구들을 통제하거나, 스포츠 경기를 보면서 자신의 감정을 표현할 수 있게 되었다.

For Everyone : 누구나 안심할 수 있는

Federated Learning에 대해서 이야기를 꺼내는 순다 피차이

Federated Learning에 대해서 이야기를 꺼내는 순다 피차이

개인정보보호 이야기를 빼먹을 수 없을 것이다. 근 몇 년간 지속적으로 문제가 제기되어 왔던 것을 해결하기 위해 구글은 연합학습 (Federated Learninig) 이라는 개념을 들고 나왔다. On-Device ML을 이뤄냈긴 했지만, 문제는 ML 모델의 업데이트를 어떻게 수행할 것인가이다. 한 사람에 특정한 예측은 그렇다 치지만, 검색어 추천같이 나 뿐만이 아닌 다른 사람들의 취향, 혹은 요즘 유행하는 트렌드들도 반영되야하는 경우 어떻게든 받아와야하는데, 이걸 어떻게 수행해야할까? 우선, 각 단말에서 사용자의 입력을 통해서 모델 업데이트가 먼저 일어나고, 이전 모델에서 바뀐 부분만 구글의 서버로 업로드된다고 한다. 이 변경점들을 모두 취합한 후에는, 업데이트된 공통 모델 (Global Model)을 다시 개별 모델로 보내 업데이트 시킨다는 것이다.

Gboard의 예를 들면, 콘서트 티켓 예매에 관해 문자를 주고 받는 중이라면, 때에 따라 콜드플레이의 콘서트일 수 있고, 방탄소년단의 콘서트일 수 있을 것이다. 콜드플레이의 콘서트 일정이 발표되는 것을 실제로 예를 들자면, 많은 사람들은 이용해 이전보다 상대적으로 많이 이야기를 할 것이고, 각 단말에 들어있는 Gboard는 이러한 변화를 (개인에 한해) 업데이트할 것이다. 그리고 각 개별 단말에 들어있는 ML 모델은 이전 모델에서 변경된 부분만 구글의 서버로 업로드할 것이고, 많은 사람들이 나와 같이 콜드플레이에 대해서 얘기를 더 많이 하게 되면, 이 변경점이 공통 모델에 반영되어 각 개인의 단말에 업데이트 될 것이다. 이 과정에서 누군가는 “콜드플레이의 콘서트를 더 많이 이야기한다"는 차이점만 서버로 업로드 되기 때문에, 이전에 서드 파티 키보드들이 사용자의 입력을 모두 감시하고 있다는 문제점을 해결할 수 있는 것이다.

연합학습이 일어나는 원리 (Source: Google I/O 19' Keynote)

연합학습이 일어나는 원리 (Source: Google I/O 19' Keynote)

사실 이 대목은 크게 와 닿았는데, 키노트 전부터 상공에서 경비행기가 구글이 21세기의 빅브라더 와 같은 행태를 한다는 견해의 시위를 하고 있었다. 우리 생활에서 구글의 손이 안 닿는 곳이 없어, 한 사람이 자신의 모든 개인정보를 구글에 넘겨줘야하는 우려를 나타낸 것이라고 나는 해석했다. (근데 #SAVELOCALNEWS 는 뒤에 왜 붙였는지 모르겠다.13)

GOOGLE CONTROL IS NOT PRIVACY #SAVELOCALNEWS

GOOGLE CONTROL IS NOT PRIVACY #SAVELOCALNEWS

그러나 구글은 이 날 키노트에서, 구글이 사용자들의 개인정보보호에 신중을 가하고 있고, 자신들이 만드는 제품뿐만이 아니라, 이를 지탱하는 기술을 구현하는데 개인정보보호를 가장 염두에 두고 있다는 것을 보여줬다. On-Device ML과 연합학습을 통해 기존에는 AI/ML 제품을 사용하기 위해, 내 개인정보들을 모두 서비스 제공업체의 서버에 업로드 해야했던 문제를 해결할 수 있다는 것을 보여줬으며14, 심지어 개인정보보호와 그동안 제공해왔던 구글 제품들의 품질, 둘 중 어느 하나도 포기하지 않겠다는 분명한 의지를 보여줬다.

마치 상공에서 열심히 날아다니고 있는 비행기를 향해 보란듯이, 구글이 지금까지 노력해왔던 (혹은 구상해왔던) 결과물들을 직접 보여주면서, 우리는 사용자들의 개인정보보호를 가장 신경쓴다 고 말하는 듯 하였다. (TechCrunch 기사에서 또한 이를 지적하였다. 심지어 비교대상은 I/O 이전에 F8을 성대하게 먼저 열었던 Facebook… -기사 링크-)

Nest Hub & Pixel 3a

나름 주목을 많이 받았지만, 이번 글에서 강조하는 방향과는 달라서 이야기하지 못했던 내용들을 조금이나마 정리해보려고 한다. (이후에는 AI 관련된 내용들이 있었지만, 잘 기억이 안 나서 스킵하는 것으로… 😥)

구글이 Nest 브랜드를 살리기에 나섰다고 해야할까. 기존의 Google Home Hub를 Nest Hub로 이름을 바꿔서 새로운 제품을 내놨다. 구글 어시스턴트를 탑재해 어느 상황에서던 원하는 정보를 검색할 수 있고, Nest 제품군들과의 결합성을 더 강조하여 스마트 홈을 위해 만들어진 제품이라는 것을 많이 강조한 느낌이다. 가장 기억에 남는 것은 손바닥을 들어올려 시크하게 음악을 멈추는 장면이었다. (그만큼 더 쓸만해졌다는 것을 어필하려고 노력하는 것 같았다.)

바둑이 기다려 (Source: Google I/O 19' Keynote)

바둑이 기다려 (Source: Google I/O 19' Keynote)

그리고 제일 인기가 많았던 Pixel 3a. 키노트 이후 리뷰들을 정리하자면, 다른 것들은 포기해도 카메라만은 포기 못한 중저가형 모델이다. 당시에도 픽셀 새로운 모델을 발표할 것이라는 소문이 나돌았긴 했지만, 중저가형이라는 점은 안 알려졌던 것 같다. 키노트에서 언급하기론 최신 스마트폰들의 가격이 천정부지로 솟아오르는 모순을 극복하고자, 괜찮은 성능을 가지고, 프리미엄 스마트폰에 뒤지지 않는 카메라를 가진 모델을 내놨다고 한다. I/O 기간 중 엄청난 인기를 얻어서 인근 소매점에서는 픽셀 3a 제품군이 모두 매진되는 사태도 벌어졌다. 그리고 하이라이트는 바로 카메라를 통한 디스(?)전이었다.

말할 수 없는 그 이름…

말할 수 없는 그 이름…

모두를 위하여

탄성을 지를 정도의 기술을 자랑하는 키노트를 기대했던 것과는 달리, 이번에는 특히나 사람의 편의성과 접근성에 더 많이 심혈을 기울인 키노트를 보고 나서 느낀 것은, 구글이 모든 사람들의 일상을 더 낫게 하기 위해 노력을 하고 있다는 것이다. 그 사람들이 평범한 사람들 뿐만 아니라, 각종 장애를 가진 사람들도 포함한다는 것이다. 결국 기술은 기술 자체만으로 살아남을 수 없으며, 기술이 제일 빛을 발하는 것은 현실의 다양한 문제를 풀 수 있을 때 제일 빛을 발한다는 것을 느끼게 되었다. 그 문제가 복잡한 웹 페이지들을 헤매는 것이던, 내 정보를 내가 전적으로 통제할 수 있도록 만드는 것이던 간에 말이다. 그리고 구글에게는 이런 다양한 문제들을 해결하기 위해 끊임없이 기술을 더 발전시켜나가는 동력이 되는 것이 아닐까. 여러모로 Google I/O에 다시 오고 싶다는 생각이 들었지만, 키노트 내용들 덕분에 다음에도 또 오고 싶어졌다. (첫째날 버프를 너무 받아서 그런가)

후기 시리즈는 계속됩니다.

  1. 기술과 창의성의 조화 (링크)
  2. 모두를 위한 구글 : 키노트 후기 (링크)
  3. 클라우드 게이밍, 구글이 하면 다릅니다 (6월 22일 공개예정)
  4. Squoosh로 보여준 웹의 미래 (아직 시작 못 함)

  1. 현 Google for Startups Campus Seoul ↩︎

  2. 그리고 Google I/O의 참가비와 I/O 기간 중 숙소는 Google Korea의 한국 개발자 생태계팀에서 지원을 받아 편히 다녀올 수 있었습니다. ↩︎

  3. 원래 이번 글로 시리즈를 시작했어야하지만, 새우깡처럼 글렌 킨(Glen Keane)의 세션 후기를 먼저 쓰기 시작해버려서 이번 글을 두번째로 쓰게 되었다. ↩︎

  4. 근데 다른 분들은 맛이 없었다고…. 애초부터 잡식성이라 나름 복받았던 것 같다 (?) ↩︎

  5. 디카페인도 있고, 뜨거운 물과 각종 티백들도 있었다. 내년에 가시는 분들은 뜨거운 물로 컵라면 도전해보세요 ↩︎

  6. 오른쪽 아래에 있는 것은 치아씨드로 만든 푸딩인거 같던데, 이건 호불호가 갈릴 수 있을 것 같다. ↩︎

  7. 역시 큰 행사라서 행사 운영이 다르다는 것을 느낀 점. 이런 식으로 팻말을 이용해 행사장 주요한 지점들을 안내하는 안정적인 모습을 보여줬다. ↩︎

  8. 분위기에 취해 DJ 이름은 기억이 나질 않는다;; ↩︎

  9. Ok Google 같이, 기존의 음성 비서들이 음성을 인식 시작하도록 하는 명령어 ↩︎

  10. 아주 미세한 차이로 느껴질 수 있지만, 이 시나리오를 기존의 어시스턴트로 수행했다면 1.5배의 시간이 걸렸을 것이라 생각한다. ↩︎

  11. 비슷한 사례로 YouTube Go가 있다. 자세한 사례는 Google Blog 링크 로 대신한다. ↩︎

  12. 심지어 그 때는 출근 시간 만원 버스였고, 그 분은 빨간 버스 통로에 겨우 서계시면서 힘들게 영상통화를 하고 계셨다. ↩︎

  13. 찾아보니 지역 언론(우리나라로 치면 대전일보, 부산일보 등)이 살아야 언론 생태계가 산다는 의미의 캠페인인거 같은데, 이것이 어떻게 GOOGLE CONTROL과 연결되는지는 이해가 안 갔다. ↩︎

  14. 이 뿐만 아니라, 구글의 제품들 일부에 적용했던 시크릿 모드(Incognito Mode)를 더 많은 제품군(가령 지도앱)에도 적용하겠다는 것도 눈여겨볼만했다. ↩︎