본문 바로가기
information arch.

Google:MS / GoogleEarth:BingMaps / 360cities:Photosynth

by 늙은소 2010. 5. 6.

 

MS와 Google은 동일한 장소를 바라보는 
각기 다른 방법을 제시한다.
 

 

1. MS Photosynth : Mesa Verde - Cliff Palace


2. 360cities : Mesa Verde - Cliff Palace
Cliff Palace Mesa Verde National Park

1번은 Microsoft Live Labs에서 진행중인 Photosynth 서비스. 다양한 위치에서 여러 각도로 촬영한 사진을 분석해 3차원 공간에 맞게 배치한 뒤, 이를 자연스럽게 연결시키는 작업을 진행 중이다.

2번은 Google Earth를 통해 서비스되고 있는 360Cities. 이곳에서는 360도로 촬영된 파노라마 사진을 구글어스의 맵에 연결하였다. (이것은 구글이 직접 개발한 서비스는 아니다)

이것은 모두 가상체험, 혹은 증강현실, 심지어 순간이동(?)을 위한 과정에 선 서비스다.


등고선이나 도로 표시 따위로 이루어지던 지도가 위성사진으로 바뀌고, 보다 현실에 가까운 이미지로 전환되고 있다. 점차 지표면에 가까워지던 '지도 서비스'는 이제 지상에 안착함은 물론, 실내에 파고든 이미지까지 제공한다. 마치 그 자리에 실제 가 있는 듯한 느낌. 지도 서비스의 목표는 가상체험으로 이어진다. 그 과정에서 360도 파노라마 사진을 구글어스가 제공하기 시작했다. 비록 사진의 수는 적은 편이나, 이미지의 퀄리티가 매우 뛰어나 현장감이 있다. 사용자는 고개를 들어 하늘을 보거나 땅을 내려보는 등 원하는 만큼 주변의 경관을 둘러볼 수 있다. 그렇다면 상상해보자. 만약 이 정도 퀄리티의 360도 이미지가 지상의 거의 모든 곳에 존재한다면 어떨까? 가로, 세로, 높이 10cm 간격마다 2번과 같은 퀄리티의 파노라마 사진이 존재한다면? 혹은 이런 사진을 촬영할 수 있는 장비가 나노기술에 의해 개발되어 지구 위 모든 곳(심지어 심해나 우주까지)에 설치되고, 그 카메라는 계속 사진을 촬영한다. 그리고 그렇게 촬영한 360도 사진을 당신에게 전송해준다면... 파리 개선문 앞에서 전송한 360도 이미지를 방안의 벽에 일단 뿌리자. 당신이 제자리 걸음을 할 때마다, 당신이 걸어간 그 방향과 거리만큼 떨어진 위치에 설치된 개선문 앞의 카메라가 새로운 영상을 보내주고, 그에 따라 벽의 이미지를 교체한다면. 실제 그 장소를 걷고 있는 것처럼 느껴지지 않을까. 360cities가 원하는 바가 이런 것이다. 파노라마 이미지를 지상에 더 빽빽하게 채워넣는 것.

그러나 MS의 Photosynth는 전혀 다른 방향으로 접근한다. 그들은 여러 지점에서 찍은 평범한 사진들을 끌어 모으는 방식으로 가상체험을 구축한다. 360cities가 한 지점에서 볼 수 있는 모든 풍경을 담는다면, photosynth는 하나의 대상을 여러 장소에서 바라본 모습을 제공한다. 360cities가 지구에서 우주를 바라보는 시선이라면, Photosynth는 달에서 지구를 바라보는 시선이다. 이러한 차이로 인해 현재 360cities는 정적인 대신 현장감이 높고, Photosynth는 동적인 대신 완성도가 떨어진 이미지를 제공한다. 쉽게 설명하면 이렇다. 360cities에서 숭례문을 보면 그 주위의 각종 건물과 도로를 지나다니는 사람들, 하다못해 숭례문 반대편 도로에서 호떡을 구워 파는 장사꾼도 볼 수 있다. 그런데 정작 숭례문의 옆이나 뒤는 볼 수 없다. 반대로 photosynth는 숭례문 주위를 천천히 걸어가며 숭례문을 다양한 각도로 바라볼 수 있지만 오로지 숭례문만 볼 뿐, 고개를 180도 돌리는 게 용납되지 않는다. (반대편 이미지가 없으므로)

여기까지만 보며 두 서비스가 각기 장단점이 있으므로 파워 역시 비슷할 것처럼 여겨진다. 심지어 사진의 퀄리티와 서비스 되고 있는 공간의 수에서는 아직까지 360cities가 더 우월하다. 그러나 MS가 서비스 기반을 위해 구축하고 있는 기술을 따져보면 이야기가 달라진다. Microsoft Live Labs에서 현재 진행중인 서비스는 Photosynth 외에도 Seagragon과 Pivot이 있다. 이들은 모두 이미지를 다루는 기반 기술인데(Pivot은 이미지만 다루는 것은 아니지만) Pivot이 정보를 수집해 이를 다양한 기준에 의해 재배치하는 서비스라면 Seadragon은 이미지를 빠르고 부드럽게 전환시키는 기술을 발전해나가고 있다. Photosynth는 사진 속의 원근을 분석해 각 요소를 파티클로 분해한 다음 3차원 공간으로 위치시키는 작업을 진행한다. 그러한 기술이 기반이 되기 때문에 여러 각도에서 찍은 각기 다른 사진을 각각 어느 지점에서 찍었는지 분석한 다음 그것을 적합한 위치에 배치하고 자연스럽게 이를 연결시켜나가는 작업이 가능해지는 것이다.



이것을 간단히 표현하면 위의 그림과 같다.

360cities는 특정 함수에 속하는 확실한 좌표를 수집하여 제공한다. 반면 photosynth는 정확한 좌표가 없는 대신 그 함수의 접선의 방정식들을 계속 수집해 이를 분석해나간다. 점의 좌표를 계속 모으면 모을수록 곡선의 형태에 가까워지고, 접선을 계속 모아도 곡선의 형태를 짐작할 수 있게 되니 둘 모두 지향하는 바가 같아 보인다. 그런데 문제는 점을 아무리 모아도 점과 점 사이를 완벽히 채울 수 없다는 사실이다. 이 방식은 곡선에 가까운 그림처럼 보이는 것이 목적이기 때문에 곡선 그 자체가 되지는 못한다. 
반면 photosynth는 접선을 모음으로써 궁극적으로 해당 함수의 수식을 얻어내는 게 목적이다. 그래서 이들은 점의 좌표에 연연하지 않는다. Y=F(X)를 확보하면 알아서 좌표가 무한대로 생성될 것이기 때문이다. 고개를 0.1도 틀었을 때 보게 될 풍경을 계산하거나, 사진과 사진 사이의 빈 공간을 유추하여 이미지화 하는 것이 가능한 것도 이 방식이다.


360cities나 photosynth나 현재로서는 사진이 많으면 많을수록 좋은 결과물을 만들어낼 수 있다는 점에서 같은 고민을 안고 있다. 그러나 파노라마 사진을 찍을 수 있는 사람이 한정되어 있으며, 장비의 가격이 만만치 않다는 문제로 인해 360cities는 한계가 있다. 일반인들의 사진작가 참여를 유도하고 있지만 아무나 할 수 없으니, 구글어스를 파노라마 사진으로 빽빽하게 채우는 것은 시간이 오래 걸릴 수밖에 없다. 반대로 MS는 여러 장의 2차원 이미지를 분석해 3차원으로 만들어가는 기술에 집중하고 있다. (상단에 예시로 올린 1번 Photosynth 이미지를 control키를 누른 채 마우스로 드래그해 보라. 여러 장의 사진을 모아 가상공간을 만들어가는 과정을 짐작할 수 있다.) 이런 점에서 보면 구글어스에서 360cities를 서비스하는 것은 임시방편일 뿐, 이들 역시 무언가 기반 기술이 될 만한 것을 개발하고 있지 않을까 싶다. MS가 축적하고 있는 기술을 구경만 하고 있지는 않을 터.


구글은 '우리의 바깥에도 뛰어난 사람들은 존재한다'고 믿는 기업이다. 그래서 어쩌면 MS가 축적하는 기술을 그다지 신경쓰지 않을 가능성도 있다. 세계의 각 기업과 연구진들이 시시각각 새로운 기술을 개발하고 있지 않은가. 초저가 파노라마 카메라가 등장하거나, 평범한 똑딱이 카메라로 찍은 사진을 360도 공간으로 바꿔주는 소프트웨어가 상용화되어 네티즌들이 자발적으로 구글 어스를 가상공간 이미지로 채워줄 수도 있는 일이다. 아이폰의 어플리케이션이나 트위터가 구글의 문제점을 대신 해결해 버릴 지도 모른다. 구글은 외부의 변수들에 대한 믿음이 있기에, 오픈형으로 서비스를 개발해왔으며 거칠고 둔탁해도 무시못할 서비스를 내놓는다. 반면 MS는 세련되고 깔끔한 서비스를 내놓기 위해, 자신의 시스템 내에서 많은 것들을 통제해야 하는 곳이다. 

이렇게나 다른 두 기업이, 그럼에도 불구하고 같은 곳을 향해 가는 상황이라니.  지켜보는 재미는 확실하군.


마지막.

아래 영상은 Photosynth기술을 Bing Maps에서 구현하는 장면을 시연하는 것으로, 후반으로 가면 갈수록 헉 소리가 난다. 2차원 사진들을 가지고 3차원 공간을 만든 다음, 이것을 다시 영상과 결합하는데 그 싱크로율이 매우 높고 자유도 또한 우수하다...