시테크 #TECH

해시태그로 알아보는

10월의 테크 이슈

#핀테크동향
성장과 규제 사이

최근 핀테크 기업들이 직면한 문제는 다소 복잡합니다. 올해 1월만 해도 마이데이터 사업권 획득으로 새로운 먹거리 창출을 보장받았었는데, 몇 개월 후, 이 마이데이터 사업권을 토대로 진행할 일부 사업이 금융소비자보호법(이하 금소법) 위반이라는 사실을 통보받았거든요. 무슨 일이 벌어지고 있는 걸까요? 이해를 돕기 위해 마이데이터와 금소법 등장 배경을 짚어보았습니다.

#마이데이터

작년 말 정부가 데이터 3법(개인정보 보호법, 정보통신망법, 신용정보법)을 통과시키며 마이데이터 시대를 열었죠. 마이데이터란 데이터를 생산하는 개인이 데이터에 대한 권리를 가져야 한다는 개념인데요. 이 개념을 근거로 비금융 기업들에겐 사용자의 동의하에 그들의 금융 정보를 모아 새로운 서비스를 제공할 수 있는 길이 열렸습니다. 그런데 얼마 전 금융감독원이 모 빅테크 기업의 금융 상품 관련 서비스가 ‘중개’ 행위로 판단된다며, 중개 라이선스를 취득하지 않은 채 서비스를 지속하는 것은 금소법 위반이라는 의견을 전달했습니다. 금소법은 지난해 데이터 3법과 함께 통과된 법안인데요. 중개 라이선스를 따면 해결될 거 같지만, 현행법상 마이데이터 사업자는 중개업을 취득할 수 없다고 합니다. 기업은 해당 서비스를 중지했고, 금융위는 관련법 개정을 검토해보겠다고 해 상황은 일단락된 상태입니다.

마이데이터의 개념

#패러다임

언뜻 보면 마이데이터 사업권과 금소법이 충돌하는 것 같지만, 본질적으로 그렇지 않습니다. 이를 이해하기 위해선 ‘금융 패러다임의 전환’이라는 가장 큰 흐름을 이해할 필요가 있어 보이는데요. 원래 금융은 은행의 독점적 기능이었습니다. 2007년 서브프라임 모기지 사태가 발생하기 전까지만 해도 분명히 그랬죠. 전 세계에 금융 위기가 닥치고 은행의 신뢰도가 크게 떨어지면서 금융 시장은 혁신을 요구받았습니다. 게다가 IT 기술의 발전으로 레거시 산업에게는 디지털 전환이라는 과제도 생겼죠. 이때 시장의 변화를 눈치채고 금융 시장에 뛰어든 이들이 바로 IT 기업입니다. 이들은 사용자 편의성을 주장하며 은행이 번들링해 팔던 금융 상품을 개별로 쪼개고 거기에 IT 기술을 더했는데요. 그렇게 간편 송금 결제 서비스, 크라우드 펀딩, P2P 대출 등의 핀테크가 생겨났죠.

#오픈 API

은행이 기존의 폐쇄적 생태계 안에서의 변화만으로는 한계가 있다고 판단해 개방형 혁신을 지향하며 변화는 더욱 가속화됩니다. 그렇게 출현한 것이 마이데이터의 계기가 된 오픈뱅킹인데요. 그동안 고객의 금융 정보는 은행 안에 갇혀 있었습니다. 오픈뱅킹은 고객의 동의하에 제3사업자가 고객 금융 정보에 접근할 수 있도록 금융기관이 오픈 API 방식으로 정보를 제공하는 것입니다. 이를 통해 비금융 기업은 고객 정보를 기반으로 새로운 서비스를 제공할 수 있는 거죠.
*API: 서로 다른 프로그램의 기능이나 데이터를 상호 이용할 수 있도록 한 통신 규칙.

#새로운 경쟁

그러나 이때까지만 해도 은행이 API 공개를 거부할 수 있었기에 정보 공유의 선택권은 은행에 있었습니다. 게다가 사용자의 입장에선 나의 금융 정보를 개별 플랫폼에 들어가 확인해야 한다는 번거로움도 있었죠. 이것이 마이데이터가 도입된 배경입니다. 은행의 독과점 구조를 깨고 고객 중심의 새로운 경쟁 구조를 만들기 위해 금융 정보의 개념부터 다시 세우자는 것이죠. 이는 이미 유럽을 비롯한 해외에서 일찍이 나타났던 현상입니다. 필요성이 대두되자 국회는 개인 정보를 보호하고 데이터 처리 과정의 기준을 세우기 위해 지난해 데이터 3법을 통과시켰습니다. 올해 초에는 마이데이터 사업을 진행할 기업들의 신청을 받아 사업권을 허가하기도 했죠.

금융 시장의 주체가 다양해지고 있습니다. 은행에서 비금융 기업들까지 플레이어가 다양해질수록 소비자들은 보다 혁신적인 서비스를 경험할 수 있게 될 것입니다. 그러나 한편에서는 우려도 제기됩니다. 시장의 주도권이 은행에서 비금융 기업으로 이전되었을 뿐 또다시 소비자는 불공정, 불완전 판매에 노출될 수 있다는 우려 말이죠. 기업과 소비자 모두가 만족하는 성장을 위해선 조금 어지러워 보이더라도 더 많은 논의를 거칠 필요가 있어 보입니다.

이미지로 학습하는 AI

올해 1월 오픈 AI가 ‘달리(DALL-E)’를 공개했습니다. 달리는 텍스트를 입력하면 이미지를 생성해내는 AI 신경망 모델인데요. ‘아보카도 모양의 안락의자’라는 엉뚱한 자연어를 입력해도 꽤나 완성도 있는 이미지를 산출한다고 합니다. 신기한 기능이긴 한데요. 그런데 오픈 AI는 왜 이런 AI를 개발한 걸까요?

#DALL-E

#달리

달리라는 이름은 20세기 초현실주의 화가인 ‘살바도르 달리’와 영화 ‘월-E’에서 따왔다고 합니다. 실제로 달리가 생성해낸 이미지들을 보면 초현주실주의 작법 중 하나인 ‘데페이즈망(Dépaysement)’을 떠올리게 하는데요. 데페이즈망은 우리 주변의 대상들을 사실적으로 묘사하고 이질적인 맥락 안에 배치하는 화법입니다. ‘치마를 입은 채 개를 산책시키는 아기 무’, ‘아보카도 모양의 안락의자’ 등의 자연어를 입력했을 때 달리는 이질적인 요소들을 실제로도 존재할 법한 형태로 완성도 있게 묘사해냅니다. 한마디로 인간과 같은 상상력을 보여주는 것이죠.

#이미지 학습

어떻게 이러한 결과가 가능했을까요? 달리는 오픈 AI가 작년에 개발한 초거대 언어 모델인 GPT-3에 기반하고 있습니다. GPT-3는 1750억 개의 매개변수를 학습해 인간과 유사한 수준의 문장 생성 능력을 보여주며 큰 주목을 받았었죠. 달리는 이 GPT-3와 거의 동시에 개발되었는데요. GPT-3의 대규모 신경망을 적용하면서, 텍스트만을 학습한 GPT-3와는 달리 텍스트-이미지 쌍을 학습시킨 것이죠. 앞서 말한 달리의 특성들은 의도된 것이 아니라 개발 후 발견된 내용을 발전시킨 것이라고 합니다.

달리가 생성해낸 이미지

달리가 생성해낸 이미지

#멀티모달

오픈 AI는 왜 텍스트 생성기와 함께 이미지 생성기를 개발한 것일까요? AI의 목표는 인간처럼 사고하는 것입니다. 그런데 인간은 경험을 통해 사고 능력을 확장하는 반면 AI는 이것이 불가능하죠. 언어 학습을 통해서만 사고 능력을 키우는 셈인데요. 여기서 ‘인간처럼 경험하진 못하더라도 언어 외의 데이터들도 학습할 수 있어야 하지 않을까’라는 의문을 품어볼 수 있겠죠. 실제로 인간이 오감을 통해 사물을 인식하는 것처럼 다양한 형태의 데이터를 결합해 AI를 학습시키는 시도가 이루어지고 있어요. 이미지나 비디오, 음성과 같은 데이터로 말이죠. 이를 멀티모달 러닝(Multimodal Learning)이라고 부릅니다. 텍스트-이미지 쌍의 데이터로 학습한 달리가 바로 그 대표적인 예인 거죠.

오픈 AI는 달리가 패션이나 인테리어 디자인에 사용될 수 있을 것으로 내다봤습니다. 그러나 실용적인 면에서는 아직 한계가 있다는 점도 인정했죠. 예를 들어 ‘파란 딸기 이미지가 있는 스테인드글라스 창’을 입력하면 몇몇 그림에는 파란색 창과 빨간색 딸기가 그려지는 경우가 있었거든요. 당장의 실용성을 기대하기보다는 AI가 자연어를 통해 언어뿐만 아니라 시각적 개념을 다룰 수 있게 되었다는 점에 의미를 두어야 할 것 같습니다.

#테슬라 AI데이
자율주행차의 다음 단계는?

전기차 제조 기업 테슬라가 8월 19일 미국 캘리포니아에서 ‘AI 데이’를 개최했습니다. 테슬라는 2019년부터 자사 기술 개발 현황과 장기적 사업 계획을 소개하기 위한 연례행사를 개최해 오고 있는데요. 2019년 ‘오토노미 데이(Autonomy Day)’에선 테슬라 자율주행 기술의 핵심인 풀 셀프 드라이빙(Full Self Driving, FSD)을, 2020년 ‘배터리 데이(Battery Day)’에선 자사 기술을 통한 원통형 배터리 양산 계획을 발표했죠. 올해 열린 행사에는 ‘AI 데이’란 명칭이 붙었는데요. 어떤 내용이 발표되었을까요?

#비전 시스템

가장 많은 시간을 할애해 소개한 기술은 ‘테슬라 비전(Tesla Vision)’이었습니다. 자율주행엔 공간정보를 수집하고 분석하는 기술이 필요한데요. 대부분의 자동차 제조 기업이 라이다·레이더 센서에 카메라를 결합한 HD맵을 이용하는 반면, 테슬라는 자사가 개발한, 카메라 중심의 비전 시스템을 이용해왔죠. 지난 7월엔 FSD 베타 버전 9를 공개하며, 레이더 센서를 완전히 제거해버렸습니다. 오로지 비전 시스템에만 의존하겠다는 거죠. 테슬라는 AI 데이에서 이를 다시 한번 강조하며, 기술적 근거를 자세히 소개했습니다.

#DNN 신경망

비전 시스템의 핵심 기술은 8개의 카메라와 DNN 신경망입니다. 차량에 장착된 8개의 카메라가 차량 주변을 360도로 촬영하고 이 데이터는 DNN 신경망을 거쳐 실시간으로 운전자석 모니터에 3차원 벡터 스페이스로 구현됩니다. DNN 신경망은 딥러닝 모델의 일종으로 학습량이 많아질수록 점차 고도화될 텐데요. 이 신경망의 학습을 위해선 슈퍼 컴퓨터가 필요합니다. 테슬라는 직접 개발한 도조 컴퓨터를 사용 중이죠. 이번 행사에선 자체 개발 중이라고 밝혔던 D1 칩을 공개했습니다. 도조에 3,000개의 D1 칩이 사용될 예정인데, 테슬라는 1초당 100경 번 연산할 수 있는 수준으로 칩을 고도화하겠다고 밝혔습니다.

차량에 구현되는 테슬라 비전

#테슬라봇

AI 데이 말미에는 짧지만 모두의 이목을 집중시킨 발표가 있었는데요. 바로 ‘테슬라봇’ 개발 소식이었죠. 이날 공개된 테슬라봇은 신장 약 172cm에 몸무게 57kg의 휴머노이드로, 주로 물건 운반 등의 단순 노동에 활용될 예정이라고 합니다. 빠르면 내년에 프로토타입을 공개한다고 하네요. 사실 자동차 제조 기업이 로봇 개발 계획을 밝힌 것은 이번이 처음은 아닙니다. 이미 포드, 폭스바겐, 토요타 등의 기업들이 인공지능이나 로봇 개발 기업을 인수하며 자동화 로봇 시장으로의 진출 계획을 밝혔죠. 현대차그룹도 작년에 1조 원을 투자해 보행 로봇 기술을 보유한 ‘보스턴 다이내믹스’를 인수했습니다.

테슬라봇

테슬라는 AI 데이에서 자율주행차를 살아 있는 동물과 같은 존재라 생각하고 개발하고 있다고 밝혔습니다. 이러한 말을 감안하면 DNN 신경망으로 움직이는 자율주행차의 다음 단계로 휴머노이드를 택한 것이 그리 놀랄만한 일은 아닌 거 같네요.

facebook kakao blog scrap
페이지상단으로이동