5월 1일 18:30 UTC (한국시간 기준 5월 2일 오전 3시 30분) 경, 저희 비트멕스는 탐색 메뉴 개선의 일환으로 상향식/하향식 수익계약의 프런트 엔드 위치를 자체 탭으로 옮기는 업데이트를 시행하였습니다.

고객 지원 요청에 대한 서비스를 개선하기 위해 저희 비트멕스는 https://bitmex.com/app/support/contact에서 고객 문의 사항을 관리할 수 있는 신규 지원 페이지를 공개하였습니다. 저희는 다국어 양식과 같은 향후 업데이트를 통해 해당 페이지를 계속 개선해 나갈 것입니다.

추후 통지가 있을 때까지 [email protected]을 통한 문의 접수는 계속 지속될 예정이나 되도록 신규 양식을 이용하여 고객 지원팀에 문의하는 것을 권장드립니다.

항상 비트멕스 커뮤니티와 함께해 주셔서 감사합니다!

Cambridge Analytica라는 AdTech 스타트업이 있었다. 페이스북 유저들이 Like를 누른 정보들을 모은 다음, 각 유저별 성향을 뽑아내고, 그 성향에 맞춰서 타겟팅된 메세지를 보낼 수 있는 서비스였다. 수천만명의 유권자들에게 공통된 메세지가 아니라, 그 사람들의 스타일에 맞춰서 다른 메세지를 보낸다니, 이거 꿈 같은 미래형 서비스 아닌가?

근데 “있었다“라니? 왜 과거형일까?

트럼프 대통령의 2016년 선거 캠페인은 유저별로 다른 광고를 내보낼 수 있는 플랫폼을 찾는데 혈안이 되어있었다. 그들 눈에 들어온 Cambridge Analytica는 입맛에 딱 맞는 서비스였고, 트럼프 대통령의 선거 캠페인은 (자신이 Fake News라고 주장하는) 각종 언론사들의 비협조로 굉장히 힘들게 진행되고 있었던 탓에, 페이스북 유저 데이터를 가져오는게 불법인지 여부를 확인할 여유도 없이 그 서비스를 갖다 쓸 수 밖에 없었다. 선거가 끝나고 결국 데이터 불법 수집을 이유로 회사 관계자는 모조리 처벌을 받았고, 회사는 흔적도 없이 사라졌다. 페이스북은 개인 정보 보안에 소홀했다는 책임을 표명했고, 마크 주커버그는 상원의원들의 한심, 멍청, 답답한 질문을 몇 시간 동안 무덤덤한 표정으로 대답해주는 고역을 치르기도 했다.

(Source: CNBC.com)

2016년 미 대선 선거전이 한창이던 이 시점에 위와 같은 서비스가 완전히 충격적인 새 서비스였을까?

당시 한참 인기를 끌었던 미국 정치 드라마인 House of Cards에는 Data Scientist들을 활용해서 인터뷰에서 무슨 단어를 어떤 어조로 이야기해야 대중의 호응을 이끌어 낼 수 있는지를 실시간으로 분석할 수 있다는 걸 알려주는 장면도 등장하고, 어떤 소스였는지는 끝까지 비밀로 밝히면서 몇 백만명의 중립성향 유권자 전화번호를 뽑아와 선거 팀에 넘기는 장면도 나온다. 당시 워싱턴 DC쪽에 Data Scientist 자리에 지원하면 이런 Sentimental analysis는 해봤냐, Natural Language Process는 잘 아느냐, Network theory는 어떤 방식으로 적용해봤냐는 질문을 수도없이 들었을 것이다. 물론 그 회사들 상당수가 페이스북의 (어쩌면 고의적이었을지도 모르는) 보안 미비를 이용해 데이터를 긁어 모았다는 사실은 공공연한 비밀이었다.

 

Psychographic targeting의 역사

각 유저별로 성향을 파악해서, 그 유저에게 적합한 형태로 광고 메세지를 조절한다는 서비스는 2016년에 갑자기 등장한게 아니다.

가끔 별 대단치 않아보이는 질문 10개 남짓을 받고, 뭘 좋아하는지 대답해주고 나면 당신은 어떤 성향입니다는 평가를 해 주는 서비스를 봤던 적이 있을 것이다. 실제로 심리학에서 Big 5라고 부르는 인간의 성향 그룹이 있다.

심리학에서 정한 이런 기본적인 성향 이외에, Attitude, Interest, Opinion (AIO) 등등 다양한 종류의 성격 구분 방식이 있는데, 광고심리학을 하시는 분들이 썼던 사례가 있기는 하지만, 아무래도 정확도에 한계가 있고, 인간 성격을 저렇게 단순하게 구분할 수 있을까에 대한 의구심이 있었기 때문에 널리 활용되지는 못했다.

 

Demographic targeting과의 차이점

온라인 광고 시장에서 제일 먼저 나온 “타게팅” 광고는 인구통계학적인 정보를 이용하는 방식이었다.

성별, 연령, 결혼 유무, 거주 지역 등등의 정보는 위의 Big 5나 AIO처럼 뭔가 뜬구름 잡는다는 느낌도 없고, 눈에 확실하게 보였기 때문이다. 예를 들어, 우리 회사 상품은 30대 남성들이 주로 구매한다는 정보를 갖고, 30대 남성들이 자주 들어가는 커뮤니티에 집중 광고를 하는 방식이 보편화된 것이 바로 이런 이유 때문이다.

그런데, 사회경제문화적인 발전이 계속되면서 인간의 선호는 너무 복잡해졌다. 30대 남성이 자주 쓰는 제품을 40대나 50대 남성이 쓰지 말라는 법이 없고, 같은 연령대의 여성이 쓰지 말라는 법도 없다. 반대로 20대 여성들이 주로 쓰는 상품을 남성들도 많이 쓴다며 이른바 “유니섹스” 형태의 상품 구매 패턴을 볼 수 있다는 신문 기사가 나온지 이미 수십년이 지났다.

말을 바꾸면, 인구통계학적인 정보만을 바탕으로 한 광고 타게팅 너무 구식이라는 것이다.

 

Behavioral targeting과의 차이점

최근 들어 “인공지능”을 이용한 맞춤형 상품을 보여준다는 서비스가 우후죽순처럼 생겨나고 있다. 언론 플레이를 위해 “인공지능”이라는 단어를 썼지만, 사실은 Look-a-like 유저를 찾는 단순한 알고리즘이다. 상품 A-B-C-D를 보고 E를 구매한 유저 정보가 10명 정도 있었다면, 그 후부터는 A-B-C 상품을 보고 있던 유저에게 D-E 상품 그룹을 추천해주는 방식의 서비스인데, 이걸 해쉬 태그 방식의 검색어로 처리하면 Google 등이 쓰고 있는 검색 서비스가 되고, 쇼핑몰 상품 추천이나 광고 노출에 쓰면 “인공지능”의 탈을 쓴 Behavioral targeting이 된다.

이런 타게팅 방식의 가장 큰 문제는 특정 영역에서만 작동된다는 점이다. 쇼핑몰 “가”에서 어떤 유저가 A-B-C 상품을 보고 있다는 이유로 D-E 상품을 추천해줬는데, 쇼핑몰 “나”로 오면 “가”에서 쓰던 정보가 아무런 도움이 안 된다. 거기다 데이터를 공유하려고하면 쇼핑몰 “가”는 손해보는 장사를 해야된다. 설령 “가”와 “나”가 서로 유저 검색 데이터를 공유하기로 했다고해도, 단순히 상품을 본 기록 뿐만 아니라, 그 상품의 카테고리, 가격 등등 세부 정보를 모두 공유해야 진정한 데이터 공유가 된다.

쇼핑몰 “가”와 “나”가 그런 업무 협조를 맺는데 걸리는 시간을 생각해보자. 우리나라에만 온라인 쇼핑몰이 얼마나 많을까? 더 유저가 많은 쇼핑몰일 수록 손해를 보는데, 쉽게 협상이 될까?

쇼핑몰이 아닌 다른 서비스에서 쇼핑몰 검색 정보를 쓸 수 있는 방법은 없을까? 분명히 특정 상품 군을 많이 샀던 유저라면 자기네 서비스에도 관심이 있을거라는 짐작을 할 수 있을텐데, 이런 데이터 공유는 한계가 있을 수 밖에 없다.

차라리 미국의 Amazon처럼 1개 쇼핑몰이 시장을 사실상 반독점 형태로 운영하면서 모든 유저 검색 정보를 다 갖고 있다고 해도 쇼핑몰을 넘어선 다른 서비스에 적용하려면 같은 한계를 넘어야한다.

 

카드사에서 대량 구매한 데이터

국내외에 카드사에서 데이터를 대량으로 구매하고, 그 정보들을 이용해서 유저 프로파일링을 하겠다는 서비스를 꽤나 봤던 적이 있다. 만약 그들이 갖고 있는 정보가 “영수증” 급으로 상세한 정보라면 좀 말이 되겠지만, 많은 경우 전체 합계 금액 이상의 정보가 없다. 쇼핑몰들 입장에서도 상세 정보를 내부적으로는 갖고 있으면서 유저들의 행동 패턴을 볼 인센티브가 있을지는 몰라도, 카드사에게 상세 정보를 주는 건 불편할 것이다.

당장 마트에서 10개 상품을 구매한다음에 1개만 반품처리를 해 보시라. 아마 전체 환불을 한 다음에 다시 9개 상품에 대해서 재결제를 할 것이다.

더 나아가서 위의 데이터는 결제 여부만 알 수 있고, 정작 결제 전에 어떤 행동을 했을지에 대해서는 제한적인 정보 밖에 없다. 식당 A에서 점심 식사를 했는데, 그 전에 식당 B와 C를 들러서 빈 자리가 없었기 때문에 A에서 식사를 했다면 A는 선호되는 식당이 아님에도 불구하고, 카드사 기록만 놓고보면 그 고객은 식당 A를 좋아하는 사람이라고 인식하게 될 것이다.

요컨대, Flow를 볼 수 없는 데이터, Snapshot만 보는 데이터로 타게팅을 한다는 건 한계가 있을 수 밖에 없다.

 

Psychographic targeting이란?

다시 트럼프 대통령의 사례로 돌아와보자.

Cambridge Analytica는 유저 성향에 따라 완전히 다른 배너를 보여줬다.

정치적 성향은 중립이지만 애완동물을 좋아하는 사람에게는 상대 후보가 표정 찌부리며 애완동물을 피하는 모습을 보여줬고, 반대로 애완동물을 싫어하는 사람에게는 트럼프 대통령이 애완동물을 달가워하지 않는 사진이 들어간 광고 배너를 노출시켰다. 비슷한 맥락으로, 주제별로 세분화된 선호도에 따라 정부 예산을 더 들여서 커뮤니티 센터를 지어야한다는 뉴스 클립과 세율을 낮춰야한다는 상반된 메세지를 인구통계학적으로는 거의 같은, 하지만 지역 이슈에 대한 견해가 미세하게 다른 그룹에게 뿌린 기록도 찾아볼 수 있다.

아래의 좀 더 간단한 예시를 보자.

(Source: Wishpond blog)

위의 두 여성은 40대 초반, 중산층, 어린 자식이 2명이고 직장인 여성이라는 공통점을 갖고 있다. 아마 인구통계학적인 정보만을 활용했다면 둘에게 같은 광고가 나가게 될 것이다. 그러나 Psychographic targeting을 하고 있으면 첫번째 여성분께는 요리 재료 광고가 나가고, 두번째 여성분께는 배달음식 광고가 나가게 된다.

정치나 쇼핑에만 그런 서비스가 쓰이는게 아니다. Porsche 자동차 광고에 쓴 사례를 보면, 같은 고급 차량을 부잣집 아드님 스쿨버스라고 설명하는 광고도 있고, 하이킹 같은 야외 활동을 좋아하는 사람들에게 딱 맞는 차라는 광고도 있다. (아래 광고 시즌이 겨울이었다면 아마 스키 관련된 이미지와 결합되었을 것이다.)

 

Psychographic targeting을 위한 도전

당장 우리 Pabii의 서비스를 기획하면서 유사한 서비스를 한국 시장에서 찾아봤다.  없더라. 페이스북에서 Like값들을 이용해 약간 시도할 수 있는 정도다.

평소 웹서핑 중에 보는 모든 광고를 우리가 Porche 911처럼 초미세 타게팅해서 보여드리려는 서비스를 만들고 있는데, 그래서 스마트폰을 쓰는 모든 분들이 우리의 고객분이 되는 걸 목표로 하는데, 광고 타게팅에 협조해주신 부분에 대한 보상액이 크게 느껴지는 분들과 작게 느껴지는 분들에게 다른 메세지를 보내고 싶어도 뾰족한 방법이 없다. 기껏해야 직장인과 비직장인을 구분하기 위해 인구통계학적 정보를 쓰는게 전부인 상태더라.

사실 이 서비스를 처음 기획하면서 가장 직접적으로 직면했던 도전은 “돈”이 아니라 “데이터”였다. 위의 Cambridge Analytica 사례에서 봤듯이, 개인의 선호 같은 데이터를 동의없이 훔쳐(?)가면 엄연히 불법이고 처벌을 받게된다. 그렇다고 다른 데이터를 구매하려니 위에 쇼핑몰, 카드사 예시에서 언급했듯이 우리가 원하는 레벨의 데이터는 없다.

어차피 유저 특성을 뽑아내고나면 기초 데이터 (Raw data)는 더 이상 쓸모가 없어서 버리게 될텐데, 그럼 개인정보보호법을 위반하지 않는데, Pabii가 기대하는 수준의 데이터가 있어야 그런 데이터 가공이 유의미할 수 있다는 판단이 섰다.

그래서 우리는 합법적인 수준에서 데이터를 받아오는 앱을 직접 만들고 있다. 내부적으로 걱정하는 부분은 이 앱을 출시해도 사용자 숫자가 일정 수준이 되기 전까지는 유저 특성을 뽑아내는 고급 통계학 알고리즘이 작동하기 어렵겠다는 점, 그리고 광고주가 없어서 유저들에게 적절한 보상을 돌려드리기 어렵겠다는 점이다.

이런 문제를 해결하기 위해 다른 보상형 광고 앱들처럼 과다보상으로 유저 유입을 유도하는 방식을 택하는 대신, 우리 앱에서 받은 돈을 쓸 수 있는 생태계를 만드는 방식으로 문제를 극복하려고 한다. 그래서 무모하다는 욕을 먹어가며 우리가 직접 SNS를 만들고, 쇼핑몰을 만들고 있다. (그렇다고 Instagram과 Amazon을 만드는 건 아니다ㅋㅋ)

(Source: SciELO)

 

데이터 가공이란?

회사 이름 P.A.B.I.I는 Psychographic Analytics by Integrated Intelligence의 약자다. Psychographic analytics가 작동하기 위해서는 Integrated Intelligence가 뒷받침되어야하는데, 이게 바로 유저 데이터를 1명, 1명만 봐서는 아무런 의미가 없고, 수백만명의 데이터를 묶었을 때만 의미가 있다는 말이다. 모두의 힘이 모여야 되는 윈기옥 같은 서비스다.

페이스북에서 유저들의 Like를 그대로 긁어온 Cambridge Analytica와 가장 크게 다른 점은, 우리는 그런 Like 정보를 활용하지 않는다는 것이다. 우리는 그런 뻔한 눈에 보이는 데이터를 쓰는 쉬운 길을 택할 생각이 없다. 남들이 금방 카피해서 따라올 수 있다는 걸 알기 때문이다. 우리는 유저들의 평소 앱 활동 내역 정보들을 Factor analysis같은 고급 통계학을 이용해 가공해서 남들이 찾아낼 수 없는 유저 특성을 도출할 것이다. Factor를 도출하는 순간부터 기초 데이터를 더 이상 쓰지 않아도 되는 서비스를 만든다는게 바로 여기에 기반한다. 그렇게 통계 모델링에 자신 있는데 왜 유저 데이터에 목을 매냐고? Integrated Intelligence가 필요한 부분, 좀 더 정확하게는 Factor라는 가상 변수의 정확도는 데이터에서 볼 수 있는 패턴 다양성의 폭과 깊이에 크게 달려있기 때문이다.

DSP 방식의 보상형 광고 서비스를 만들면서, 어쩌면 우리는 의적 홍길동을 꿈꾸고 있지 않나는 생각도 해 봤다. 그동안 광고주의 이익을 위한 서비스를 제공하면서 온라인 광고 플랫폼의 모든 주체들이 이익을 보고 있었는데, 정작 데이터를 제공했던 유저들은 보상을 받질 못했다. 일부 보상형 광고들이 있었지만 체리피커들 때문에 광고 효율성이 악화되면서 핵심 서비스로 남을 수는 없었다. 우리는 더 이상 광고주들이 체리피커를 문제삼지 않아도 되는, 그렇지만 데이터 제공자인 유저들이 합리적인 보상을 받을 수 있는 시스템을 만들려고 한다.

광고주님들, 데이터는 유저가 만들어 드리거든요?

 

나가며 – Why Pabii is different

전직 야X 코리아 출신으로, 현재 어느 온라인 광고 스타트업 CTO로 계신 분이 했던 말이다.

“데이터 사이언스는 데이터라는 바다에서 금을 찾는 작업이다”

말을 그렇게 해 놓고는 타게팅 알고리즘에 대해서 설명해달라는 10가지 다른 종류 질문을 하니 땀을 뻘뻘 흘리며 “와X다 대학교에 계신 교수님께서 연구를 하시는데…”로 대답만 하는 걸 봤었다.

그 발표가 끝나고나니 옆에 앉은 친구 하나는 “와X다 대학교가 타게팅 알고리즘으로 좋은 학교야?”라고 묻더라. 자기도 미국에서 석사 유학까지 하며 연구라는게 어떻게 돌아가는지 맛보기라도 한 녀석이….

그런 답답한 지식 수준으로 타게팅 한다는 광고 스타트업 CTO를 하면서 회사 모델 설명회를 열고 있는 사람이나, 담당 교수의 논문 실적과 연구 수준과 깊이 대신 현재 재직 중인 학교의 명성을 묻고 있는 사람이나, 그런 시간 낭비하는 프리젠테이션에 참석하고 그런 깝깝한 질문하는 친구를 둔 나 자신이나, 누가 누구를 욕하랴~

그 와X다 대학에 계신다는 분의 논문도 읽어보고, 개인적으로 수소문한 정보를 모아봤는데, 그 분 역시도 기술적으로 데이터를 처리하려는 엔지니어고, 모델링에 기반한 데이터 전처리에 깊은 관심이 있는 분은 아니라는 사실을 알게 되었다. 그 광고 스타트업이 퍼포먼스 마케팅을 한다고 주장하는데 퍼포먼스에 해당하는 광고 효율성이 전혀 느껴지지 않는 근본적인 이유일 것이다.

우리 Pabii는 그들과 완전히 다른 데이터, 완전히 다른 사업 모델, 그리고 완전히 다른 Data Science 내공으로 승부하려 한다.

 


공지1: 여러 곳에서의 요청에 따라 7월, 8월에 데이터 사이언스 강의 및 데이터 사이언스 모델링 강의를 개설합니다. 잠정적으로 7월 말 ~ 8월말 주말을 이용할 예정입니다.

공지2: RTB 시스템 개발을 위해 대용량 트래픽 처리에 관심있는 개발자 분을 모십니다. 제 타게팅 알고리즘이 시스템 내부에서 실시간으로 계산처리될 수 있도록 Memory DB 커스터마이징을 많이해야하는 업무를 맡으실 겁니다. 현재 저희가 내부에서 확정한 기술 스펙은 HAproxy, NginX, Kafka, ELK 등이고, Memory DB쪽은 Amazon DynamoDB는 비용 문제로 고려대상이 아니고, Redis, MongoDB, Cassandra보다 Couchbase나 YugabyteDB 같은 한국에서 흔히 쓰이지 않았던 스펙으로 만들 예정입니다. Memory DB쪽 경력 있으신 분, 초당 1백만 이상의 트래픽을 감당할 수 있다고 도전하시려는 개발자분 우대합니다.

요약: 2019년 4월 18일, 비트멕스 리서치 팀의 비트코인 캐시 SV 노드는 두 번의 블록 리오그를 겪었습니다. 먼저 3개 블록의 리오그가 발생했고, 뒤를 이어 6개 블록의 리오그가 발생했습니다. 이번 간략한 보고서에서 저희는 임시 체인 분할과 관련된 데이터와 도표를 제공할 예정입니다. 이번 체인 분할은 합의 관련 문제보다는 전파하는 데 너무 오랜 시간이 소요된 대규모 블록들에 의해 발생된 것으로 보입니다. 저희 비트멕스 리서치 팀의 분석에 따르면 분할과 관련된 이중 지불 공격은 없었다는 것을 보여주고 있습니다.

체인 분할 다이어그램 – 2019년 4월 18일

출처: BitMEX Research
공지사항: 위의 이미지는 두 개의 유효한 경쟁 체인이 존재했었고 578,639번 블록에서 비 합의 분할이 발생했음을 나타냅니다. 저희의 노드는 왼쪽의 체인을 따라 578,642번까지 이어 가다 오른쪽으로 넘어갔습니다. 약 1시간 후, 이는 다시 왼쪽으로 넘어가는 현상을 보였습니다. 왼쪽의 체인은 지속되었고 오른쪽의 체인은 결국 유기되었습니다.

체인 분할 거래 데이터

거래 건 수
주요 체인 (6개 블록 이내)
754,008
포크 체인
1,050,743
중첩 부분 (6개 블록 이내)
753,945
최종 이중 지불 공격
0

출처: BitMEX Research

저희의 거래 분석에 따르면 포크 체인 (오른쪽)의 모든 TXID (거래번호)는 결국 코인베이스 거래를 제외하고는 주요 체인으로 되돌아가는 현상을 보였습니다. 따라서 이번 일과 관련하여 이중 지불 공격이 발생하지 않았다는 것이 저희의 생각입니다.

분할과 관련된 블록의 타임스탬프 – 2019년 4월 18일

현지 시계 블록 타임스탬프 블록헤이트 해시 크기 (MB) 로그2 작업량
11:39:47 11:39:19 578,638 000000000000000001ccdb82b9fa923323a8d605e615047ac6c7040584eb2419 3.1 87.803278
12:04:51 12:04:37 578,639 0000000000000000090a43754c9c3ffb3627a929a97f3a7c37f3dee94e1fc98f 8.6 87.803280
12:28:01 12:20:36 578,640 00000000000000000211d3b3414c5cb3e795e3784da599bcbb17e6929f58cc09 52.2 87.803282
12:43:42 12:29:39 578,641 0000000000000000050c01ee216586175d15b683f26adcfdd9dd0be4b1742e9e 42.1 87.803285
12:59:27 12:51:40 578,642 00000000000000000a7a25cea40cb57f5fce3b492030273b6f8a52f99f4bf2a8 76.2 87.803287
13:05:18 12:32:39 578,640 000000000000000007ad01e93696a2f93a31c35ab014d6c43597fd4fd6ba9590 35.5 87.803282
13:05:18 12:33:16 578,641 0000000000000000033ed7d3b1a818d82483ade2ee8c31304888932b7729f692 0.1 87.803285
13:05:18 12:41:38 578,642 00000000000000000ae4a0d81d4c219139c22ba1a8a42d72b960d63a9e157914 1.0 87.803287
13:05:19 12:56:37 578,643 00000000000000000590821ac2eb1d3c0e4e7edab586c16d5072ec0c77a980dc 0.8 87.803289
13:19:36 13:14:22 578,644 0000000000000000001ae8668e9ab473f8862dc081f7ac65e6df9ded635d338e 128.0 87.803291
13:21:56 13:18:07 578,645 0000000000000000049efe9a6e674370461c78845b98c4d045fe9cd5cb9ea634 107.2 87.803293
14:12:54 13:15:36 578,643 0000000000000000016b62ec5523a1afe25672abd91fe67602ea69ee2a2b871f 23.8 87.803289
14:12:55 13:43:35 578,644 000000000000000003e9d9be8a7b9fc64ef1d3494d1b0f4c11845882643a6439 1.3 87.803291
14:12:55 14:01:34 578,645 0000000000000000052be8613e79b33a9959535551217d7fdacc2d0c1db1e672 0.0 87.803293
14:12:55 14:06:35 578,646 00000000000000000475ab103a92eb6cb1c3c666cd9af7b070e09b3a35a15d66 0.0 87.803296
14:27:09 14:24:37 578,647 0000000000000000062bade37849ade3e3c4dfa9289d7f5f6d203ae188e94e4f 77.0 87.803298

출처: BitMEX Research

저희는 큰 관심을 두고 지켜보고 있을 사용자들을 위해 다음을 포함하여 체인 분할과 관련된 모든 세부사항을 공개하는 위의 표를 제공하였습니다:

  • 블록 타임스탬프
  • 현지 시계 타임스탬프
  • 블록 해시
  • 블록 크기
  • 각 블록까지 누적된 총 작업증명 (PoW, Proof of Work)의 양

위의 세부사항을 이용해 체인 분할과 관련하여 발생한 작업을 추적하고 타임라인을 작성할 수 있습니다.

결론
이 정보와 분석을 제공하는 저희의 주된 동기는 비트코인 캐시 SV에 대한 관심이 아닌, 비트코인 네트워크에서 이러한 유형의 이벤트를 분석하고 감지하는 시스템을 개발하고자 하는 바람으로 이루어졌습니다. 빈약한 블록 전파 혹은 합의 관련 문제로 인한 체인 분할 감지를 지원하기 위해 https://forkmonitor.info 웹사이트에서 시스템을 개발하고 있습니다. 비트코인 캐시 SV에서의 이러한 이벤트는 저희에겐 좋은 관례입니다.

비트코인 캐시 SV의 경우 블록 크기는 리오그 기간 동안 특히 컸습니다. 포크 체인에서 마지막 두 블록은 각각 128MB와 107MB였습니다. 주요 체인에서 블록의 대부분은 50MB 이상이었습니다. 따라서 저희의 견해로는 다른 체인의 블록이 발견되기 전에 마이너들이 이러한 큰 규모의 블록은 충분히 빠르게 전파하고 검증할 수 없기 때문에, 블록의 커다란 크기가 리오그의 근본적 원인일 가능성이 높습니다.

저희는 이것이 비트코인 캐시 SV에 미치는 영향에 대해서 언급할 부분은 없습니다. 이에 대한 저희의 논평은 다른 전문가들에게 맡기도록 하겠습니다.

비트멕스의 소유주인 HDR Global Trading은 고성능 전문 거래 소프트웨어의 세계적인 공급 업체인 Trading Technologies International, Inc. (TT)와 제휴를 체결하였습니다. 이번 제휴를 통해 비트멕스에서 거래 가능한 사용자들은 이제 대표적인 비트코인 무기한 스왑 계약을 포함한 모든 비트멕스 상품에서 Trading Technologies가 제공하는 시장 선두적인 거래 수단을 이용할 수 있게 되었습니다.

비트멕스의 최고 경영자인 Arthur Hayes는 다음과 같이 소감을 밝혔습니다:  “Trading Technologies와 마찬가지로 비트멕스는 수준 높은 거래자들에게 혁신적인 금융 상품 및 원활한 경험을 제공하기 위해 최선의 노력을 다하고 있습니다. 저희의 탄탄한 기술력을 결합함으로써 이 제휴 관계는 비트멕스만의 고유한 서비스를 Trading Technologies의 안목 있는 고객에게까지 확장시킬 뿐만 아니라, 최첨단 암호화폐 상품에 대한 접근성을 높이기 위해 상호 비전을 발전시킬 것입니다”

Trading Technologies의 최고 경영자인 Rick Lane 또한 다음과 같이 “비트멕스와의 협업은 수상 경력을 보유한 저희 Trading Technologies의 거래 소프트웨어를 훨씬 더 광범위한 암호화폐 시장으로 이끌 것입니다. 저희는 이 제휴 관계가 암호화폐에 다가가고자 하는 기존 고객뿐만 아니라 전문 거래 소프트웨어를 활용하고 더 나은 거래 경험을 즐기려는 신규 사용자를 통해 비트멕스의 거래량을 증가시킬 것으로 기대합니다” 라고 큰 포부를 전했습니다.

Trading Technologies의 플랫폼은 5개 대륙에 걸쳐 있는 Trading Technologies만의 사설 관리 인프라를 통해 전문 거래자에게 직접적인 글로벌 시장에 대한 접근성 및 거래 체결 서비스를 제공합니다. 전문 거래자, 중개인 및 시장 진입 서비스 제공 업체를 위해 특별히 설계된 Trading Technologies는 수동으로 이루어지는 마우스 클릭 거래에서 자동 주문 입력에 이르는 거래 방식을 수용할 수 있는 다양한 사용자 정의 도구를 아우르고 있습니다.

Trading Technologies 회사 소개

Trading Technologies (www.tradingtechnologies.com@Trading_Tech)는 독점 거래자, 중개인, 자금 관리자, CTA, 헤지 펀드, 상업연계 헤저 및 위험 관리자를 포함한 사용자를 위한 다양한 전문 거래 소프트웨어, 인프라 및 데이터 솔루션을 제공합니다. Trading Technologies는 전세계적인 주요 거래소들 및 유동성의 장에 대한 접근성을 제공하는 것 외에도 암호화폐 거래에 대한 도메인 별 기술과 실시간 거래 감시를 위한 기계 학습 도구를 제공합니다.

가까운 친구 하나가 아래의 스크린 샷을 보내왔다. 코멘트를 달란다. 어지간하면 친구에게 짧은 답장해주는 걸로 무시하려고 했는데, 저 글 쓰신 분이 “나름 업계의 네임드”란다. 정말 저런 수준으로 네임드가 될 수 있는 한국 시장의 세태가 너무도 개탄스러워 친구에게 보냈던 메세지를 그대로 블로그에 공개한다.

(주의: 아래는 매우 심한 폭언이 담겨 있습니다. 포스팅 당사자의 이름 및 Like를 누르신 분들의 이름을 지웠으니 독자분들의 양해 바랍니다.)

(Source: 가까운 친구가 스크랩 해 준 어느 페이스북 포스팅)

 

답장:

무식하게 Hidden Layer를 주먹구구식으로 집어넣는 것 밖에 모르는 수준이라면 딱 저렇게 보이겠지.

너 혹시 Taylor’s Expansion 기억나냐?

고차항으로 Non-linear function (Log 함수 같은거) 비슷하게 맞춰보려고 하던거, 우리 학부 1학년 때 배운거 있짆냐.

그거 Neural Network 모델에 Single Layer 놓고 Node 점점 추가하는 걸로 똑같이 돌아가는거 보여주면 저런 사람들 눈이 똥~ 그랗게 되더라.

Taylor’s Expansion은 미분과 수식이 눈에 보이니까 수학이나 알고리즘이라고 생각하는걸테고, Network 모델은 미분과 수식이 눈에 안 보이니까, TensorFlow 같은 패키지 안에 포함되어 있으니까, 학교에서 저걸 수식으로 풀어서 증명하는 과정을 안 겪어봤으니까 그냥 코딩이라고 생각하는 거겠지.

구글에서 Universality Theorem Neural Network로 검색해봐.

Taylor’s Expansion의 Network 버전을 구경할 수 있을거다.

딥러닝, 딥러닝 노래 부르는 인간들치고 블랙박스라고 우기지 않는 사람 없고, 정작 제대로 수식 써 가며 증명해본적 있는 사람 없을꺼야.

전에 말했듯이, 제대로 통계학 배우고 이쪽에 발 들였으면 Deep Neural Net이 Logit 여러개를 Decision Tree 비슷하게 결합하는데, 작동 방식이 Gradient Boosting과 Random Forest의 결합이라는걸 바로 이해하게 됨. 그런 사람들이 당연히 딥러닝 딥러닝 노래를 부를 이유가 없지. 기존 모델들의 장점만 다 모이는게 아니라, 단점도 다 같이 결합되는걸 이해하는 사람이 딥러닝 좋다고 저렇게 글을 쓴다?

저렇게 제대로 교육 받은 적도 없이 코딩으로 업계의 “네임드”가 된 사람들이 싸그리 퇴출되어야 우리나라가 2류에서 하다못해 1.5류라도 될 기회가 생기는거 아니겠냐 ㅋㅋ

2019년 4월 2일 04:44:34 UTC부터 05:22:08 (한국시간 기준 오후 1시 44분 34초 ~ 2시 22분 08초)까지 XBTU19 및 ETHM19 상품에 대한 기초 시장 평균가가 급격한 가격 변동을 일으켜 200개 미만의 포지션이 자동청산되었습니다.

이렇게 자동자산청산이 이루어진 당시 해당 계약들에 할당된 비트멕스 보험 기금은 미미했습니다. 비트멕스 보험 기금은 해당 특정 계약에 얼마나 많은 청산이 기여하는지에 따라 개별적으로 할당됩니다 (시스템 수익 및 손실). 만료된 계약의 경우, 비트멕스는 이러한 계약에 할당된 보험 기금을 다음 근월 계약으로 이월하는 절차를 시행합니다. 최근 2019년 3월 29일에 만기됨에 따라, 이 과정은 실패하고 해당 근월 계약은 할당을 받지 않았기 때문에 보험 기금은 할당되지 않은 채 남아있었습니다. 결과적으로 소수의 사용자들은 이러한 영향을 받는 계약 내에서 대규모 청산으로 인해 자동청산이 되었습니다.

저희 비트멕스는 자동자산청산에 대한 보고서를 확인하고 비정상적으로 높았던 자동자산청산 비율에 대해 인지하게 되었으며, 이 시점에서 저희는 해당 문제를 조사하였습니다. 저희는 근본적 원인을 확인하고 할당을 수정하였으며 재할당 실패가 자동 및 내부적으로 표시될 수 있도록 추가 제어를 실시했습니다

이번 사태로 영향을 받은 사용자들을 위해 저희 비트멕스는 직접 연락하여 상황을 설명하고 보상을 문서화할 예정입니다. 저희는 사용자들이 이러한 자동자산청산이 발동되었던 기간 동안 벌어들였을 최대 잠재적 수익을 기반으로 보상을 제공하였습니다. 저희는 각 계약의 최적 가격으로 해당 사용자들의 포지션을 종료하였습니다: XBTU19 상품의 공매수 포지션인 경우 5,079.5, 그리고 ETHM19 상품의 공매도 포지션인 경우 0.03103이었습니다. 저희 비트멕스는 이러한 자동자산청산이 이루어진 포지션들로 인해 취한 이득은 없음을 알려드립니다.

이번 사태로 인해 불편을 끼쳐드려 죄송합니다. 궁금한 점이 있으시면 고객 지원팀에 문의해주시기 바랍니다.

늦은 시간에 메일 보내는 점 죄송스럽게 생각합니다. 블로그 글을 정독하다 지금까지 깨있게 되었습니다.

 

이번 프로젝트 주제를 머신 러닝 / 강화 학습을 주제로 프로젝트를 진행을 하며 책, 웹 검색 등으로 학습 해가며 밤새 공부하면서 구현을 하고 있습니다.

원래도 이 주제에 흥미가 있어 학부내에서 들을수 있는 모든 관련 과목인 데이터마이닝, 바이오데이터마이닝, 빅데이터SNS분석, 인공지능, 지능형시스템 이란 수업을 들었습니다.

유독 머신러닝 랩 부분 교수분의 수업인지능형시스템바이오데이터마이닝의 경우 공부를 하면서도 이게 머신러닝과 무슨 연관이 있는 내용이지? 하면서 공부를 하였습니다.

지능형시스템의 경우는 R을 사용해서 R의 여러가지 함수설명과 통계학적 지식을 알려주는 수업이었고

바이오데이터마이닝의 경우는 대표님께서 추천해주신 책인 ISLR로 선형회귀, SVM, Random Forest 등 통계학과 관련된 수업만 진행 했습니다.

 

그래서 수업을 들을때는 이게 연관이 있는 부분인가 하고 그냥 열심히 들었는데 대표님 블로그글들을 정독해 나가면서 수업이 그랬던 이유를 깨닫게 되었습니다.

솔직히 처음에는에서를 창조하는 마법과 같은 기술이라고 생각했지만에서 더 좋은를 찾아 나간다는 기술이란 것을 알게되었습니다.

여전히 이 길로 가고 싶고 컴퓨터쪽 지식은 좋은편이라 생각하지만 현재 지식에서 좀더 나에게 부족한 통계학을 공부하고 싶은 열망이 생겼습니다.

그래서 현재 파비에서 진행하시는 강의를 들으려고 했는데 더이상 진행하지 않으신다는걸 알게 되었습니다. 그래서 몇가지 질문 사항이 있습니다. 여유가 되신다면 답변해주시면 감사하겠습니다.

 

1. 집안사정상 석사과정까지 거치기가 힘들 것 같습니다. 정말 석사를 하면서 배워보고 싶지만 4학년 학부생으로써 석사 못지 않은 커리어를 쌓을 방법이 있을까요?

2. 혹시 강화학습을 공부하는데 더 도움이 될만한 책이나 강의가 있을까요? 현재 도서관에서 빌린 책은 있지만 그저 구현에 집중한 copy & paste 위주 책입니다

 

읽어주셔서 감사합니다. 여유가 될때 답변해 주신다면 정말로 감사합니다

 


안녕하세요 XXX님,

 

부족한 블로그를 새벽까지 읽어주셔서 감사합니다.

아래에 짧게 답변드립니다.

 

1. 한국에서 석사를 해 본적이 없어서, 특히 컨설팅 회사식으로 돌아간다는 공대의 석사 프로그램을 직접 경험해본적이 없어서 해외 석사 프로그램과 얼마나 퀄리티가 차이날지는 모르겠습니다만, 제 경험상 학부 수준과 석, 박 수준은 매우 많이 다릅니다. 저는 학부출신이 아무리 경력이 길게 쌓여도 데이터 사이언스 관련한 중요한 일을 시킬 생각이 없습니다.

 

2. 강화학습이라는 단어에 매몰되고 있는걸보면 아직까지 공부가 부족한 듯 보입니다. 핵심은 그 안에 쓸 Supervised learning 모델을 어떻게 만드는가에 달려있기 때문에, 결국은 석사 이상 레벨에서 Hamiltonian optimization을 공부해야 강화학습이라는게 결국은 stochastic optimization 계산을 iteration으로 하는데 n개 이상의 uncertainty를 포함시킨 것에 불과하다는 걸 이해하게 되실겁니다. 이건 Model-Free로 계산한다는 Q-learning도 크게 다르지 않습니다. 단지 N개 Uncertainty 를 Grid search 하는 시뮬레이션으로 처리하는 작업에 불과합니다. 블로그에서 계속 이야기하고 있는대로, 공학도들이 흔히 빠져있는 함정인 컴퓨터(or 계산기)가 알아서 계산해주겠지라는 마인드를 빨리 버리시킬 바랍니다. 일단 방정식을 정의해야 계산기도 작동하잖아요. (계속 함정 안에 머물러 있으면 제가 “공돌이”라고 폄하하는 사람들이 됩니다 ㅋㅋ)

 


원 글 내용을 일부 수정했습니다.

3월 29일 12:00 UTC (한국시간 기준 3월 29일 오후 9시) 경, 비트멕스는 거래 엔진이 결산 작업 중에 차단됨에 따라 모든 요청이 특정 시기에 중지로 이어질 수 있었던 약 15초 동안의 일시적인 거래 중지 사태를 겪었습니다. 해당 플랫폼은 15초 동안의 거래 중지 이후 정상화되었습니다.

20:13 UTC (한국시간 기준 오전 5시) 경, 비트멕스 웹사이트는 소규모 사용자 그룹에 제한된 서비스 중단 사태를 겪었습니다. 해당 문제는 즉시 확인되어 해결되었습니다. 이와 관련해 API에는 어떠한 영향도 미치지 않았습니다.

해당 사항과 관련해 불편을 끼쳐드려 죄송합니다. 궁금한 점이 있으시면 고객 지원팀에 문의해주십시오.

Computer Science 학계에서 (Computer Engineering 말고) 머신러닝이라는 계산 알고리즘에 관심을 가진 적이 대략 3번 정도 된다. 70년대 후반에 대기업 및 학교들이 대형 컴퓨터들을 비치해서 펀치 기계로 이런 저런 명령어를 입력하는 단순 알고리즘을 만들 때가 첫번째고, 90년대 중반에 메모리 가격 폭락으로 하드웨어 가성비가 좋아졌을 때가 두번째, 그리고 2008년 이래 이미지 인식 정확도가 눈에 띄게 좋아지고 난 다음에 세번째라고 보면 될 것 같다.

구글의 이미지 서칭 기능이 엄청난 정확도를 보여주면서 CS 학계에서 이미지 인식 알고리즘에 대한 또 한번의 “혁신(?)”이 생기는거 아닌가는 바람이 불 뻔 했지만, 얼마지나지 않아 그 정확도의 상당 부분은 이미지 데이터 베이스 정리로 나온 결과물이지, 정작 이미지 인식 알고리즘에서 혁신이 있어서는 아니라는 말이 돌면서 분위기가 많이 시들해졌던 걸 들었다.

요즘 일반에 쓰이고 있는 이미지 인식 알고리즘은 이미 2010년 이전에 나온, 데이터 처리라는 측면만 놓고 봤을 때는 PCA 구조에서 크게 벗어나지 않는 알고리즘이 쓰이는 것으로 알고 있다. 아래의 그림은 최근에 구글 이미지 인식을 이용한 장난질(?)의 결과물이다. 보시다시피 데이터 베이스가 잘 갖춰져있지 않은 경우에는 비교 이미지 인식률이 뚝 떨어진다. (상황이 이런데 중국에서는 마트에 가면 사람 얼굴을 인식해서 자동으로 결제도 되고, 교통 법규를 위반하면 벌금도 매기고… 라는 말을 하더라…)

(Source: Google.com)

 

인공지능 (X), 패턴인식 (O)

알파고가 이세돌을 제압했을 때부터 지금까지 줄곧 주장한대로, 인공지능이라고 불리는 컴퓨터 알고리즘은 Self-learning을 하는 구조가 아니라, 단순히 데이터 속의 패턴을 인식하는 여러가지 계산법 중 하나에 불과하다. 이런 인식이 시장에 널리 퍼지지 않은 탓에, 여전히 많은 사람들이 인공지능에 대한 막연한 기대가 있고, 밑도 끝도 없이 무조건 AI라는 듣기 매우 거북한 단어를 IT업계 곳곳에서 계속해서 들을 수 밖에 없다.

그런 믿음을 깨주는 재밌는 Joke를 하나 가져와봤다.

(9gag.com)

부모님: 니 친구들이 다 우물에 뛰어들면 너도 따라갈래?

아이: 아니요!

머신러닝 알고리즘: 예!

우습게 들릴지 모르겠지만, 이게 머신러닝 알고리즘의 현실이다. 우물에 뛰어들면 죽는다는 지식을 갖고있는 인간은 독립적인 선택을 하겠지만, 외부 입력 정보 없이 구조화된 입력 데이터에만 기반한 패턴 매칭 알고리즘인 머신러닝은 독립적인 선택이 아니라 데이터 의존적인 선택을 한다. 말을 바꾸면, 기존의 데이터에서 가장 자주 나타나는 패턴, 혹은 지정하는 패턴을 그대로 따라가도록 만드는, 지극히 통계학적인 계산 결과물에 불과하다. 가끔 이런말을 하면 무개념인 사람들이 “딥러닝은 다르다”는 망발을 하는데, 그거 그냥 Tree 방식으로 계산하는 머신러닝의 여러 계산법 중 하나다.

 

스타트업 사기꾼들

얼마전 모 대기업의 고위직 분께서 시간을 좀 내달라고 여러 채널로 부탁하시길래 계속 거절하기 죄송한 마음에 식사 자리에 나간 적이 있다. 자기네 회사가 어느 스타트업을 인수하려고 하는데, 이 회사가 기술력이 있는 회사인지 도무지 알 방법이 없다며 도움을 요청하시더라. 뭐하는 스타트업이길래 그렇게 큰 금액을 들여서 인수하시려고 하냐고 여쭤봤더니, 자연어를 처리해서 기존의 콜 센터를 없애버릴 수 있을만큼 실시간 대화가 가능하도록 만들어 준단다.

순간 아래의 사건이 생각났다.

(Sixthtone.com)

중국의 어느 스타트업이 자연어 처리 (속도)의 끝판왕이라고 할 수 있는 실시간 통역 or 동시통역을 할 수 있는 알고리즘을 만들었고, 그 정확도가 매우매우매우 높다는 홍보가 있었다. 요즘 다들 중국의 대국굴기에 놀라고, 중국에서 여러 놀랄만한 기사가 나오고 있기 때문에 관심이 많았던 것 같은데, 필자는 그 말을 듣는 내내 갸우뚱~ 했다. 일상 회화들을 데이터 베이스에서 불러와서 바로바로 처리하기도 버거울텐데, 전문 용어까지 세부 전공 분야를 바로바로 찾아내고 척척 바꿔줄 수 있다고?

예를 들어, Finance에서 Security라는 단어는 주식, 채권 같은 “증권”이다. 근데 비 관계자들은 이 단어를 “보안” or “안전”과 관계된 단어로 이해할 것이다. 이런 영어 단어가 하나 둘이 아닌데, 거기다 전문 용어는 데이터 베이스 만들려면 엄청난 번역 데이터를 새로 만들어넣고, 경우의 수가 훠얼씬 더 많아질텐데, 실시간 처리를 다 할 수 있다는게 충분히 놀랍지 않나? 당장 전문 용어 번역 데이터 베이스를 만들었다는 사실이 너무 쇼킹했었다. 기초 데이터를 만들기 위해서 초특급 전문가들을 번역에 투입시켜야할텐데, 전문가 1-2명 뽑아서 몇 시간 일 시키기도 비용이 만만치 않은데, 그 비용을 감당할 수 있다니ㄷㄷㄷㄷ

누군가 “머신러닝이 아니라 딥러닝으로 하면 데이터 없이도 다~ 됩니다”같은 망발을 했겠지. 이게 무슨 시뮬레이션 데이터 넣어서 해결할 수 있는 문제도 아니고….하~

아니나 다를까, 장막 뒤에 동시통역사 한 명을 불러놓고 시연을 했다는 기사가 났다. (위의 뉴스 스크랩 참조)

(AI 때문에 사람이 직장을 잃는 4차산업혁명말고, 사람 때문에 AI가 직장을 잃는 5차산업이라는 저 드립은 재밌어서 국내 유머사이트에서 퍼왔다. 출처가 기억나지 않아서 원 저작자분께 Credit을 드리지 못함을 미리 사과드린다.)

요즘 생각해보면, 소위 말하는 스타트업 사기꾼들이 인공지능에 대한 과장된 기대를 더 증폭시킨 것 같다. 사실 인공지능이 별 거 없는 패턴 매칭이라는 사실을 VC들이 제대로 인지하고 나면 투자를 안 할 것이고, 언론 입장에서는 독자를 끌어들일 수 없는 구조인데, 마침 검증 제대로 안 된 스타트업들이 이것저것 다 된다고 썰만 풀고 돈만 받고 먹튀하는 일이 자주 생기니까, 먹튀했다는 뒷 이야기를 언론이 제대로 전달해주지 않으면 일반인들은 인공지능이라는 단어만 기억할밖에.

스타트업하고 있는 필자 입장에서 말이 조심스럽지만, 그동안 만나봤던 VC들 숫자가 상당한데, 당장 우리회사의 비지니스 모델도 제대로 이해 못하는 VC들이 거의 대부분이었던 걸 생각해보면 더 화려한 결과물이 나온다는 주장은 제대로 이해 못한채 눈에 보이는 부분에만 혹해서 투자금을 밀어넣은 경우가 꽤나 될 것 같다.

-중국의 AI 차량 시연 영상: 자동감지 도어 (좌), 자동정지하는 자율주행차 (우)

 

AI마케팅, 거대한 사기의 끝

알파고를 7천억(?)에 구글에 팔았던 데미스 하사비스의 최근 인터뷰 하나를 봤다. 그 기사 아래의 댓글을 보면, “저 인간은 알파고 이후로 일을 안 하는거 같다. 2-3년 안에 다른 분야에 다 인공지능이 적용될 것처럼 말하더니 아직도 단순한 게임 몇 개에 겨우 적용하는 수준이잖아.”라는 식의 혹평이 달려있더라.

그 인터뷰에서 데미스 하사비스는 자기들이 했던 Neural Net 기반의 계산법으로 “강”인공지능을 만드는건 매우 어려워보인다고 솔직하게 시인을 하더라.

아마 당사자는 구글에 알파고 알고리즘을 팔 때부터 알고 있었을 것이고, 구글 CEO도 딥마인드를 인수하면서 그런 지식을 갖고 있었을 것이라고 생각한다. (아니 그렇게 믿고 싶다. 필자같은 초짜도 단번에 알았던 거니까)

굳이 따지자면, 아직도 게임 몇 개에 겨우 적용하는 수준이라고 답답하다는 혹평 댓글을 달았던 분은 속았던 것이다. 구글의 AI 마케팅이라는 거대한 사기에, 알파고라는 대형 퍼포먼스에 완벽하게 속아 넘어갔던 것이라고 봐야한다. (어느 스타트업 관계자 친구는 사람들이 AI가 조류독감이라고 하질 않는 것만해도 구글의 AI마케팅은 자기 할 일을 다 한 거란다ㅋㅋㅋ)

사실 구글만 AI마케팅을 했던 것도 아니고, 위에 언급한대로 수많은 스타트업과 VC들이 자신들의 이익을 위해 과장된 AI마케팅을 진행해왔다. 블록체인 마케팅이 끝물에 다다른 것처럼, AI마케팅도 슬슬 동력을 잃는 느낌이다.

 

나가며 – What’s Next

약 2년 남짓 동안 통계학 공부를 열심히 해야 머신러닝을 제대로 이해할 수 있다고 블로깅을 해 왔다. 전문 블로거가 아님에도 꽤나 긴 시간 이렇게 장문의 글을 써 올 수 있었던 에너지는 거대한 사기에 속아넘어가는 일반인들에 대한 안타까움(?), 교육자적인 열정(?), and/or 배운 사람의 노블리스 오블리주(?)였다기보다, 사업하면서 만나는 VC, 개발자, 꼰대를 비롯한 “통계학 모르는 사람들“의 속을 긁는 오해로 촉발된 활화산같은 분노였었다고 솔직하게 고백한다.

필자의 분노 섞인 블로깅과 관계없이, 그들이 말하는 AI가 더 이상 자신들이 기대했던 인공지능이 아니라는 걸 인지하시는 분들이 점점 늘어나고 있다. 최소한 기업들과의 외부 미팅에서 “통계학 모르는(데 끝까지 AI전문가인체 하는) 사람들“을 만나는 비중이 확확 줄어드는걸 느낀다.  (제발.. 누울 자리를 보고 발을 뻗으시면 안 될까요?ㅋㅋ) 물론 그들 대다수가 “해봤더니 안 된다며?” 라던가, “AWS에 있는 알고리즘 복사해서 붙여넣어봤는게 샘플 데이터에서만 작동하고 딴 데는 안 되던데요?” 같은 경험적 반증에 기반해있지 이론적인 이해와 논리적인 결론에 근거하고 있지 않다는 점이 좀 아쉽기는 하지만, 거대한 사기에 대한 필자의 주장에 공감해주시는 분들이 늘어나는 점은 반갑게 보고 싶다.

이게 “신기술“이 아니라, 인류가 오랫동안 알고 있었지만 쓸 곳이 별로 없었던 좀 복잡한 “계산방법” 중 하나라는 사실이 곧 대중들에도 널리 알려질 것이라고 본다. 오늘 신문지상에 나오는 인공지능이란 표현은, 수학과 통계학은 깊이있게 모르지만 어찌됐건 꿰어맞춰서 이 세상 모든 것을 다 자동화 시켜버리고 싶다는 공돌이들의 환상과 대용량 데이터를 처리할 수 있는 하드웨어적, 소프트웨어적인 지원이 맞아들어가는 몇몇 영역을 비지니스에 활용한 마케팅에 불과했다.

그동안 본 블로그를 통해 수학, 통계학 모르면서 전문가라고 우기는 집단을 “공돌이”라는 속어를 써서 비아냥거린 점에 좀 무거운 책임감이 느껴지지만, 다른 한편으로는 박사시절 만났던 스탠X드 공대 출신 지도교수부터 그 이후로 학회에서, 연구소에서, 직장에서, 비지니스 미팅에서 만났던 “공돌이”들 중에 수학, 통계학적으로 존경을 받을 수 있는 수준의 지식을 갖춘 상태로 “인공지능”이라는 단어를 읊는 사람을 여태 본 적이 없었다는 변명을 끝으로 이제 분노의 블로깅은 그만 정리할 생각이다.

앞으로는 회사 사업 모델과 관련된 AdTech, MarTech 비지니스 이야기에 초점을 맞춘 스타트업 블로그 본연의 모습으로 운영된다.

우리 회사 서비스 곧 출시될텐데, 많은 분들께서 써 주시면 좋겠다.

 


공지1: 2019년 3월 29일을 끝으로 데이터 사이언스 주제의 포스팅은 종료됩니다. 이 후에는 파비의 스타트업 운영 관계된 포스팅만 월 1회 작성됩니다.

공지2: 위와 같은날을 기준으로 댓글을 모두 삭제합니다. 추후에는 댓글 서비스를 제공하지 않습니다.