2017년 4월 16일 일요일

데이터 분석(이라 쓰고 노가다라 읽는다)

우아한 백조의 물밑 노가다는 눈에 잘 띄지 않는다. 그래서인지 데이터 분석, 데이터 시각화라는 용어가 꽤 흔해졌음에도 데이터 노가다의 현실은 잘 알려지지 않는 듯하다.

infographicslab203.com/how/

보이는 작업량은 빙산의 일각이라는 글은 전체 데이터 시각화 과정 중 디자인 노가다의 어려움을 잘 설명하고 있다. 이왕 알아본 김에 데이터 수집 및 정제 과정의 노가다에 대해서도 알아보자.

이런 데이터 분석은 어떻게 하는 걸까?

news.sbs.co.kr/news/endPage.do?news_id=N1003891049

당연히 일단 데이터가 있어야 한다.

데이터도 하늘에서 좀 떨어졌으면

SBS 뉴스 데이터를 수집해보자. 구글의 'intext:박근혜 site:news.sbs.co.kr' 검색 옵션은 news.sbs.co.kr 웹 사이트에서 본문에 ‘박근혜’가 포함된 문서만을 검색해준다.


그런데 데이터를 어떻게 가져오지? 일일이 복사 & 붙여넣기?


'마부작침(도끼를 갈아서 바늘을 만든다)'이라고 끈기를 가지면 못 이룰 일은 없겠지만, 바야흐로 굴도 기계가 까주는 세상. 데이터를 긁어오는 기계를 만들어보자.


기계가 되어줄 도구는 인터넷 주소를 이용해서 데이터를 송수신할 수 있는 cURL. 다음 슬라이드는 cURL을 이용한 재미 없는 데이터 수집 과정.


7단계의 공정을 거쳐 약 20만 줄의 데이터를 수집했다. 내 입장에서 원본 데이터는 보통 이런 식으로 생겼으며, 불필요한 데이터 제거, 분석하기 쉬운 형태로의 구조 변환 등이 필요한 불완전한 데이터이기 때문에 원시 데이터라고도 한다.


개인적으로 원시 데이터를 분석하기 쉬운 형태, 컴퓨터가 계산하기 쉬운 형태로 바꿀 때, 텍스트 에디터인 VIM(www.vim.org)이라는 도구를 애용한다. 보통 우리가 분석하려는 대부분의 데이터는 텍스트이기 때문. 다음은 15단계의 공정 끝에 정제가 끝난 데이터.


내친 김에 디자인도 해보자. 다음은 7단계 공정 끝에 탄생한 디자인 결과물. Gephi라는 오픈소스 데이터 시각화 도구를 사용했다. SBS와는 비교할 수 없는 발퀄(..)


데이터 정제 및 디자인 과정은 다음 슬라이드 참고.


cURL, VIM(과 정규표현식), 엑셀, Gephi 4개의 도구를 이용한, 데이터 수집부터 디자인까지 29단계의 데이터 분석(이라고 쓰고, 노가다라 읽는) 과정을 살펴봤다. 디자인 과정이 간단한 이유는 일단 디자인은 잘 모르기도 하고, 보통은 내 군생활이 제일 빡센 법이니깐.

말년에 유격이라니

세상만사는 노가다

얼마 전 어느 기자분으로부터 박근혜 전대통령 사저에 남겨진 지지자들의 포스트잇 메시지를 분석해달라는 요청을 받았다. 어떻게 수집했냐고 물었더니 600여개 정도의 포스트잇 메시지를 전부 옮겨 적었다고(..)

'신호와 소음'의 저자 네이트 실버는 이런 얘기를 했다

빅데이터, 인공지능이 유행이지만 컴퓨터를 부려먹으려면 아직까지는 사람의 노가다가 필요한 세상이다.

관련 글

댓글 없음:

댓글 쓰기

크리에이티브 커먼즈 라이선스